From 91ae870407c6c156c1be226e0669fc40ac60c6b2 Mon Sep 17 00:00:00 2001 From: jeff-colucci <116673918+jeff-colucci@users.noreply.github.com> Date: Thu, 10 Oct 2024 23:25:34 -0500 Subject: [PATCH 1/9] chore(Python): removing old python docs --- .../python-agent-stackato.mdx | 94 ------------------- .../python-agent-webfaction.mdx | 15 --- .../python-agent-stackato.mdx | 90 ------------------ .../python-agent-webfaction.mdx | 12 --- .../python-agent-stackato.mdx | 91 ------------------ .../python-agent-webfaction.mdx | 12 --- .../python-agent-stackato.mdx | 91 ------------------ .../python-agent-webfaction.mdx | 12 --- .../python-agent-stackato.mdx | 91 ------------------ .../python-agent-webfaction.mdx | 12 --- src/install/config/python.yaml | 10 ++ src/nav/apm.yml | 4 - 12 files changed, 10 insertions(+), 524 deletions(-) delete mode 100644 src/content/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx delete mode 100644 src/content/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx delete mode 100644 src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx delete mode 100644 src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx delete mode 100644 src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx delete mode 100644 src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx delete mode 100644 src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx delete mode 100644 src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx delete mode 100644 src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx delete mode 100644 src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx diff --git a/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx deleted file mode 100644 index 2d908263e98..00000000000 --- a/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx +++ /dev/null @@ -1,94 +0,0 @@ ---- -title: Python agent and Stackato -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.' -redirects: - - /docs/agents/python-agent/hosting-services/python-agent-stackato - - /docs/python/python-agent-and-stackato - - /docs/agents/python-agent/hosting-services/python-agent-and-stackato -freshnessValidatedDate: never ---- - -[Stackato](http://www.activestate.com/cloud) is a private PaaS solution developed by ActiveState. The Python agent can be used in conjunction with Stackato by following the steps outlined below. - -The instructions here require you to use version 0.6 or higher of the Stackato VM image. If you use an older version of the Stackato VM image you will need to upgrade. - -## Package installation - -ActiveState [hosts a copy](http://code.activestate.com/pypm/newrelic/) of the Python agent package in their [PyPM](http://code.activestate.com/pypm) package repository. To install the Python package for the agent, add `newrelic` into the `requirements.txt` file on a line by itself: - -``` -newrelic -``` - -You would then perform the `update` command using the Stackato client. - -The PyPM package repository updates daily. If you need to use a newer version of the Python agent than is available from the PyPM package repository, you will instead need to fallback to using [pip](http://www.pip-installer.org/en/latest/) and source packages from [PyPI](http://pypi.python.org). - -In this case you will need to create in addition to the `requirements.txt` file used by PyPM, a `requirements.pip` file as input for pip. In the `requirements.pip` file you should list the `newrelic` package. - -## Agent configuration file - -You will need to generate the Python agent configuration on your local system as described in [Python agent installation](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) and add that to the directory you push to your Stackato instance. - -The option in the agent configuration file for specifying where the agent log file output should go, should be set to: - -```ini -log_file = stderr -``` - -## Python agent initialization [#python-agent-intialization] - -Although you can manually include code for initializing the Python agent into the Python module containing your WSGI application entry point, as per instructions for [integration with your Python application](/docs/agents/python-agent/installation-and-configuration/python-agent-integration), a simplified startup method is also available by using the `newrelic-admin` script. - -In the case where you do it manually, such changes would typically be made to the `wsgi.py` file which includes your Python web application. Since the agent configuration file would be in the same directory, the change to the `wsgi.py` file would be to add: - -```py -import newrelic.agent - -config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini') -newrelic.agent.initialize(config_file) -``` - -Because the directory in the filesystem where the application is installed can change, the location of the agent configuration is calculated relative to the location of the `wsgi.py` file automatically. - -The alternative to adding code to perform initialization of the agent manually is to use the `newrelic-admin` script. - -If you are explicitly defining in the `stackato.yml` file how to startup your web application by setting the `web` entry in the `processes` section: - -```yml -processes: - web: python app.py -``` - -You would replace `web` so it reads: - -```yml -processes: - web: newrelic-admin run-program python app.py -``` - -In other words, you are prefixing the existing command with `newrelic-admin run-program`. - -At the same time, you should also add an `env` section to the `stackato.yml` file with: - -```yml -env: - NEW_RELIC_CONFIG_FILE: newrelic.ini -``` - -If you aren't overriding the `web` entry already and instead are relying on the default of the Stackato stack running uWSGI for you the process is a bit different. In this case you will need to add a `web` entry to `stackato.yml` as: - -```yml -processes: - web: newrelic-admin run-program $PROCESSES_WEB -``` - -The `env` section is also again required. - -If `PROCESSES_WEB` is not defined and this does not work it indicates you are using an older VM image and should upgrade. - -Whether the manual or more automated method is used, if necessary for the Python web framework being used, the WSGI application entry point object will also need to be wrapped appropriately. diff --git a/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx deleted file mode 100644 index 5adc20543c2..00000000000 --- a/src/content/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx +++ /dev/null @@ -1,15 +0,0 @@ ---- -title: Python agent and WebFaction -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.' -redirects: - - /docs/agents/python-agent/hosting-services/python-agent-webfaction - - /docs/python/python-agent-and-webfaction - - /docs/agents/python-agent/hosting-services/python-agent-and-webfaction -freshnessValidatedDate: never ---- - -You can install the Python agent on applications running on WebFaction. [WebFaction](http://www.webfaction.com/) is a general purpose web hosting service capable of hosting web applications using various languages including Python. The typical way that Python web applications are hosted on WebFaction is by using Apache/mod_wsgi. For more on installing The agent on a WebFaction Python application, see [Install the Python agent](/docs/agents/python-agent/installation-configuration/python-agent-installation) and follow the instructions for mod_wsgi. diff --git a/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx deleted file mode 100644 index 7c885b24a08..00000000000 --- a/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx +++ /dev/null @@ -1,90 +0,0 @@ ---- -title: Agente Python y Stackato -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.' -freshnessValidatedDate: never -translationType: machine ---- - -[Stackato](http://www.activestate.com/cloud) es una solución PaaS privada desarrollada por ActiveState. El agente Python se puede utilizar junto con Stackato siguiendo los pasos que se describen a continuación. - -Las instrucciones aquí requieren que utilice la versión 0.6 o superior de la imagen de la máquina virtual (VM) de Stackato. Si utiliza una versión anterior de la imagen de la máquina virtual (VM) de Stackato, deberá actualizarla. - -## Instalación del paquete - -ActiveState [aloja una copia](http://code.activestate.com/pypm/newrelic/) del paquete del agente Python en su repositorio de paquetes [PyPM](http://code.activestate.com/pypm) . Para instalar el paquete Python para el agente, agregue `newrelic` al archivo **requirements.txt** en una línea separada: - -``` -newrelic -``` - -Luego ejecutaría el comando `update` usando el cliente Stackato. - -El repositorio de paquetes PyPM se actualiza diariamente. Si necesita utilizar una versión más reciente del agente Python que la que está disponible en el repositorio de paquetes PyPM, deberá recurrir al uso de paquetes fuente y [pip](http://www.pip-installer.org/en/latest/) de [PyPI](http://pypi.python.org). - -En este caso, deberá crear además del archivo **requirements.txt** utilizado por PyPM, un archivo **requirements.pip** como entrada para pip. En el archivo **requirements.pip** debe incluir el paquete `newrelic` . - -## Archivo de configuración del agente - -Deberá generar la configuración del agente Python en su sistema local como se describe en [Instalación del agente Python](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) y agregarla al directorio que inserta en su instancia de Stackato. - -La opción en el archivo de configuración del agente para especificar dónde debe ir la salida del archivo de registro del agente debe configurarse en: - -``` -log_file = stderr -``` - -## Inicialización del agente Python [#python-agent-intialization] - -Aunque puede incluir código manualmente para inicializar el agente Python en el módulo Python que contiene el punto de entrada de su aplicación WSGI, según las instrucciones para [la integración con su aplicación Python](/docs/agents/python-agent/installation-and-configuration/python-agent-integration), también está disponible un método de inicio simplificado mediante el script **newrelic-admin** . - -En el caso de que lo haga manualmente, dichos cambios normalmente se realizarán en el archivo **wsgi.py** que incluye su aplicación web Python. Dado que el archivo de configuración del agente estaría en el mismo directorio, el cambio en el archivo **wsgi.py** sería agregar: - -``` -import newrelic.agent -config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini') -newrelic.agent.initialize(config_file) -``` - -Debido a que el directorio en el sistema de archivos donde está instalada la aplicación puede cambiar, la ubicación de la configuración del agente se calcula automáticamente en relación con la ubicación del archivo **wsgi.py** . - -La alternativa a agregar código para realizar la inicialización del agente manualmente es utilizar el script **newrelic-admin** . - -Si está definiendo explícitamente en el archivo **stackato.yml** cómo iniciar su aplicación web configurando la entrada `web` en la sección `processes` : - -``` -processes: - web: python app.py -``` - -Reemplazaría `web` para que diga: - -``` -processes: - web: newrelic-admin run-program python app.py -``` - -En otras palabras, está anteponiendo el comando existente con `newrelic-admin run-program`. - -Al mismo tiempo, también debes agregar una sección `env` al archivo **stackato.yml** con: - -``` -env: - NEW_RELIC_CONFIG_FILE: newrelic.ini -``` - -Si aún no está anulando la entrada `web` y en su lugar confía en el valor predeterminado de la stack Stackato que ejecuta uWSGI, el proceso es un poco diferente. En este caso, deberá agregar una entrada `web` a **stackato.yml** como: - -``` -processes: - web: newrelic-admin run-program $PROCESSES_WEB -``` - -La sección `env` también es obligatoria nuevamente. - -Si `PROCESSES_WEB` no está definido y esto no funciona, indica que está utilizando una imagen de máquina virtual (VM) anterior y debe actualizarla. - -Ya sea que se utilice el método manual o más automatizado, si es necesario para el framework web Python que se utiliza, el objeto de punto de entrada de la aplicación WSGI también deberá empaquetarse adecuadamente. diff --git a/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx deleted file mode 100644 index 49bacf6b08d..00000000000 --- a/src/i18n/content/es/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx +++ /dev/null @@ -1,12 +0,0 @@ ---- -title: Agente Python y WebFaction -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.' -freshnessValidatedDate: never -translationType: machine ---- - -Puede instalar el agente Python en una aplicación que se ejecuta en WebFaction. [WebFaction](http://www.webfaction.com/) es un servicio de alojamiento web de propósito general capaz de alojar aplicaciones web utilizando varios lenguajes, incluido Python. La forma típica en que las aplicaciones web Python se alojan en WebFaction es mediante Apache/mod_wsgi. Para obtener más información sobre la instalación del agente en una aplicación WebFaction Python, consulte [Instalar el agente Python](/docs/agents/python-agent/installation-configuration/python-agent-installation) y siga las instrucciones para mod_wsgi. diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx deleted file mode 100644 index 5506366cf22..00000000000 --- a/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx +++ /dev/null @@ -1,91 +0,0 @@ ---- -title: PythonエージェントとStackato -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.' -freshnessValidatedDate: never -translationType: machine ---- - -[Stackato](http://www.activestate.com/cloud) は ActiveState 社が開発したプライベート PaaS ソリューションです。Pythonエージェントは、以下の手順でStackatoと併用することができます。 - -ここでは、Stackato VM イメージのバージョン 0.6 以上を使用することを前提に説明しています。古いバージョンのStackato VMイメージを使用している場合は、アップグレードする必要があります。 - -## パッケージのインストール - -ActiveState[ は、](http://code.activestate.com/pypm/newrelic/)[ PyPM](http://code.activestate.com/pypm) パッケージ リポジトリに Python エージェント パッケージの コピーをホストしています 。エージェントの Python パッケージをインストールするには、 `requirements.txt`ファイルに`newrelic`を 1 行だけ追加します。 - -``` -newrelic -``` - -次に、Stackato クライアントを使用して`update`コマンドを実行します。 - -PyPM パッケージリポジトリは毎日更新されています。もし、PyPM パッケージリポジトリから入手できるものよりも新しいバージョンの Python エージェントを使用する必要がある場合は、代わりに [pip](http://www.pip-installer.org/en/latest/) と [PyPI](http://pypi.python.org) からソースパッケージを使用する必要があります。 - -この場合、PyPM で使用される`requirements.txt`ファイルに加えて、pip の入力として`requirements.pip`ファイルを作成する必要があります。 `requirements.pip`ファイルには`newrelic`パッケージをリストする必要があります。 - -## エージェント構成ファイル - -[Python agent installation](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) で説明しているように、ローカルシステム上でPython agent configurationを生成し、Stackatoインスタンスにプッシュするディレクトリに追加する必要があります。 - -エージェントのログファイルの出力先を指定するためのエージェント設定ファイルのオプションが設定されている必要があります。 - -```ini -log_file = stderr -``` - -## Pythonエージェントの初期化 [#python-agent-intialization] - -Python アプリケーションとの 統合の手順に従って、 エントリ ポイントを含む PythonWSGI[ ](/docs/agents/python-agent/installation-and-configuration/python-agent-integration)モジュールに Python エージェントを初期化するコードを手動で含めることもできますが、`newrelic-admin` スクリプトを使用した簡略化された起動方法も利用できます。 - -手動で行う場合、このような変更は通常、Python Web アプリケーションが含まれる`wsgi.py`ファイルに対して行われます。 エージェント設定ファイルは同じディレクトリにあるため、 `wsgi.py`ファイルへの変更は次のようになります。 - -```py -import newrelic.agent - -config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini') -newrelic.agent.initialize(config_file) -``` - -アプリケーションがインストールされるファイルシステム内のディレクトリは変更される可能性があるため、エージェント設定の場所は`wsgi.py`ファイルの場所を基準にして自動的に計算されます。 - -エージェントの初期化を手動で実行するコードを追加する代わりに、 `newrelic-admin`スクリプトを使用することもできます。 - -`processes`セクションの`web`エントリを設定して、Web アプリケーションの起動方法を`stackato.yml`ファイルで明示的に定義している場合: - -```yml -processes: - web: python app.py -``` - -`web`を次のように置き換えます。 - -```yml -processes: - web: newrelic-admin run-program python app.py -``` - -つまり、既存のコマンドの前に`newrelic-admin run-program`を付けています。 - -同時に、次のコードを使用して`stackato.yml`ファイルに`env`セクションを追加する必要があります。 - -```yml -env: - NEW_RELIC_CONFIG_FILE: newrelic.ini -``` - -`web`エントリをまだオーバーライドしておらず、代わりに uWSGI を実行する Stackato スタックのデフォルトに依存している場合、プロセスは少し異なります。 この場合、次のように`web`エントリを`stackato.yml`に追加する必要があります。 - -```yml -processes: - web: newrelic-admin run-program $PROCESSES_WEB -``` - -`env`セクションも必要です。 - -`PROCESSES_WEB`が定義されておらず、これが機能しない場合は、古い VM イメージを使用しており、アップグレードする必要があることを示しています。 - -手動でも自動でも、使用しているPythonウェブフレームワークに必要であれば、WSGIアプリケーションエントリーポイントオブジェクトも適切にラップする必要があります。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx deleted file mode 100644 index b2658a099b6..00000000000 --- a/src/i18n/content/jp/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx +++ /dev/null @@ -1,12 +0,0 @@ ---- -title: PythonエージェントとWebFaction -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.' -freshnessValidatedDate: never -translationType: machine ---- - -WebFaction 上で動作するアプリケーションに Python エージェントをインストールすることができます。 [WebFaction](http://www.webfaction.com/) は、Python を含む様々な言語を使用した Web アプリケーションをホストすることができる汎用の Web ホスティングサービスです。WebFaction上でPythonのWebアプリケーションをホストする典型的な方法は、Apache/mod_wsgiを使用することです。WebFaction の Python アプリケーションへの The agent のインストールについては、 [Install the Python agent](/docs/agents/python-agent/installation-configuration/python-agent-installation) を参照し、mod_wsgi の指示に従ってください。 diff --git a/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx deleted file mode 100644 index b98a876e7a9..00000000000 --- a/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx +++ /dev/null @@ -1,91 +0,0 @@ ---- -title: Python 에이전트 및 Stackato -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.' -freshnessValidatedDate: never -translationType: machine ---- - -[Stackato](http://www.activestate.com/cloud) 는 ActiveState에서 개발한 프라이빗 PaaS 솔루션입니다. Python 에이전트는 아래에 설명된 단계에 따라 Stackato와 함께 사용할 수 있습니다. - -여기 지침에 따르면 Stackato VM 이미지 버전 0.6 이상을 사용해야 합니다. Stackato VM 이미지의 이전 버전을 사용하는 경우 업그레이드해야 합니다. - -## 패키지 설치 - -ActiveState는 [PyPM](http://code.activestate.com/pypm) 패키지 저장소에 Python 에이전트 패키지의 복사본을 [호스팅합니다 .](http://code.activestate.com/pypm/newrelic/) 에이전트용 Python 패키지를 설치하려면 `requirements.txt` 파일에 한 줄씩 `newrelic` 추가하세요. - -``` -newrelic -``` - -그런 다음 Stackato 클라이언트를 사용하여 `update` 명령을 수행합니다. - -PyPM 패키지 저장소는 매일 업데이트됩니다. PyPM 패키지 리포지토리에서 사용할 수 있는 것보다 최신 버전의 Python 에이전트를 사용해야 하는 경우 대신 [PyPI](http://pypi.python.org) 에서 [pip](http://www.pip-installer.org/en/latest/) 및 소스 패키지를 사용하도록 대체해야 합니다. - -이 경우 PyPM에서 사용하는 `requirements.txt` 파일 외에 pip에 대한 입력으로 `requirements.pip` 파일을 생성해야 합니다. `requirements.pip` 파일에 `newrelic` 패키지를 나열해야 합니다. - -## 에이전트 구성 파일 - -[Python 에이전트 설치](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) 에 설명된 대로 로컬 시스템에서 Python 에이전트 구성을 생성하고 이를 Stackato 인스턴스에 푸시하는 디렉토리에 추가해야 합니다. - -에이전트 로그 파일 출력 위치를 지정하기 위한 에이전트 구성 파일의 옵션은 다음과 같이 설정해야 합니다. - -```ini -log_file = stderr -``` - -## Python 에이전트 초기화 [#python-agent-intialization] - -WSGI 애플리케이션 진입점이 포함된 Python 모듈에 Python 에이전트를 초기화하기 위한 코드를 수동으로 포함할 수 있지만 [Python 애플리케이션과의 통합](/docs/agents/python-agent/installation-and-configuration/python-agent-integration) 지침에 따라 `newrelic-admin` 스크립트를 사용하여 단순화된 시작 방법도 사용할 수 있습니다. - -수동으로 수행하는 경우 일반적으로 Python 웹 애플리케이션을 포함하는 `wsgi.py` 파일이 변경됩니다. 에이전트 설정 파일은 동일한 디렉터리에 있으므로 `wsgi.py` 파일에 대한 변경 사항은 다음을 추가하는 것입니다. - -```py -import newrelic.agent - -config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini') -newrelic.agent.initialize(config_file) -``` - -강제 설정이 설치된 파일 시스템의 디렉터리가 변경될 수 있으므로, 에이전트 설정의 위치는 `wsgi.py` 파일의 위치를 기준으로 자동으로 계산됩니다. - -에이전트 초기화를 수동으로 수행하기 위해 코드를 추가하는 대신 `newrelic-admin` 스크립트를 사용하는 것입니다. - -`processes` 섹션에서 `web` 항목을 설정하여 웹 애플리케이션을 시작하는 방법을 `stackato.yml` 파일에 명시적으로 정의하는 경우: - -```yml -processes: - web: python app.py -``` - -다음과 같이 `web` 을 대체합니다. - -```yml -processes: - web: newrelic-admin run-program python app.py -``` - -즉, 기존 명령에 `newrelic-admin run-program` 접두사를 붙입니다. - -동시에 다음을 사용하여 `stackato.yml` 파일에 `env` 섹션도 추가해야 합니다. - -```yml -env: - NEW_RELIC_CONFIG_FILE: newrelic.ini -``` - -이미 `web` 항목을 재정의하지 않고 대신 uWSGI를 실행하는 Stackato 스택의 기본값을 사용하는 경우 프로세스는 약간 다릅니다. 이 경우 다음과 같이 `web` 항목을 `stackato.yml` 에 추가해야 합니다. - -```yml -processes: - web: newrelic-admin run-program $PROCESSES_WEB -``` - -`env` 섹션도 다시 필요합니다. - -`PROCESSES_WEB` 이 정의되지 않고 이것이 작동하지 않으면 이전 VM 이미지를 사용하고 있으므로 업그레이드해야 함을 나타냅니다. - -수동 방법을 사용하든 더 자동화된 방법을 사용하든 사용 중인 Python 웹 프레임워크에 필요한 경우 WSGI 응용 프로그램 진입점 개체도 적절하게 래핑해야 합니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx deleted file mode 100644 index 520f9f723b6..00000000000 --- a/src/i18n/content/kr/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx +++ /dev/null @@ -1,12 +0,0 @@ ---- -title: Python 에이전트 및 WebFaction -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.' -freshnessValidatedDate: never -translationType: machine ---- - -WebFaction에서 실행되는 애플리케이션에 Python 에이전트를 설치할 수 있습니다. [WebFaction](http://www.webfaction.com/) 은 Python을 비롯한 다양한 언어를 사용하여 웹 애플리케이션을 호스팅할 수 있는 범용 웹 호스팅 서비스입니다. Python 웹 애플리케이션이 WebFaction에서 호스팅되는 일반적인 방법은 Apache/mod_wsgi를 사용하는 것입니다. WebFaction Python 애플리케이션에 에이전트를 설치하는 방법에 대한 자세한 내용 [은 Python 에이전트 설치](/docs/agents/python-agent/installation-configuration/python-agent-installation) 를 참조하고 mod_wsgi에 대한 지침을 따르십시오. diff --git a/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx b/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx deleted file mode 100644 index d98ab739719..00000000000 --- a/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-stackato.mdx +++ /dev/null @@ -1,91 +0,0 @@ ---- -title: Agente Python e Stackato -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'How to install, configure, and initialize the Python agent with ActiveState''s Stackato solution.' -freshnessValidatedDate: never -translationType: machine ---- - -[Stackato](http://www.activestate.com/cloud) é uma solução PaaS privada desenvolvida pela ActiveState. O agente Python pode ser usado em conjunto com Stackato seguindo as etapas descritas abaixo. - -As instruções aqui exigem que você use a versão 0.6 ou superior da imagem Stackato VM. Se você usar uma versão mais antiga da imagem Stackato VM, precisará atualizar. - -## Instalação do pacote - -ActiveState [hospeda uma cópia](http://code.activestate.com/pypm/newrelic/) do pacote do agente Python em seu repositório de pacotes [PyPM](http://code.activestate.com/pypm) . Para instalar o pacote Python para o agente, adicione `newrelic` ao arquivo `requirements.txt` em uma linha separada: - -``` -newrelic -``` - -Em seguida, você executaria o comando `update` usando o cliente Stackato. - -O repositório de pacotes PyPM é atualizado diariamente. Se você precisar usar uma versão mais recente do agente Python do que a disponível no repositório de pacotes PyPM, você precisará usar [pip](http://www.pip-installer.org/en/latest/) e pacotes de origem do [PyPI](http://pypi.python.org). - -Neste caso você precisará criar além do arquivo `requirements.txt` usado pelo PyPM, um arquivo `requirements.pip` como entrada para o pip. No arquivo `requirements.pip` você deve listar o pacote `newrelic` . - -## Arquivo de configuração do agente - -Você precisará gerar a configuração do agente Python em seu sistema local conforme descrito em [Instalação do agente Python](/docs/agents/python-agent/installation-and-configuration/python-agent-installation) e adicioná-la ao diretório que você envia para sua instância Stackato. - -A opção no arquivo de configuração do agente para especificar onde a saída do arquivo de log do agente deve ir deve ser definida como: - -```ini -log_file = stderr -``` - -## Inicialização do agente Python [#python-agent-intialization] - -Embora seja possível incluir manualmente o código para inicializar o agente Python no módulo Python que contém o ponto de entrada do aplicativo WSGI, conforme instruções para [integração com o aplicativo Python](/docs/agents/python-agent/installation-and-configuration/python-agent-integration), um método de inicialização simplificado também está disponível usando o script `newrelic-admin` . - -No caso de você fazer isso manualmente, essas alterações normalmente serão feitas no arquivo `wsgi.py` que inclui seu aplicativo Web Python. Como o arquivo de configuração do agente estaria no mesmo diretório, a alteração no arquivo `wsgi.py` seria adicionar: - -```py -import newrelic.agent - -config_file = os.path.join(os.path.dirname(__file__), 'newrelic.ini') -newrelic.agent.initialize(config_file) -``` - -Como o diretório no sistema de arquivos onde o aplicativo está instalado pode mudar, o local da configuração do agente é calculado automaticamente em relação ao local do arquivo `wsgi.py` . - -A alternativa para adicionar código para executar a inicialização do agente manualmente é usar o script `newrelic-admin` . - -Se você estiver definindo explicitamente no arquivo `stackato.yml` como inicializar seu aplicativo da web definindo a entrada `web` na seção `processes` : - -```yml -processes: - web: python app.py -``` - -Você substituiria `web` para que ficasse: - -```yml -processes: - web: newrelic-admin run-program python app.py -``` - -Em outras palavras, você está prefixando o comando existente com `newrelic-admin run-program`. - -Ao mesmo tempo, você também deve adicionar uma seção `env` ao arquivo `stackato.yml` com: - -```yml -env: - NEW_RELIC_CONFIG_FILE: newrelic.ini -``` - -Se você ainda não estiver substituindo a entrada `web` e, em vez disso, estiver contando com o padrão da stack Stackato executando uWSGI para você, o processo será um pouco diferente. Neste caso, você precisará adicionar uma entrada `web` a `stackato.yml` como: - -```yml -processes: - web: newrelic-admin run-program $PROCESSES_WEB -``` - -A seção `env` também é novamente obrigatória. - -Se `PROCESSES_WEB` não estiver definido e isso não funcionar, indica que você está usando uma imagem de VM mais antiga e deve fazer upgrade. - -Quer o método manual ou mais automatizado seja usado, se necessário para a framework da web Python que está sendo usada, o objeto de ponto de entrada do aplicativo WSGI também precisará ser empacotado adequadamente. \ No newline at end of file diff --git a/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx b/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx deleted file mode 100644 index 78cbd1cd6ec..00000000000 --- a/src/i18n/content/pt/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction.mdx +++ /dev/null @@ -1,12 +0,0 @@ ---- -title: Agente Python e WebFaction -tags: - - Agents - - Python agent - - Hosting services -metaDescription: 'To use the Python agent with WebFaction hosting services, follow the instructions for Apache/mod_wsgi.' -freshnessValidatedDate: never -translationType: machine ---- - -Você pode instalar o agente Python no aplicativo em execução no WebFaction. [WebFaction](http://www.webfaction.com/) é um serviço de hospedagem web de uso geral capaz de hospedar aplicativos web usando várias linguagens, incluindo Python. A maneira típica como os aplicativos da web Python são hospedados no WebFaction é usando Apache/mod_wsgi. Para obter mais informações sobre como instalar o agente em um aplicativo WebFaction Python, consulte [Instalar o agente Python](/docs/agents/python-agent/installation-configuration/python-agent-installation) e siga as instruções para mod_wsgi. diff --git a/src/install/config/python.yaml b/src/install/config/python.yaml index e69ce39e0d9..58ea412bbc7 100644 --- a/src/install/config/python.yaml +++ b/src/install/config/python.yaml @@ -131,6 +131,16 @@ redirects: - /docs/agents/python-agent/web-frameworks/python-agent-web2py - /docs/apm/agents/python-agent/web-frameworks-servers/python-agent-web2py-web-framework + - /docs/agents/python-agent/hosting-services/python-agent-stackato + - /docs/python/python-agent-and-stackato + - /docs/agents/python-agent/hosting-services/python-agent-and-stackato + - /docs/apm/agents/python-agent/hosting-services/python-agent-stackato + + - /docs/agents/python-agent/hosting-services/python-agent-webfaction + - /docs/python/python-agent-and-webfaction + - /docs/agents/python-agent/hosting-services/python-agent-and-webfaction + - /docs/apm/agents/python-agent/hosting-services/python-agent-webfaction + # ----------------------------------------------------------------- # Define the categories for each type of question you'll be asking: # ----------------------------------------------------------------- diff --git a/src/nav/apm.yml b/src/nav/apm.yml index 0e230ad2f41..0d10f13a87f 100644 --- a/src/nav/apm.yml +++ b/src/nav/apm.yml @@ -950,10 +950,6 @@ pages: path: /docs/apm/agents/python-agent/hosting-services/python-agent-heroku - title: OpenShift hosting service path: /docs/apm/agents/python-agent/hosting-services/python-agent-openshift - - title: Stackato hosting service - path: /docs/apm/agents/python-agent/hosting-services/python-agent-stackato - - title: WebFaction hosting service - path: /docs/apm/agents/python-agent/hosting-services/python-agent-webfaction - title: Attributes path: /docs/apm/agents/python-agent/attributes pages: From 86cb73c61732854bed895ddcf06f0d8fcfb63cd2 Mon Sep 17 00:00:00 2001 From: Brian Hensley <48165493+brnhensley@users.noreply.github.com> Date: Fri, 11 Oct 2024 09:08:31 -0700 Subject: [PATCH 2/9] chore: code formatting, consistancy of variable names & comment styles --- ...ble-enable-alerts-conditions-using-api.mdx | 32 +++++++++---------- 1 file changed, 16 insertions(+), 16 deletions(-) diff --git a/src/content/docs/alerts/scale-automate/rest-api/disable-enable-alerts-conditions-using-api.mdx b/src/content/docs/alerts/scale-automate/rest-api/disable-enable-alerts-conditions-using-api.mdx index 22062553713..716fce63e0a 100644 --- a/src/content/docs/alerts/scale-automate/rest-api/disable-enable-alerts-conditions-using-api.mdx +++ b/src/content/docs/alerts/scale-automate/rest-api/disable-enable-alerts-conditions-using-api.mdx @@ -85,21 +85,21 @@ The process for disabling or enabling a condition is the same general process fo The following example shows how to disable a condition for an `apm_app_metric` condition. With the exception of the types of API calls required, the process is similar to the process for changing other condition types. -1. Obtain the **policy_id** of the policy you want to update. For an imaginary policy named `Logjam Alert`, the command would be: +1. Obtain the `policy_id` of the policy you want to update. For an imaginary policy named `Logjam Alert`, the command would be: - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_policies.json' \ - -H "X-Api-Key:$API_KEY" -i \ - -G --data-urlencode 'filter[name]= Logjam Alert' <---<<< {policy_name} + -H "X-Api-Key:$API_KEY" -i \ + -G --data-urlencode 'filter[name]= Logjam Alert' # policy_name ``` The output for this request might look like: - ``` + ```json { "policies": [ { - "id": 85, <---<<< $POLICY_ID + "id": 85, // policy_id "incident_preference": "PER_POLICY", "name": "Logjam Alert", "created_at": 1461176510393, @@ -108,24 +108,24 @@ The following example shows how to disable a condition for an `apm_app_metric` c ] } ``` -2. List all of this policy's conditions and locate the `{condition_id}`: +2. List all of this policy's conditions and locate the `condition_id`: - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_conditions.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "X-Api-Key:$API_KEY" -i \ -G -d 'policy_id=85' ``` The output for this request might look like: - ``` + ```json { "conditions": [ { - "id": 12345, <---<<< $CONDITION_ID + "id": 12345, // condition_id "type": "apm_app_metric", "name": "Apdex (Low)", - "enabled": true, <---<<< Note the condition is enabled + "enabled": true, // Note the condition is enabled "entities": [ "8288171" ], @@ -141,7 +141,7 @@ The following example shows how to disable a condition for an `apm_app_metric` c ] }, { - "id": 2468, <---<<< another condition_id + "id": 2468, // another condition_id "type": "apm_app_metric", "name": "Throughput (Low)", ... @@ -151,16 +151,16 @@ The following example shows how to disable a condition for an `apm_app_metric` c ``` 3. Copy the JSON for only the condition in question and paste it in a text editor. Change `"enabled": true` to `"enabled": false`. The edited JSON would look like: - ``` + ```shell lineHighlight=9 curl -X PUT 'https://api.newrelic.com/v2/alerts_conditions/12345.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "X-Api-Key:$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ "condition": { "type": "apm_app_metric", "name": "Apdex (Low)", - "enabled": false, <---<<< Changed to false + "enabled": false, "entities": [ "8288171" ], From 6dc63498e2dbb5e72125d08dcc01f2c16f11e920 Mon Sep 17 00:00:00 2001 From: Brian Hensley <48165493+brnhensley@users.noreply.github.com> Date: Fri, 11 Oct 2024 09:24:50 -0700 Subject: [PATCH 3/9] chore: format code blocks, make variable naming consistent --- .../manage-entities-alerts-conditions.mdx | 54 +++++++++---------- 1 file changed, 27 insertions(+), 27 deletions(-) diff --git a/src/content/docs/alerts/scale-automate/rest-api/manage-entities-alerts-conditions.mdx b/src/content/docs/alerts/scale-automate/rest-api/manage-entities-alerts-conditions.mdx index e14a06c6cea..8f7e29524d0 100644 --- a/src/content/docs/alerts/scale-automate/rest-api/manage-entities-alerts-conditions.mdx +++ b/src/content/docs/alerts/scale-automate/rest-api/manage-entities-alerts-conditions.mdx @@ -25,8 +25,8 @@ The REST API is no longer the preferred way to programmatically manage your aler Modifying the list of entities in a condition requires you to know: * Your [API key](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) -* The [{entity_ID}](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-entity) of the entity you want to monitor -* The [{condition_ID}](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-condition) of the condition you want to modify +* The [`entity_id`](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-entity) of the entity you want to monitor +* The [`condition_id`](/docs/alerts/new-relic-alerts/getting-started/alerts-glossary#alert-condition) of the condition you want to modify ## General procedure [#basic_process] @@ -50,29 +50,29 @@ The following example shows how to add a Ruby application named `TimberTime` in Only the first step in this example is unique to choosing the Ruby app as the entity. The remaining steps will be the same for whichever entity you choose. -1. Get the `entity_id`; for example, `{application_id}`: +1. Get the `entity_id`; for example, `application_id`: - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/applications.json' \ - -H "X-Api-Key:$API_KEY" -i + -H $API_KEY -i ``` OR If you know the application name, use this command and specify the `app_name`: - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/applications.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H $API_KEY -i \ -d 'filter[name]=TimberTime' ``` -2. Review the output to find the `{application_id}`, and use it as the `{entity_id}`: +2. Review the output to find the `application_id`, and use it as the `entity_id`: - ``` + ```json { "applications": [ { - "id": 12345, <---<<< {application_id} == {entity_id} + "id": 12345, // application_id == entity_id "name": "TimberTime", "language": "ruby", "health_status": "gray", @@ -81,44 +81,44 @@ Only the first step in this example is unique to choosing the Ruby app as the en ``` 3. Get the `policy_id` you want to update; for example, the `TimberTime` app's `Logjam Alert` policy. To get the `policy_id`, use this command: - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_policies.json' \ - -H "X-Api-Key:$API_KEY" -i \ - -G -d 'filter[name]= Logjam Alert' <---<<< {policy_name} + -H $API_KEY -i \ + -G -d 'filter[name]= Logjam Alert' # policy_name ``` 4. Review the policy output; for example: - ``` + ```json { "policies": [ { - "id": 85, <---<<< {policy_id} + "id": 85, // policy_id "incident_preference": "PER_POLICY", "name": "Logjam Alert", "created_at": 1461176510393, "updated_at": 1461176510393 }, ``` -5. List all of this policy's conditions and locate the `{condition_id}`: +5. List all of this policy's conditions and locate the `condition_id`: - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_conditions.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H $API_KEY -i \ -G -d 'policy_id=85' ``` Review the policy conditions; for example: - ``` + ```json { "conditions": [ { - "id": 234567, <---<<< {condition_id} + "id": 234567, // condition_id "type": "apm_app_metric", "name": "Throughput (web) (High)", "enabled": true, "entities": [ - "8288171" <---<<< Entity currently included in the policy + "8288171" // Entity currently included in the policy ], "metric": "response_time_web", "terms": [ @@ -136,19 +136,19 @@ Only the first step in this example is unique to choosing the Ruby app as the en ``` 6. Use API requests to add entities to or remove entities from the policy's condition: - To add `{entity_id}` 12345 to `{condition_id}` 234567, with `{entity_type}` set as `application`: + To add `entity_id` 12345 to `condition_id` 234567, with `entity_type` set as `Application`: - ``` + ```shell curl -X PUT 'https://api.newrelic.com/v2/alerts_entity_conditions/12345.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H $API_KEY -i \ -H 'Content-Type: application/json' \ -G -d 'entity_type=Application&condition_id=234567' ``` - To remove `{entity_id}` 8288171 from `{condition_id}` 234567, with `{entity_type}` set as `application`: + To remove `entity_id` 8288171 from `condition_id` 234567, with `entity_type` set as `Application`: - ``` + ```shell curl -X DELETE 'https://api.newrelic.com/v2/alerts_entity_conditions/8288171.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H $API_KEY -i \ -G -d 'entity_type=Application&condition_id=234567' ``` From efacb143b92b18ba3a975ff181fa8ab52e0772c7 Mon Sep 17 00:00:00 2001 From: Brian Hensley <48165493+brnhensley@users.noreply.github.com> Date: Fri, 11 Oct 2024 09:42:12 -0700 Subject: [PATCH 4/9] chore: format code blocks, cleanup --- .../rest-api/rest-api-calls-alerts.mdx | 112 +++++++++--------- 1 file changed, 56 insertions(+), 56 deletions(-) diff --git a/src/content/docs/alerts/scale-automate/rest-api/rest-api-calls-alerts.mdx b/src/content/docs/alerts/scale-automate/rest-api/rest-api-calls-alerts.mdx index 68a670e3647..1f4b19d5abb 100644 --- a/src/content/docs/alerts/scale-automate/rest-api/rest-api-calls-alerts.mdx +++ b/src/content/docs/alerts/scale-automate/rest-api/rest-api-calls-alerts.mdx @@ -164,7 +164,7 @@ These API functions include links to the API Explorer, where you can create, del - Incident `incident_preference` + `incident_preference` @@ -178,11 +178,11 @@ These API functions include links to the API Explorer, where you can create, del - [Policy `name`](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/name-or-rename-alert-policy) + [`name`](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/name-or-rename-alert-policy) - The policy `name` is required. Leaving it unchanged will create a policy called string. + The policy `name` is required. Leaving it unchanged will create a policy called `string`. @@ -192,9 +192,9 @@ These API functions include links to the API Explorer, where you can create, del **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_policies/create) > Alerts Policies > POST > Create** - ``` + ```shell curl -X POST 'https://api.newrelic.com/v2/alerts_policies.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -236,7 +236,7 @@ These API functions include links to the API Explorer, where you can create, del - Required. To find a policy's ID, use either of these options: + To find a policy's ID, use either of these options: * From the UI: On a policy's UI page, find the ID under the policy name. * With the API: Use the [List policies API](/docs/alerts/rest-api-alerts/new-relic-alerts-rest-api/rest-api-calls-new-relic-alerts#policies-list). @@ -245,7 +245,7 @@ These API functions include links to the API Explorer, where you can create, del - Incident `incident_preference` + `incident_preference` @@ -259,11 +259,11 @@ These API functions include links to the API Explorer, where you can create, del - [Policy `name`](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/name-or-rename-alert-policy) + [`name`](/docs/alerts/new-relic-alerts-beta/configuring-alert-policies/name-or-rename-alert-policy) - **Required.** If you do not change the name, it defaults to a policy called string. + The policy `name`, if you do not change the `name` it defaults to a policy called `string`. To find a policy's exact name, use the [List policies API](/docs/alerts/rest-api-alerts/new-relic-alerts-rest-api/rest-api-calls-new-relic-alerts#policies-list). @@ -275,9 +275,9 @@ These API functions include links to the API Explorer, where you can create, del **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_policies/create) > Alerts Policies > PUT > Update** - ``` + ```shell curl -X PUT 'https://api.newrelic.com/v2/alerts_policies/{id}.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -299,9 +299,9 @@ These API functions include links to the API Explorer, where you can create, del **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_policies/delete) > Alerts Policies > DELETE > Delete** - ``` + ```shell curl -X DELETE 'https://api.newrelic.com/v2/alerts_policies/$POLICY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -318,9 +318,9 @@ These API functions include links to the API Explorer, where you can create, del **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_policies/list) > Alerts Policies > GET > List** - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_policies.json' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -360,7 +360,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X POST 'https://api.newrelic.com/v2/alerts_conditions/policies/$POLICY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -412,7 +412,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X PUT 'https://api.newrelic.com/v2/alerts_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -460,9 +460,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_conditions/update) > Alerts Conditions > DELETE > Delete** - ``` + ```shell curl -X DELETE 'https://api.newrelic.com/v2/alerts_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -476,9 +476,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_conditions/list) > Alerts Conditions > GET > List** - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_conditions.json?policy_id=$POLICY_ID' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -508,7 +508,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X POST 'https://api.newrelic.com/v2/alerts_nrql_conditions/policies/$POLICY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -567,7 +567,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X PUT 'https://api.newrelic.com/v2/alerts_nrql_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -606,9 +606,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_nrql_conditions/delete) > Alerts NRQL Conditions > DELETE > Delete** - ``` + ```shell curl -X DELETE 'https://api.newrelic.com/v2/alerts_nrql_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -622,9 +622,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_nrql_conditions/list) > Alerts NRQL Conditions > GET > List** - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_nrql_conditions.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -d 'policy_id=$POLICY_ID' ``` @@ -655,7 +655,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X POST 'https://api.newrelic.com/v2/alerts_external_service_conditions/policies/$POLICY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -701,7 +701,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X PUT 'https://api.newrelic.com/v2/alerts_external_service_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -742,9 +742,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_external_service_conditions/delete) > Alerts External Service Conditions > DELETE > Delete** - ``` + ```shell curl -X DELETE 'https://api.newrelic.com/v2/alerts_external_service_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -758,9 +758,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_external_service_conditions/list) > Alerts External Service Conditions > GET > List** - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_external_service_conditions.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -d 'policy_id=$POLICY_ID' ``` @@ -787,7 +787,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X POST 'https://api.newrelic.com/v2/alerts_synthetics_conditions/policies/$POLICY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -819,7 +819,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X PUT 'https://api.newrelic.com/v2/alerts_synthetics_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -846,9 +846,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_synthetics_conditions/delete) > Alerts Synthetics Conditions > DELETE > Delete** - ``` + ```shell curl -X DELETE 'https://api.newrelic.com/v2/alerts_synthetics_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -862,9 +862,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_synthetics_conditions/list) > Alerts Synthetics Conditions > GET > List** - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_synthetics_conditions.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -d 'policy_id=$POLICY_ID' ``` @@ -891,7 +891,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X POST 'https://api.newrelic.com/v2/alerts_location_failure_conditions/policies/$POLICY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -933,7 +933,7 @@ These API functions include links to the API Explorer, where you can create, upd ``` curl -X PUT 'https://api.newrelic.com/v2/alerts_location_failure_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -d \ '{ @@ -943,13 +943,13 @@ These API functions include links to the API Explorer, where you can create, upd "enabled": boolean, "entities": [ - "string" + "string" ], "terms": [ - { - "priority": "string", - "threshold": integer, - } + { + "priority": "string", + "threshold": integer, + } ], "violation_time_limit_seconds": integer } @@ -970,9 +970,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_location_failure_conditions/delete) > Alerts Location Failure Conditions > DELETE > Delete** - ``` + ```shell curl -X DELETE 'https://api.newrelic.com/v2/alerts_location_failure_conditions/$CONDITION_ID.json' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -986,9 +986,9 @@ These API functions include links to the API Explorer, where you can create, upd **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_location_failure_conditions/list) > Alerts Location Failure Conditions > GET > List** - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_location_failure_conditions/policies/$POLICY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i + -H "$API_KEY" -i ``` @@ -1021,9 +1021,9 @@ These API functions include links to the API Explorer, where you can list, add a **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_entity_conditions/list) > Alerts Entity Conditions > GET > list** - ``` + ```shell curl -X GET 'https://api.newrelic.com/v2/alerts_entity_conditions/$ENTITY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -G -d 'entity_type=$ENTITY_TYPE' ``` @@ -1048,9 +1048,9 @@ These API functions include links to the API Explorer, where you can list, add a **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_entity_conditions/add) > Alerts Entity Conditions > PUT > Add** - ``` + ```shell curl -X PUT 'https://api.newrelic.com/v2/alerts_entity_conditions/$ENTITY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -H 'Content-Type: application/json' \ -G -d 'entity_type=$ENTITY_TYPE&condition_id=$CONDITION_ID' ``` @@ -1076,9 +1076,9 @@ These API functions include links to the API Explorer, where you can list, add a **[API Explorer](https://rpm.newrelic.com/api/explore/alerts_entity_conditions/remove) > Alerts Entity Conditions > DELETE > Remove** - ``` + ```shell curl -X DELETE 'https://api.newrelic.com/v2/alerts_entity_conditions/$ENTITY_ID.json' \ - -H "X-Api-Key:$API_KEY" -i \ + -H "$API_KEY" -i \ -G -d 'entity_type=$ENTITY_ID&condition_id=$CONDITION_ID' ``` From eb0b625cbdd1749579c30a2d6937e7cec7dadcaf Mon Sep 17 00:00:00 2001 From: jeff-colucci <116673918+jeff-colucci@users.noreply.github.com> Date: Fri, 11 Oct 2024 12:30:06 -0500 Subject: [PATCH 5/9] fix(Python): Removing from compatibility list --- .../getting-started/compatibility-requirements-python-agent.mdx | 2 -- 1 file changed, 2 deletions(-) diff --git a/src/content/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx b/src/content/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx index 33814dae641..02fd08b8603 100644 --- a/src/content/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx +++ b/src/content/docs/apm/agents/python-agent/getting-started/compatibility-requirements-python-agent.mdx @@ -113,8 +113,6 @@ If you don't have one already, [create a New Relic account](https://newrelic.com * [Google App Engine flexible environment](/docs/agents/python-agent/hosting-services/install-new-relic-python-agent-gae-flexible-environment). * [Heroku](/docs/apm/agents/python-agent/hosting-services/python-agent-heroku/) * [OpenShift](/docs/apm/agents/python-agent/hosting-services/python-agent-openshift/) - * [Stackato](/docs/apm/agents/python-agent/hosting-services/python-agent-stackato/) - * [WebFaction](/docs/apm/agents/python-agent/hosting-services/python-agent-webfaction/) From 4a4d8982552310b0eee29d7cfd8bbd6fbd3864ae Mon Sep 17 00:00:00 2001 From: Marty Tippin <120425148+tippmar-nr@users.noreply.github.com> Date: Fri, 11 Oct 2024 15:17:03 -0500 Subject: [PATCH 6/9] chore(dotnet): Correct release notes for .NET agent v10.30.0 --- .../agent-release-notes/net-release-notes/net-agent-10-30-0.mdx | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/src/content/docs/release-notes/agent-release-notes/net-release-notes/net-agent-10-30-0.mdx b/src/content/docs/release-notes/agent-release-notes/net-release-notes/net-agent-10-30-0.mdx index de85ace4c83..df074f1a166 100644 --- a/src/content/docs/release-notes/agent-release-notes/net-release-notes/net-agent-10-30-0.mdx +++ b/src/content/docs/release-notes/agent-release-notes/net-release-notes/net-agent-10-30-0.mdx @@ -11,7 +11,7 @@ security: [] ### New features * Oracle instrumentation now supports latest version. ([#2721](https://github.com/newrelic/newrelic-dotnet-agent/issues/2721)) ([50cb663](https://github.com/newrelic/newrelic-dotnet-agent/commit/50cb663957ccfcfd55d104a7f54755100bfa46cc)) -* Preview support for instrumentation of "isolated" model Azure Functions. Instrumentation is disabled by default. Please reach out to your account team if you would like to try this new feature. ([d8a79e5](https://github.com/newrelic/newrelic-dotnet-agent/commit/d8a79e51683225e9b574efc8d1b154b2a4b9eadc)) +* Initial support for instrumentation of "isolated" model Azure Functions. Instrumentation is disabled by default. ([d8a79e5](https://github.com/newrelic/newrelic-dotnet-agent/commit/d8a79e51683225e9b574efc8d1b154b2a4b9eadc)) ### Fixes From 13bb55e7b3393f5f2091210dd5c5e04ba0da2406 Mon Sep 17 00:00:00 2001 From: svc-docs-eng-opensource-bot Date: Sat, 12 Oct 2024 12:04:12 +0000 Subject: [PATCH 7/9] chore: add translations --- ...ecordllmfeedbackevent-python-agent-api.mdx | 14 +- ...thllmcustomattributes-python-agent-api.mdx | 85 ++++++ .../azure-integrations-list/azure-monitor.mdx | 1 + .../migration-guide.mdx | 3 +- .../setup-prometheus-agent.mdx | 161 ++++++------ .../troubleshooting-guide.mdx | 16 +- .../integrations-list/argocd-integration.mdx | 12 +- .../integrations-list/calico-integration.mdx | 14 +- .../cockroach-db-integration.mdx | 56 ++-- .../core-dns-integration.mdx | 14 +- .../integrations-list/etcd-integration.mdx | 16 +- .../integrations-list/harbor-integration.mdx | 10 +- .../ingress-controller-integration.mdx | 12 +- .../node-exporter-integration.mdx | 77 +++--- .../integrations-list/redis-integration.mdx | 12 +- .../integrations-list/traefik-integration.mdx | 10 +- .../integrations-list/velero-integration.mdx | 12 +- .../compare-rw-data-sent-billed-bytes.mdx | 74 +++--- .../get-logs-prometheus-integration.mdx | 26 +- ...te-limit-errors-prometheus-integration.mdx | 4 +- .../restarts-gaps-data-kubernetes.mdx | 4 +- .../recommended-alert-policies.mdx | 191 ++++++++++---- .../find-use-your-kubernetes-data.mdx | 4 + .../get-started/networks.mdx | 2 +- ...opentelemetry-best-practices-resources.mdx | 2 +- .../opentelemetry-collector-infra-intro.mdx | 6 +- ...filter-new-relic-one-dashboards-facets.mdx | 50 ++-- .../log-install-new-relic-partners.mdx | 48 +--- .../api-explorer-v2/use-api-explorer.mdx | 83 +----- ...ist-application-id-host-id-instance-id.mdx | 111 ++------ ...ecordllmfeedbackevent-python-agent-api.mdx | 14 +- ...thllmcustomattributes-python-agent-api.mdx | 85 ++++++ .../azure-integrations-list/azure-monitor.mdx | 1 + .../migration-guide.mdx | 3 +- .../setup-prometheus-agent.mdx | 161 ++++++------ .../troubleshooting-guide.mdx | 16 +- .../integrations-list/argocd-integration.mdx | 12 +- .../integrations-list/calico-integration.mdx | 14 +- .../cockroach-db-integration.mdx | 56 ++-- .../core-dns-integration.mdx | 14 +- .../integrations-list/etcd-integration.mdx | 16 +- .../integrations-list/harbor-integration.mdx | 10 +- .../ingress-controller-integration.mdx | 12 +- .../node-exporter-integration.mdx | 77 +++--- .../integrations-list/redis-integration.mdx | 12 +- .../integrations-list/traefik-integration.mdx | 10 +- .../integrations-list/velero-integration.mdx | 12 +- .../compare-rw-data-sent-billed-bytes.mdx | 74 +++--- .../get-logs-prometheus-integration.mdx | 26 +- ...te-limit-errors-prometheus-integration.mdx | 4 +- .../restarts-gaps-data-kubernetes.mdx | 4 +- .../introduction-kubernetes-integration.mdx | 2 +- .../installation/k8s-agent-operator.mdx | 136 +++++----- .../recommended-alert-policies.mdx | 191 ++++++++++---- .../find-use-your-kubernetes-data.mdx | 4 + ...opentelemetry-best-practices-resources.mdx | 2 +- .../opentelemetry-collector-infra-intro.mdx | 6 +- .../log-install-new-relic-partners.mdx | 48 +--- .../apis/intro-apis/new-relic-api-keys.mdx | 247 ++++-------------- .../api-explorer-v2/use-api-explorer.mdx | 83 +----- ...ist-application-id-host-id-instance-id.mdx | 113 ++------ ...ecordllmfeedbackevent-python-agent-api.mdx | 18 +- ...thllmcustomattributes-python-agent-api.mdx | 85 ++++++ .../azure-integrations-list/azure-monitor.mdx | 1 + .../migration-guide.mdx | 3 +- .../setup-prometheus-agent.mdx | 161 ++++++------ .../troubleshooting-guide.mdx | 16 +- .../integrations-list/argocd-integration.mdx | 12 +- .../integrations-list/calico-integration.mdx | 14 +- .../cockroach-db-integration.mdx | 56 ++-- .../core-dns-integration.mdx | 14 +- .../integrations-list/etcd-integration.mdx | 16 +- .../integrations-list/harbor-integration.mdx | 10 +- .../ingress-controller-integration.mdx | 12 +- .../node-exporter-integration.mdx | 77 +++--- .../integrations-list/redis-integration.mdx | 12 +- .../integrations-list/traefik-integration.mdx | 10 +- .../integrations-list/velero-integration.mdx | 12 +- .../compare-rw-data-sent-billed-bytes.mdx | 74 +++--- .../get-logs-prometheus-integration.mdx | 26 +- ...te-limit-errors-prometheus-integration.mdx | 4 +- .../restarts-gaps-data-kubernetes.mdx | 4 +- .../introduction-kubernetes-integration.mdx | 2 +- .../installation/k8s-agent-operator.mdx | 136 +++++----- .../recommended-alert-policies.mdx | 191 ++++++++++---- .../find-use-your-kubernetes-data.mdx | 4 + .../get-started/networks.mdx | 2 +- ...opentelemetry-best-practices-resources.mdx | 2 +- .../opentelemetry-collector-infra-intro.mdx | 6 +- ...filter-new-relic-one-dashboards-facets.mdx | 52 ++-- .../user-management-concepts.mdx | 156 ++--------- .../log-install-new-relic-partners.mdx | 48 +--- .../apis/intro-apis/new-relic-api-keys.mdx | 245 ++++------------- .../api-explorer-v2/use-api-explorer.mdx | 89 +------ ...ist-application-id-host-id-instance-id.mdx | 117 ++------- ...ecordllmfeedbackevent-python-agent-api.mdx | 14 +- ...thllmcustomattributes-python-agent-api.mdx | 85 ++++++ .../azure-integrations-list/azure-monitor.mdx | 1 + .../migration-guide.mdx | 3 +- .../setup-prometheus-agent.mdx | 161 ++++++------ .../troubleshooting-guide.mdx | 16 +- .../integrations-list/argocd-integration.mdx | 12 +- .../integrations-list/calico-integration.mdx | 14 +- .../cockroach-db-integration.mdx | 56 ++-- .../core-dns-integration.mdx | 14 +- .../integrations-list/etcd-integration.mdx | 16 +- .../integrations-list/harbor-integration.mdx | 10 +- .../ingress-controller-integration.mdx | 12 +- .../node-exporter-integration.mdx | 77 +++--- .../integrations-list/redis-integration.mdx | 12 +- .../integrations-list/traefik-integration.mdx | 10 +- .../integrations-list/velero-integration.mdx | 12 +- .../compare-rw-data-sent-billed-bytes.mdx | 74 +++--- .../get-logs-prometheus-integration.mdx | 26 +- ...te-limit-errors-prometheus-integration.mdx | 4 +- .../restarts-gaps-data-kubernetes.mdx | 4 +- .../introduction-kubernetes-integration.mdx | 2 +- .../installation/k8s-agent-operator.mdx | 136 +++++----- .../recommended-alert-policies.mdx | 191 ++++++++++---- .../find-use-your-kubernetes-data.mdx | 4 + .../get-started/networks.mdx | 2 +- ...opentelemetry-best-practices-resources.mdx | 2 +- .../opentelemetry-collector-infra-intro.mdx | 6 +- ...filter-new-relic-one-dashboards-facets.mdx | 50 ++-- 124 files changed, 2399 insertions(+), 2909 deletions(-) create mode 100644 src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx create mode 100644 src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx create mode 100644 src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx create mode 100644 src/i18n/content/pt/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx diff --git a/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx b/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx index 999a8c4b22d..5b5843733e1 100644 --- a/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx +++ b/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx @@ -52,7 +52,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes `trace_id` - _cadena_ + *cadena* @@ -64,7 +64,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes `rating` - _cadena_ o _int_ + *cadena* o *int* @@ -76,7 +76,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes `category` - _cadena_ + *cadena* @@ -88,7 +88,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes `message` - _cadena_ + *cadena* @@ -100,7 +100,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes `metadata` - _dict_ + *dict* @@ -110,7 +110,7 @@ En muchos casos, el extremo de los mensajes de IA se graba en lugares diferentes -## Valores de retorno [#return-valuess] +## Valores de retorno [#return-values] Ninguno. @@ -129,4 +129,4 @@ Ejemplo de grabación de un evento de retroalimentación: def post_feedback(request): newrelic.agent.record_llm_feedback_event(trace_id=request.trace_id, rating=request.rating, metadata= {"my_key": "my_val"}) ``` -```` +```` \ No newline at end of file diff --git a/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx b/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx new file mode 100644 index 00000000000..31ff86c17f6 --- /dev/null +++ b/src/i18n/content/es/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx @@ -0,0 +1,85 @@ +--- +title: WithLlmCustomAttributes (API del agente de Python) +type: apiDoc +shortDescription: Agregar atributo personalizado al evento LLM +tags: + - Agents + - Python agent + - Python agent API +metaDescription: 'Python API: This API adds custom attributes to a Large Language Model (LLM) events generated in AI applications.' +freshnessValidatedDate: never +translationType: machine +--- + +## Sintaxis [#syntax] + +```py + with newrelic.agent.WithLlmCustomAttributes(custom_attribute_map): +``` + +API de administrador de contexto que agrega un atributo especificado por el usuario al evento de modelo de lenguaje extenso (LLM) generado por llamadas de LLM en el código de la aplicación. + +## Requisitos [#requirements] + +Versión 10.1.0 del agente Python o superior. + +## Descripción [#description] + +Esta API de administrador de contexto agrega atributos personalizados especificados por el usuario a cada evento LLM generado dentro de su contexto en función de las llamadas realizadas a los LLM. El agente agregará automáticamente un prefijo `llm.` a cada nombre de clave de atributo personalizado especificado en el argumento del diccionario pasado. Esta API debe llamar dentro del contexto de una transacción activa. + +Estos atributos personalizados se pueden ver en LLM evento y consultar en la New Relic UI. Para obtener más información sobre el monitoreo de IA, consulte nuestra [documentación de IA](https://docs.newrelic.com/docs/ai-monitoring/intro-to-ai-monitoring/). + +## Parámetros [#parameters] + + + + + + + + + + + + + + + + + +
+ Parámetro + + Descripción +
+ `custom_attribute_map` + + *diccionario* + + Requerido. Un diccionario no vacío donde cada par de valores principales indica el nombre del atributo personalizado y su respectivo valor. +
+ +## Valores de retorno [#return-values] + +Ninguno. + +## Ejemplos [#examples] + +### Agregue un atributo personalizado a una llamada de finalización de chat OpenAI + +```py + import newrelic.agent + + from openai import OpenAI + + client = OpenAI() + + with newrelic.agent.WithLlmCustomAttributes({"custom": "attr", "custom1": "attr1"}): + response = client.chat.completions.create( + messages=[{ + "role": "user", + "content": "Say this is a test", + }], + model="gpt-4o-mini", + ) +``` \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/es/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx index 0b1956c0c69..ad72a15f9b6 100644 --- a/src/i18n/content/es/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx +++ b/src/i18n/content/es/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx @@ -248,6 +248,7 @@ Al migrar de nuestra integración tradicional de Azure al monitoreo de integraci * Cuando habilita un monitoreo de integración de Azure, se creará una nueva entidad separada para todos sus recursos. La entidad creada por la integración Azure Polling se queda como está. Esto significa que debe actualizar el panel, las alertas y cualquier otra capacidad que haga referencia a esas entidades. * Las entidades antiguas están disponibles durante 24 horas. +* Un nombre de métrica puede aparecer dos veces cuando la métrica tiene diferentes combinaciones de dimensiones. Puede evitar nombres de métricas duplicados [creando una consulta que filtre las agregaciones de sus datos](/docs/infrastructure/microsoft-azure-integrations/get-started/azure-integration-metrics/#metrics-with-many-dimension-combinations). ## Pasos de migración desde la integración anterior de Azure Polling [#migration-from-polling] diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx index a9125da78eb..602903ccb66 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx @@ -132,7 +132,6 @@ newrelic_remote_write: extra_write_relabel_configs: # Enable the extra_write_relabel_configs below for backwards compatibility with legacy POMI labels. # This helpful when migrating from POMI to ensure that Prometheus metrics will contain both labels (e.g. cluster_name and clusterName). - # For more migration info, please visit the [migration guide](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide/). - source_labels: [namespace] action: replace target_label: namespaceName @@ -218,4 +217,4 @@ newrelic-prometheus-agent: enabled: false ``` -Siga los pasos explicados en este [documento](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) para actualizar el clúster de Kubernetes mediante Helm. +Siga los pasos explicados en este [documento](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) para actualizar el clúster de Kubernetes mediante Helm. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx index c8e5217e275..e91d1b8f025 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx @@ -23,8 +23,8 @@ Para configurar el agente usando Helm, debe configurar su `values.yaml` de una d ```yaml global: - licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_ - cluster: _K8S_CLUSTER_NAME_ + licenseKey: YOUR_NEW_RELIC_LICENSE_KEY + cluster: K8S_CLUSTER_NAME newrelic-prometheus-agent: enabled: true @@ -37,8 +37,8 @@ Para configurar el agente usando Helm, debe configurar su `values.yaml` de una d Esta opción sólo se recomienda si eres un usuario avanzado. ```yaml - licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_ - cluster: _K8S_CLUSTER_NAME_ + licenseKey: YOUR_NEW_RELIC_LICENSE_KEY + cluster: K8S_CLUSTER_NAME config: # YOUR CONFIGURATION GOES HERE. An example: @@ -66,8 +66,8 @@ app_values: ["redis", "traefik", "calico", "nginx", "coredns", "kube-dns", "etcd Además, puede suceder que una nueva versión de los filtros de integración haga que un objetivo que ya fue eliminado por un trabajo sea eliminado por segunda vez. Para recibir una notificación en caso de datos duplicados (y evitar por completo el scraping duplicado), puede crear una alerta basada en la siguiente consulta: -``` -FROM Metric select uniqueCount(job) facet instance, cluster_name limit 10 since 2 minutes ago +```sql +FROM Metric SELECT uniqueCount(job) FACET instance, cluster_name LIMIT 10 SINCE 2 minutes ago ``` Si algún valor es diferente de 1, entonces tiene dos o más trabajos extrayendo la misma instancia en el mismo clúster. @@ -99,19 +99,19 @@ El siguiente ejemplo solo extrae `Pods` y `Endpoints` con la anotación `newreli ```yaml kubernetes: jobs: - - job_name_prefix: example - integrations_filter: - enabled: false - target_discovery: - pod: true - endpoints: true - filter: - annotations: - # : - newrelic.io/scrape: 'true' - label: - # : - k8s.io/app: '(postgres|mysql)' + - job_name_prefix: example + integrations_filter: + enabled: false + target_discovery: + pod: true + endpoints: true + filter: + annotations: + # : + newrelic.io/scrape: "true" + label: + # : + k8s.io/app: "(postgres|mysql)" ``` @@ -174,21 +174,21 @@ common: scrape_interval: 30s kubernetes: jobs: - # this job will use the default scrape_interval defined in common. - - job_name_prefix: default-targets-with-30s-interval - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape: 'true' - - - job_name_prefix: slow-targets-with-60s-interval - scrape_interval: 60s - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape_slow: 'true' + # this job will use the default scrape_interval defined in common. + - job_name_prefix: default-targets-with-30s-interval + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape: "true" + + - job_name_prefix: slow-targets-with-60s-interval + scrape_interval: 60s + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape_slow: "true" ``` ## Transformaciones métricas y de etiquetas [#metric-label-transformations] @@ -203,21 +203,21 @@ Aquí hay un ejemplo de cómo usarlo en diferentes partes del archivo de configu ```yaml static_targets: -- name: self-metrics - urls: - - 'http://static-service:8181' - extra_metric_relabel_config: - # Drop metrics with prefix 'go_' for this target. - - source_labels: [__name__] - regex: 'go_.+' - action: drop + - name: self-metrics + urls: + - "http://static-service:8181" + extra_metric_relabel_config: + # Drop metrics with prefix 'go_' for this target. + - source_labels: [__name__] + regex: "go_.+" + action: drop newrelic_remote_write: extra_write_relabel_configs: - # Drop all metrics with the specified name before sent to New Relic. - - source_labels: [__name__] - regex: 'metric_name' - action: drop + # Drop all metrics with the specified name before sent to New Relic. + - source_labels: [__name__] + regex: "metric_name" + action: drop ``` ### Muestras de fragmentos de archivos YAML [#config-samples] @@ -270,10 +270,10 @@ Agregue uno de estos ejemplos en el archivo de configuración YAML desde la secc ```yaml - source_labels: [__name__] - regex: 'prefix_.+' - target_label: new_label - action: replace - replacement: newLabelValue + regex: 'prefix_.+' + target_label: new_label + action: replace + replacement: newLabelValue ``` @@ -282,7 +282,7 @@ Agregue uno de estos ejemplos en el archivo de configuración YAML desde la secc ```yaml - regex: 'label_name' - action: labeldrop + action: labeldrop ``` @@ -303,36 +303,37 @@ A continuación se muestran algunos ejemplos para tratar objetivos que necesitan ```yaml kubernetes: jobs: - - job_name_prefix: skip-verify-on-https-targets - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape: 'true' - - job_name_prefix: bearer-token - target_discovery: - pod: true - filter: - label: - k8s.io/app: my-app-with-token - authorization: - type: Bearer - credentials_file: '/etc/my-app/token' + - job_name_prefix: skip-verify-on-https-targets + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape: "true" + - job_name_prefix: bearer-token + target_discovery: + pod: true + filter: + label: + k8s.io/app: my-app-with-token + authorization: + type: Bearer + credentials_file: "/etc/my-app/token" static_targets: jobs: - - job_name: mtls-target - scheme: https - targets: - - 'my-mtls-target:8181' - tls_config: - ca_file: '/etc/my-app/client-ca.crt' - cert_file: '/etc/my-app/client.crt' - key_file: '/etc/my-app/client.key' - - - job_name: basic-auth-target - targets: - - 'my-basic-auth-static:8181' - basic_auth: - password_file: '/etc/my-app/pass.htpasswd' + - job_name: mtls-target + scheme: https + targets: + - "my-mtls-target:8181" + tls_config: + ca_file: "/etc/my-app/client-ca.crt" + cert_file: "/etc/my-app/client.crt" + key_file: "/etc/my-app/client.key" + + - job_name: basic-auth-target + targets: + - "my-basic-auth-static:8181" + basic_auth: + password_file: "/etc/my-app/pass.htpasswd" + ``` \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx index 4f83ab296ca..e54d42602ba 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx @@ -23,10 +23,10 @@ global: Una vez que esto se haya actualizado en los archivos de valores, ejecute el siguiente comando de actualización de helm: ```bash -helm upgrade newrelic-prometheus-configurator/newrelic-prometheus-agent \ ---namespace \ --f values-newrelic.yaml \ -[--version fixed-chart-version] +helm upgrade RELEASE_NAME newrelic-prometheus-configurator/newrelic-prometheus-agent \ + --namespace NEWRELIC_NAMESPACE \ + -f values-newrelic.yaml \ + [--version fixed-chart-version] ``` ## No ver métrica para un objetivo. [#target-with-no-metrics] @@ -35,7 +35,7 @@ Necesita, al menos, un `job` que esté descubriendo el objetivo en Kubernetes qu Si está utilizando la configuración predeterminada en Kubernetes, verifique que su pod o servicio tenga la anotación `prometheus.io/scrape=true` . -De forma predeterminada, el agente Prometheus extrae métrica solo de [Prometheus integración](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro). A menos que haya seleccionado eliminar todos los extremos de Prometheus en el clúster, el agente Prometheus filtra el extremo que se va a eliminar utilizando las etiquetas definidas en [source_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml). +De forma predeterminada, el agente Prometheus extrae métrica solo de [Prometheus integración](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro). A menos que haya seleccionado eliminar todos los extremos de Prometheus en el clúster, el agente Prometheus filtra el extremo que se va a eliminar utilizando las etiquetas definidas en [source\_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml). ## No ver métrica en un dashboard [#dashboard-with-no-metrics] @@ -45,8 +45,8 @@ Es posible que parte del panel proporcionado por la [integración de Prometheus] Cada raspado de objetivo genera la métrica `up` con la métrica de todo objetivo. Si el scraping tiene éxito, estas métricas tienen `1` como valor. Si no tiene éxito, su valor es `0`. -```SQL -FROM Metric SELECT latest(up) WHERE cluster_name= 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES +```sql +FROM Metric SELECT latest(up) WHERE cluster_name = 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES ``` Si esta métrica no existe para el objetivo, es posible que se haya eliminado. @@ -103,4 +103,4 @@ El objetivo fallido aparecerá en la lista y el error estará disponible en el c ] } } -``` +``` \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx index 320924b789a..590aab866ac 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx @@ -20,11 +20,7 @@ Utilice New Relic para ver un dashboard basado en Prometheus métrica para compr * Estadísticas del servidor de CD Argo * Estadísticas del repositorio -Argo CD Dashboard +Argo CD Dashboard ## Habilitar la integración @@ -46,7 +42,7 @@ Siga estos pasos para habilitar la integración. FROM Metric SELECT count(*) WHERE instrumentation.name = 'remote-write' AND metricName LIKE 'argocd_%' FACET metricName LIMIT MAX ``` -4. Instale el [inicio rápido del CD Argo](https://newrelic.com/instant-observability/argocd-quickstart) para acceder al integrado y a [las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. Instale el [inicio rápido del CD Argo](https://newrelic.com/instant-observability/argocd-quickstart) para acceder al integrado y a [las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos. @@ -84,8 +80,8 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en * Utilice este comando para verificar que Argo CD Prometheus extremo esté emitiendo métrica en cualquier nodo K8s configurado con Argo CD: - ``` + ```sh curl :8082/metrics ``` -* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus. +* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx index 01854b1e42f..07e385839cd 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx @@ -21,11 +21,7 @@ Utilice New Relic para ver un dashboard basado en Prometheus métrica que le ayu * Las tablas de IP guardan y restauran errores * BPF métrica específica si BPF se utiliza como plano de datos para Calico -Calico Dashboard +Calico Dashboard ## Habilitar la integración @@ -80,18 +76,18 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en * Estimar la ingesta de datos (ingesta diaria, en bytes): ```sql - FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' SINCE - 1 day ago + FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' + SINCE 1 day ago ``` ## Resolución de problemas * Utilice este comando para verificar que el Calico Prometheus extremo esté emitiendo métrica en cualquier nodo K8s configurado con Calico CNI: - ``` + ```sh curl :9091/metrics ``` * Siga los consejos de resolución de problemas de [la documentación de Calico](https://projectcalico.docs.tigera.io/maintenance/monitor/monitor-component-metrics) para asegurarse de que las métricas estén configuradas como se espera en su clúster. -* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. +* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx index 4f7e38b2390..fc64f6b0f33 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx @@ -29,11 +29,7 @@ Utilice New Relic para monitor: * Alto recuento de descriptores de archivos abiertos * Vencimientos de certificados -CockroachDB Dashboard Screenshot +CockroachDB Dashboard Screenshot ## Habilitar la integración @@ -52,10 +48,10 @@ Siga estos pasos para habilitar la integración. 3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera: ```sql - SELECT * from Metric where metricName='rocksdb_num_sstables' + SELECT * FROM Metric WHERE metricName = 'rocksdb_num_sstables' ``` -4. Instale el [inicio rápido de CockroachDB](https://newrelic.com/instant-observability/?search=cockroachdb) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. Instale el [inicio rápido de CockroachDB](https://newrelic.com/instant-observability/?search=cockroachdb) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). Algunos gráficos del dashboard incluyen consultas con condiciones que requieren la identificación de su pod o extremo con una de estas etiquetas `app.kubernetes.io/name`, `app.newrelic.io/name`, `k8s-app` que contiene la cadena `cockroachdb`. @@ -69,17 +65,17 @@ Siga estos pasos para habilitar la integración. ```yaml - source_labels: [__name__] - separator: ; - regex: timeseries_write_(.*) - target_label: newrelic_metric_type - replacement: counter - action: replace + separator: ; + regex: timeseries_write_(.*) + target_label: newrelic_metric_type + replacement: counter + action: replace - source_labels: [__name__] - separator: ; - regex: sql_byte(.*) - target_label: newrelic_metric_type - replacement: counter - action: replace + separator: ; + regex: sql_byte(.*) + target_label: newrelic_metric_type + replacement: counter + action: replace ``` ## Encuentra y usa los datos. @@ -93,33 +89,33 @@ Los diferentes conjuntos de métricas expuestos por esta integración están def Utilice la siguiente consulta NRQL para comprender la métrica de CockroachDB que se ingiere en New Relic. - + * Lista de nombres métricos únicos: ```sql - FROM Metric SELECT uniques(metricName) WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') LIMIT MAX + FROM Metric SELECT uniques(metricName) + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + LIMIT MAX ``` * Cuente el número de actualizaciones métricas: ```sql - FROM Metric SELECT datapointcount() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') FACET metricName + FROM Metric SELECT datapointcount() + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + FACET metricName ``` * Estimar la ingesta de datos (ingesta diaria, en bytes): ```sql - FROM Metric SELECT bytecountestimate() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') SINCE 1 day ago + FROM Metric SELECT bytecountestimate() + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + SINCE 1 day ago ``` - + Ajuste el nombre del trabajo según sus ajustes de configuración. @@ -127,7 +123,7 @@ Utilice la siguiente consulta NRQL para comprender la métrica de CockroachDB qu * Lista de nombres métricos únicos: ```sql - FROM Metric SELECT uniques(metricName) WHERE job='cockroachdb' LIMIT MAX + FROM Metric SELECT uniques(metricName) WHERE job = 'cockroachdb' LIMIT MAX ``` * Cuente el número de actualizaciones métricas: @@ -148,4 +144,4 @@ Utilice la siguiente consulta NRQL para comprender la métrica de CockroachDB qu Siga los consejos de resolución de problemas de [la documentación de CockroachDB](https://www.cockroachlabs.com/docs/v22.1/monitor-cockroachdb-with-prometheus.html) para asegurarse de que las métricas estén configuradas como se espera en su clúster. -También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. +También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx index 4d42f20b54a..fa2528973bb 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx @@ -18,11 +18,7 @@ Utilice New Relic para visualizar el rendimiento de CoreDNS, alertar sobre posib * Errores de CoreDNS * Estadísticas de caché -CoreDNS Dashboard +CoreDNS Dashboard ## Habilitar la integración @@ -41,7 +37,7 @@ Siga estos pasos para habilitar la integración. 3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera: ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX ``` 4. Instale [CoreDNS inicio rápido](https://newrelic.com/instant-observability/CoreDNS) para acceder al panel integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). @@ -65,13 +61,13 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en * Lista de nombres métricos únicos: ```sql - FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX + FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX ``` * Cuente el número de actualizaciones métricas: ```sql - FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX + FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX ``` * Estimar la ingesta de datos (ingesta diaria, en bytes): @@ -84,4 +80,4 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en Siga los consejos de resolución de problemas de [la documentación de CoreDNS](https://coredns.io/plugins/kubernetes/) para asegurarse de que las métricas estén configuradas como se espera en su clúster. -También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. +También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx index f645a9967b3..451c6e25de5 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx @@ -18,11 +18,7 @@ Utilice New Relic para mostrar un dashboard seleccionado basado en Prometheus m * Estadísticas de gRPC * Latencia de escritura en disco -Etcd Dashboard +Etcd Dashboard ## Habilitar la integración @@ -41,10 +37,10 @@ Siga estos pasos para habilitar la integración. 3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera: ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX ``` -4. Instale el [inicio rápido de Etcd](https://newrelic.com/instant-observability/etcd) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. Instale el [inicio rápido de Etcd](https://newrelic.com/instant-observability/etcd) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos. @@ -77,12 +73,12 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en * Estimar la ingesta de datos (ingesta diaria, en bytes): ```sql - FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' SINCE - 1 day ago + FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' + SINCE 1 day ago ``` ## Resolución de problemas Siga los consejos de resolución de problemas de [la documentación de Etcd](https://etcd.io/docs/v3.5/op-guide/monitoring/) para asegurarse de que las métricas estén configuradas como se espera en su clúster. -También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. +También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx index 55af57bf2fa..dc0075f68c4 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx @@ -17,11 +17,7 @@ Utilice New Relic para ver un dashboard basado en Prometheus métrica que le ayu * Porcentaje de utilización de cuota de bytes del proyecto Harbour * Harbor Server y Cliente tasa de errores -Harbor Dashboard +Harbor Dashboard ## Habilitar la integración @@ -81,8 +77,8 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en * Utilice este comando para verificar que el extremo Harbor Prometheus esté emitiendo métrica en cualquier nodo K8s configurado con Harbor: - ``` + ```sh curl :9090/metrics ``` -* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus. +* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx index c811aa87244..7eb4a1eafa9 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx @@ -20,11 +20,7 @@ Utilice New Relic para aumentar la visibilidad del rendimiento de su controlador * Solicitud y respuesta información valiosa sobre el tamaño de la carga y el tiempo de respuesta * Estadísticas de CPU y memoria -NGINX Ingress Controller Dashboard +NGINX Ingress Controller Dashboard ## Habilitar la integración @@ -43,10 +39,10 @@ Siga estos pasos para habilitar la integración. 3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera: ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX ``` -4. Instale el [inicio rápido del controlador de ingreso NGINX](https://newrelic.com/instant-observability/nginx-ingress-controller) para acceder al integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. Instale el [inicio rápido del controlador de ingreso NGINX](https://newrelic.com/instant-observability/nginx-ingress-controller) para acceder al integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos. @@ -86,4 +82,4 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en Siga los consejos de resolución de problemas de [la documentación del controlador de ingreso NGINX](https://kubernetes.github.io/ingress-nginx/user-guide/monitoring/#prometheus-and-grafana-installation-using-pod-annotations) para asegurarse de que las métricas estén configuradas como se espera en su clúster. -También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. +También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx index 15fb89b0e67..2dfb19162ad 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx @@ -70,6 +70,7 @@ global: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -91,10 +92,7 @@ Puede configurar el objetivo de forma estática a través del parámetro `static Puede configurar una configuración estática en un nuevo comentario `# Target setup`: - + Asegúrese de insertar su ``: ```yml lineHighlight=12-16 @@ -103,6 +101,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -111,9 +110,9 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -122,10 +121,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s ``` - + Asegúrese de insertar su ``: ```yml lineHighlight=12-16 @@ -134,6 +130,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -142,9 +139,9 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -153,10 +150,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s ``` - + Asegúrese de insertar su ``: ```yml lineHighlight=12-16 @@ -165,6 +159,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -173,9 +168,9 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -190,10 +185,7 @@ Puede configurar una configuración estática en un nuevo comentario `# Target s En lugar de configurar un objetivo estático, puede configurar el descubrimiento de servicios. - + Puede configurar el descubrimiento de servicios para sus instancias EC2 AWS proporcionando `region`, `access_key`, `secret_key` y `port` en `# Target setup`. ```yml lineHighlight=12-22 @@ -202,6 +194,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -227,10 +220,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento ``` - + En `# Target setup`, asegúrese de insertar su ``: ```yml lineHighlight=12-15 @@ -239,6 +229,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -257,10 +248,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento ``` - + En `# Target setup`, asegúrese de insertar su ``: ```yml lineHighlight=12-15 @@ -269,6 +257,7 @@ En lugar de configurar un objetivo estático, puede configurar el descubrimiento scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -301,10 +290,7 @@ Las relaciones requieren atributos que se eliminan de forma predeterminada en Pr En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámico con etiquetas. Si está utilizando un objetivo estático, simplemente inserte el [objetivo estático](#static-targets) que se muestra arriba. - + Para obtener más detalles, consulte la documentación de Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#ec2_sd_config) . ```yml lineHighlight=23-26 @@ -313,6 +299,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -342,10 +329,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic ``` - + Para obtener más detalles, consulte la documentación de Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#azure_sd_config) . ```yml lineHighlight=16-19 @@ -354,6 +338,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -376,10 +361,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic ``` - + Para obtener más detalles, consulte la documentación de Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#gce_sd_config) . ```yml lineHighlight=16-19 @@ -388,6 +370,7 @@ En los ejemplos siguientes, mostramos la combinación de descubrimiento dinámic scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -417,10 +400,10 @@ Ahora puedes iniciar el raspador Prometheus. 1. Ejecute lo siguiente: - ``` + ```sh ./prometheus --config.file=./prometheus.yml ``` 2. Configure el raspador para que se ejecute en segundo plano con los comandos de teclado `CONTROL + z` y `bg`. En entorno de producción, querrás configurar esto como un servicio (por ejemplo, con `systemd`). -3. Vea sus datos en la yendo New Relic UI a **[one.newrelic.com](https://one.newrelic.com/) > Infrastructure > Hosts**. +3. Vea sus datos en la yendo New Relic UI a **[one.newrelic.com](https://one.newrelic.com/) &gt; Infrastructure &gt; Hosts**. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx index 4b640dfbd28..17efe17d4d6 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx @@ -20,11 +20,7 @@ Con New Relic puedes monitor: * Gráficos que muestran clientes conectados, clientes conectados por nodo, cambios desde el último guardado por nodo, claves caducadas/segundo por nodo, memoria utilizada por nodo y clientes bloqueados * Gráficos que muestran la proporción de aciertos keyspace por nodo, claves desalojadas/segundo por nodo, bytes de entrada/segundo por nodo, I/O de red por segundo y bytes de salida/segundo por nodo -Redis Dashboard +Redis Dashboard ## Habilitar la integración @@ -43,10 +39,10 @@ Siga estos pasos para habilitar la integración. 3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera: ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX ``` -4. Instale el [inicio rápido de Redis (Prometheus)](https://newrelic.com/instant-observability/redis-prometheus) para acceder a integrado y a [las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. Instale el [inicio rápido de Redis (Prometheus)](https://newrelic.com/instant-observability/redis-prometheus) para acceder a integrado y a [las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos. @@ -90,4 +86,4 @@ Esta integración permite a `Redis` entidad potenciar el conjunto completo de [c Siga los consejos de resolución de problemas de [la documentación del exportadorRedis ](https://github.com/oliver006/redis_exporter)para asegurarse de que las métricas estén configuradas como se espera en su clúster. -También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. +También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx index 9b0a7511387..6157175118b 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx @@ -13,11 +13,7 @@ translationType: machine Utilice New Relic para instalar fácilmente un dashboard seleccionado para monitor el estado de su instancia de Traefik. -Traefik Dashboard +Traefik Dashboard ## Habilitar la integración @@ -36,7 +32,7 @@ Siga estos pasos para habilitar la integración. 3. Utilice la siguiente consulta para confirmar que la métrica se esté ingiriendo como se espera: ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX ``` 4. Instale [Traefik inicio rápido](https://newrelic.com/instant-observability/traefik) para acceder al panel integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). @@ -83,4 +79,4 @@ Esta integración permite a `Traefik` entidad potenciar el conjunto completo de Siga los consejos de resolución de problemas de [la documentación de Traefik](https://docs.gitlab.com/ee/user/clusters/agent/troubleshooting.html) para asegurarse de que las métricas estén configuradas como se espera en su clúster. -También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. +También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx index 4812219520f..b0cd71a35ea 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx @@ -18,11 +18,7 @@ Utilice New Relic para comprender el éxito y el rendimiento de sus trabajos de * Duraciones y tamaño de las copias de seguridad por instancia * Restaurar estado por instancia -Velero Dashboard +Velero Dashboard ## Habilitar la integración @@ -44,7 +40,7 @@ Siga estos pasos para habilitar la integración. FROM Metric SELECT count(*) WHERE metricName LIKE 'velero_%' FACET metricName LIMIT MAX ``` -4. Instale el [inicio rápido de Velero](https://newrelic.com/instant-observability/velero-prometheus) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. Instale el [inicio rápido de Velero](https://newrelic.com/instant-observability/velero-prometheus) para acceder a integrado y [a las alertas](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). Una vez que haya importado, puede editar o clonar los activos para adaptarlos a sus requisitos específicos. @@ -76,10 +72,10 @@ Utilice la siguiente consulta NRQL para comprender la métrica que se ingiere en * Utilice este comando para verificar que el Velero Prometheus extremo esté emitiendo métrica en cualquier nodo k8s configurado con Velero: - ``` + ```sh curl :8085/metrics ``` * Siga los consejos de resolución de problemas de [la documentación de Velero](https://velero.io/docs/main/troubleshooting/#velero-is-not-publishing-prometheus-metrics) para asegurarse de que las métricas estén configuradas como se espera en su clúster. -* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus. +* También puedes consultar las [pautas específicas de resolución de problemas](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) para la integración de Prometheus. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx index 6734f437307..2932f311058 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx @@ -26,35 +26,19 @@ Por ejemplo, según una muestra de datos de series temporales que recopilamos al A continuación se muestra una simulación de los cambios en la tasa de bytes a medida que los datos de lectura y escritura de Prometheus se mueven a través de nuestro sistema. En este caso, las métricas se generaron ingiriendo la escritura remota de un servidor Prometheus local de un nodo exportador local. -Byte rate estimate total comparison +Byte rate estimate total comparison Observe cómo la tasa de bytes enviados de Prometheus coincide estrechamente con el recuento de bytes comprimidos de escritura remota que registramos por nuestra parte justo antes de descomprimir los puntos de datos. Podemos atribuir la mayor variación de la tasa de bytes comprimidos de escritura remota a la naturaleza del procesamiento de datos a través de nuestros sistemas distribuidos: -Sent vs. compressed bytes comparison +Sent vs. compressed bytes comparison Como los puntos de datos no están comprimidos, el factor de expansión de 5 a 10 veces se refleja en la diferencia entre la tasa de bytes de datos comprimidos de escritura remota y la tasa de bytes de escritura remota sin comprimir, que son mediciones tomadas justo antes y después de la descompresión de datos. -Uncompressed vs. compressed bytes comparison +Uncompressed vs. compressed bytes comparison Finalmente, a medida que los datos se transforman y se realizan enriquecimientos, la diferencia entre los bytes sin comprimir de escritura remota y el [`bytecountestimate()`](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) se puede ver a continuación. El `bytecountestimate()` enumerado es una medida del recuento de bytes del estado final de los datos antes de almacenarse. -Bytecountestimate() vs. uncompressed bytes comparison +Bytecountestimate() vs. uncompressed bytes comparison Para comprender mejor las posibles transformaciones o adiciones de datos por las que pueden pasar los datos de lectura y escritura de Prometheus, aquí se compara la métrica `prometheus_remote_storage_bytes_total` , una medida informada por el servidor de Prometheus. @@ -74,26 +58,25 @@ Representación del servidor Prometheus: Representación de consulta de NRQL -``` -"endTimestamp": 1631305327668, -"instance:" "localhost:9090", -"instrumentation.name": "remote-write" -"instrumentation.provider": "prometheus", -"instrumentation.source": "foobarbaz", -"instrumentation.version": "0.0.2", -"job": "prometheus", -"metricName": "prometheus_remote_storage_bytes_total", -"newrelic.source": "prometheusAPI", -"prometheus_remote_storage_bytes_total", -"newrelic.source": "prometheusAPI", -"prometheus_remote_storage_bytes_total": { - "type": "count", - "count": 23051 -}, -"prometheus_server": "foobarbaz", -"remote_name": "5dfb33", -"timestamp": 1631305312668, -"url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz" +```json +{ + "endTimestamp": 1631305327668, + "instance": "localhost:9090", + "instrumentation.name": "remote-write", + "instrumentation.provider": "prometheus", + "instrumentation.source": "foobarbaz", + "instrumentation.version": "0.0.2", + "job": "prometheus", + "metricName": "prometheus_remote_storage_bytes_total", + "newrelic.source": "prometheusAPI", + "prometheus_remote_storage_bytes_total": { + "type": "count", + "count": 23051 + }, + "prometheus_server": "foobarbaz", + "remote_name": "5dfb33", + "timestamp": 1631305312668, + "url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz" } ``` @@ -107,14 +90,16 @@ Consulte la siguiente [consultaNRQL ](/docs/query-your-data/nrql-new-relic-query Para ver el recuento estimado de bytes almacenados en New Relic: -``` -FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO +```sql +FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' +WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO ``` Para monitor los bytes de Prometheus enviados a New Relic: ``` -FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO +FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' +WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO ``` ## Referencias externas [#references] @@ -122,4 +107,5 @@ FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) A Aquí hay algunos enlaces externos a documentos de Prometheus y GitHub que aclaran la compresión y la codificación. * [Prometheus hace referencia a la compresión Snappy que se utiliza en la codificación](https://prometheus.io/docs/prometheus/latest/storage/#overview): los protocolos de lectura y escritura utilizan una codificación de búfer de protocolo comprimido rápidamente a través de HTTP. Los protocolos aún no se consideran API estables y pueden cambiar para usar gRPC sobre HTTP/2 en el futuro, cuando se pueda asumir con seguridad que todos los saltos entre Prometheus y el almacenamiento remoto son compatibles con HTTP/2. -* [Referencia de Prometheus Protobuf](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64). + +* [Referencia de Prometheus Protobuf](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64). \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx index 145b141d404..07c6f0068b4 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx @@ -16,32 +16,20 @@ Desea obtener un registro de su integración de Prometheus OpenMetrics con New R ## Solución -Docker icon +Docker icon - - **Docker** - +**Docker** -``` +```sh docker logs nri-prometheus docker logs nri-prometheus 2>&1 | grep -v "level=debug" ``` -img-integration-k8s@2x.png +img-integration-k8s@2x.png - - **Kubernetes** - +**Kubernetes** -``` +```sh kubectl logs deploy/nri-prometheus kubectl logs deploy/nri-prometheus | grep -v "level=debug" -``` +``` \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx index e4661c96da5..913ded26cf8 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx @@ -20,7 +20,7 @@ Para examinar errores de límite de velocidad: 1. Ejecute una consulta de Prometheus métrica usando el [evento`NrIntegrationError` ](/docs/telemetry-data-platform/manage-data/nrintegrationerror), así: - ``` + ```sql FROM NrIntegrationError SELECT * WHERE newRelicFeature = 'Metrics' ``` @@ -32,4 +32,4 @@ Para ayudar a evitar que esto suceda, puede usar filtros para controlar los tipo New Relic realiza una validación básica de su integración métrica Prometheus OpenMetrics cuando se envían. Una validación más extensa se realiza de forma asincrónica al procesar la métrica. -Si New Relic encuentra errores durante esta validación asincrónica, los errores se colocan en un evento `NrIntegrationError` en su cuenta New Relic . Por ejemplo, si excede los límites métricos definidos para la integración de Prometheus OpenMetrics, New Relic aplicará límites de tarifas a su cuenta y creará un evento `NrIntegrationError` asociado. +Si New Relic encuentra errores durante esta validación asincrónica, los errores se colocan en un evento `NrIntegrationError` en su cuenta New Relic . Por ejemplo, si excede los límites métricos definidos para la integración de Prometheus OpenMetrics, New Relic aplicará límites de tarifas a su cuenta y creará un evento `NrIntegrationError` asociado. \ No newline at end of file diff --git a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx index a409e8b839b..718e5d77df8 100644 --- a/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx +++ b/src/i18n/content/es/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx @@ -27,6 +27,6 @@ Agregar más réplicas dará como resultado datos duplicados. Si los límites de Para verificar el estado y reiniciar el evento del raspador: -``` +```sh kubectl describe pod -l "app=nri-prometheus" -``` +``` \ No newline at end of file diff --git a/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx b/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx index a314c29a1f0..267aad85309 100644 --- a/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx +++ b/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx @@ -1,5 +1,5 @@ --- -title: Política de alertas recomendada +title: Política de alertas y tablero recomendados tags: - Integrations - Kubernetes integration @@ -8,23 +8,43 @@ freshnessValidatedDate: '2024-09-02T00:00:00.000Z' translationType: machine --- -Cuando [instala por primera vez la integración Kubernetes ](/install/kubernetes/), implementamos un conjunto predeterminado de condición de alerta recomendada en su cuenta que forma la base para la condición de alerta en su clúster de Kubernetes. Estas condiciones se agrupan en una política denominada **Kubernetes alert policy**. +Cuando [instala por primera vez la integración Kubernetes ](/install/kubernetes/), implementamos un conjunto predeterminado de condiciones de alerta y panel de control recomendadas en su cuenta que forman la base para las condiciones de alerta y panel de control en su clúster de Kubernetes. Las condiciones de alerta se agrupan en un par de políticas: [Kubernetes alert policy](#k8s-alert-conditions) y [Google Kubernetes Engine alert policy](#google-alert-policies). -Si bien intentamos abordar los casos de uso más comunes en todos los entornos, hay un serial de alertas adicionales que puede configurar para ampliar la política predeterminada. Éstas son nuestras políticas de alerta recomendadas. +Si bien intentamos abordar los casos de uso más comunes en todos los entornos, hay un serial de alertas adicionales que puede configurar para ampliar la política predeterminada. Consulta [Primeros pasos con las alertas de New Relic](/docs/tutorial-create-alerts/create-new-relic-alerts/) para obtener más información sobre las alertas. -## Agregar la política de alertas recomendada [#add-recommended-alert-policy] +## Agregar la condición de alerta y el tablero recomendados [#add-recommended-alert-policy] -Para agregar una política de alertas recomendada, siga estos pasos: +Para agregar la política de alertas y el panel de control recomendados, siga estos pasos: 1. Vaya a **[one.newrelic.com](https://one.newrelic.com) &gt; Integrations &amp; Agents**. -2. Seleccione **Alerts** para acceder a los recursos prediseñados. +2. En el cuadro de búsqueda, escriba `kubernetes`. - Add Kubernetes alerts + Integrations & Agents -3. Busca **Kubernetes** y selecciona la política de alertas recomendada que deseas agregar. +3. Seleccione una de estas opciones: - Add Kubernetes alerts + * **Kubernetes**:Para agregar el conjunto predeterminado de condiciones de alerta recomendadas y un dashboard. + + * **Google Kubernetes Engine**:Para agregar el conjunto predeterminado de condiciones de alerta recomendadas del motor Google Kubernetes y un dashboard. + +4. Haga clic en **Begin installation** si necesita instalar la integración de Kubernetes o haga clic en **Skip this step** si ya configuró esta integración. + +5. Dependiendo de la opción que seleccionaste en el paso 3, verás diferentes recursos para agregar. + +Add the default set of recommended alert conditions + +
+ Conjunto predeterminado de condiciones de alerta recomendadas y un dashboard cuando selecciona **Kubernetes** en el paso 3. +
+ +Add the default set of recommended Google Kubernetes engine alert conditions + +
+ Conjunto predeterminado de condiciones de alerta recomendadas del motor Google Kubernetes y un dashboard cuando selecciona **Google Kubernetes Engine** en el paso 3. +
+ +6. Haga clic en **See your data** para ver un dashboard con sus datos Kubernetes en New Relic. ## Cómo ver la política de alertas recomendada [#see-recommended-alert-policy] @@ -38,90 +58,112 @@ Para ver la política de alertas recomendada que agregaste, haz lo siguiente: Add Kubernetes alerts +## Cómo ver el panel de control Kubernetes [#see-dashboards] + +Hay una colección de paneles prediseñados recomendados para ayudarlo a visualizar instantáneamente sus datos Kubernetes para casos de uso comunes. Consulta [Gestionar tu panel recomendado](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards) para saber cómo ver estos paneles. + ## Kubernetes política de alertas [#k8s-alert-conditions] Este es el conjunto predeterminado de condiciones de alerta recomendadas que agregarás: - + + Este dashboard incluye gráficos y visualizaciones que lo ayudan a visualizar instantáneamente sus datos Kubernetes para casos de uso comunes. + + + Esta condición de alerta genera una alerta cuando un contenedor se limita en más del 25% durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sContainerSample SELECT sum(containerCpuCfsThrottledPeriodsDelta) / sum(containerCpuCfsPeriodsDelta) * 100 - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerCPUThrottling.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando el uso promedio de la CPU del contenedor frente al límite excede el 90% durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sContainerSample SELECT average(cpuCoresUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighCPUUtil.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando el uso promedio de la memoria del contenedor frente al límite excede el 90% durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sContainerSample SELECT average(memoryWorkingSetUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighMemUtil.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando los reinicios del contenedor superan 0 en una ventana deslizante de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sContainerSample SELECT sum(restartCountDelta) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerRestarting.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando un contenedor espera más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sContainerSample SELECT uniqueCount(podName) - WHERE status = 'Waiting' and clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') FACET containerName, podName, namespaceName, clusterName + WHERE status = 'Waiting' AND clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerWaiting.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando al daemonset le falta algún pod durante un periodo superior a 5 minutos. Ejecuta esta consulta: ```sql FROM K8sDaemonsetSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET daemonsetName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DaemonsetPodsMissing.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando al despliegue le falta algún pod por un periodo mayor a 5 minutos. Ejecuta esta consulta: ```sql FROM K8sDeploymentSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet deploymentName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET deploymentName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DeploymentPodsMissing.yaml) para obtener más información. @@ -131,7 +173,7 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr id="etcd-utilization-high" title={<> Etcd - la utilización del descriptor de archivo es alta + utilización del descriptor de archivo es alta (condición de alerta) } > Esta condición de alerta genera una alerta cuando el uso del descriptor de archivo `Etcd` supera el 90% durante más de 5 minutos. Ejecuta esta consulta: @@ -139,7 +181,8 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr ```sql FROM K8sEtcdSample SELECT max(processFdsUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET displayName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdFileDescriptors.yaml) para obtener más información. @@ -149,7 +192,7 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr id="etcd-no-leader" title={<> Etcd - no tiene líder + no tiene líder (condición de alerta) } > Esta condición de alerta genera una alerta cuando el descriptor de archivo `Etcd` no tiene línea guía durante más de 1 minuto. Ejecuta esta consulta: @@ -157,37 +200,42 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr ```sql FROM K8sEtcdSample SELECT min(etcdServerHasLeader) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET displayName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdHasNoLeader.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando las réplicas actuales de un escalador automático de pod horizontal son inferiores a las réplicas deseadas durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sHpaSample SELECT latest(desiredReplicas - currentReplicas) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET displayName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMissingReplicas.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando un escalador automático de pod horizontal supera las 5 réplicas. Ejecuta esta consulta: ```sql FROM K8sHpaSample SELECT latest(maxReplicas - currentReplicas) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName + WHERE clusterName in ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET displayName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMaxReplicas.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando un trabajo informa un estado fallido. Ejecuta esta consulta: ```sql @@ -199,121 +247,144 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/JobFailed.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando más de 5 pods en un namespace fallan durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sPodSample SELECT uniqueCount(podName) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') and status = 'Failed' facet namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + AND status = 'Failed' + FACET namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodsFailingNamespace.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando la utilización promedio de CPU asignable del nodo excede el 90% durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sNodeSample SELECT average(allocatableCpuCoresUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableCPUUtil.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando la utilización promedio de la memoria asignable del nodo excede el 90% durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sNodeSample SELECT average(allocatableMemoryUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableMemUtil.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando un nodo no está disponible durante 5 minutos. Ejecuta esta consulta: ```sql FROM K8sNodeSample SELECT latest(condition.Ready) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeIsNotReady.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando un nodo está marcado como no programado. Ejecuta esta consulta: ```sql FROM K8sNodeSample SELECT latest(unschedulable) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeUnschedulable.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando la capacidad del pod en ejecución de un nodo excede el 90% de la capacidad pod del nodo durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sPodSample, K8sNodeSample - SELECT ceil(filter(uniqueCount(podName) - WHERE status = 'Running') / latest(capacityPods) * 100) as 'Pod Capacity %' where nodeName != '' and nodeName is not null and clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + SELECT ceil + (filter + ( + uniqueCount(podName), + WHERE status = 'Running' + ) / latest(capacityPods) * 100 + ) AS 'Pod Capacity %' + WHERE nodeName != '' AND nodeName IS NOT NULL + AND clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodePodCapacity.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando la utilización de la capacidad del sistema de archivos raíz del nodo promedio excede el 90% durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sNodeSample SELECT average(fsCapacityUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighFSCapacityUtil.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando el volumen persistente está en estado fallido o pendiente durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sPersistentVolumeSample SELECT uniqueCount(volumeName) - WHERE statusPhase in ('Failed','Pending') and clusterName in ('YOUR_CLUSTER_NAME') facet volumeName, clusterName + WHERE statusPhase IN ('Failed','Pending') + AND clusterName IN ('YOUR_CLUSTER_NAME') + FACET volumeName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PersistentVolumeErrors.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando no se puede programar un pod durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sPodSample SELECT latest(isScheduled) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET podName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotScheduled.yaml) para obtener más información. - + Esta condición de alerta genera una alerta cuando un pod no está disponible durante más de 5 minutos. Ejecuta esta consulta: ```sql FROM K8sPodSample SELECT latest(isReady) - WHERE status not in ('Failed', 'Succeeded') where clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName + WHERE status NOT IN ('Failed', 'Succeeded') + AND clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET podName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotReady.yaml) para obtener más información. @@ -323,7 +394,7 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr id="statefulset-missing-pods" title={<> statefulset - falta la vaina + falta cápsula (condición de alerta) } > Esta condición de alerta genera una alerta cuando a `statefulset` le falta el pod durante 5 minutos. Ejecuta esta consulta: @@ -331,7 +402,9 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr ```sql FROM K8sStatefulsetSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET daemonsetName, namespaceName, clusterName ``` Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/StatefulsetPodsMissing.yaml) para obtener más información. @@ -343,7 +416,11 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas que agr Este es el conjunto predeterminado de condiciones de alerta recomendadas para el motor Google Kubernetes que agregará: - + + Este dashboard incluye gráficos y visualizaciones que lo ayudan a visualizar instantáneamente sus datos de Google Kubernetes para casos de uso comunes. + + + Esta condición de alerta genera una alerta cuando la utilización de la CPU de un nodo supera el 90% durante al menos 15 minutos. Ejecuta esta consulta: ```sql @@ -355,7 +432,7 @@ Este es el conjunto predeterminado de condiciones de alerta recomendadas para el Consulte el [archivo de configuración de GitHub](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/google-kubernetes-engine/HighCPU.yml) para obtener más información. - + Esta condición de alerta genera una alerta cuando el uso de memoria de un nodo excede el 85% de su capacidad total. Ejecuta esta consulta: ```sql diff --git a/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx b/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx index 5bdb7585a85..13b20a9dd2d 100644 --- a/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx +++ b/src/i18n/content/es/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx @@ -315,6 +315,10 @@ Los datos Kubernetes se anexan a estos [eventos](/docs/using-new-relic/data/unde + + `InternalK8sCompositeSample` es un evento que genera New Relic y es bastante crítico para [el clúster de Kubernetes Explorer](/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/kubernetes-cluster-explorer/#cluster-explorer-use). Sin este evento, no verá sus datos Kubernetes en la UI. Si bien todos los eventos enumerados en la tabla son facturables, `InternalK8sCompositeSample` es un evento no facturable. Consulte [Ingesta de datos: facturación y reglas](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) para obtener más información. + + ### Metadatos Kubernetes en APM-aplicación de monitorización [#apm-custom-attributes] [Conectar su aplicación a Kubernetes](/docs/kubernetes-pixie/kubernetes-integration/advanced-configuration/link-apm-applications-kubernetes/) agrega estos atributos a los datos de su aplicación, así como a los metadatos del rastreo distribuido: diff --git a/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx index ad8dcb553ee..d12fbf8ac14 100644 --- a/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx +++ b/src/i18n/content/es/docs/new-relic-solutions/get-started/networks.mdx @@ -21,7 +21,7 @@ Esta es una lista de las redes, direcciones IP, dominio, puertos y extremos util ## Cifrado TLS [#tls] -Para garantizar la seguridad de los datos de nuestros clientes y cumplir con [FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) y otros estándares de [cifrado de datos](/docs/security/new-relic-security/compliance/data-encryption), todas las conexiones entrantes para todos los dominios requieren Transport Layer Security (TLS) 1.2 o superior. Para obtener más detalles, consulte [nuestra publicación del Foro de soporte sobre TLS 1.2](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023). +Para garantizar la seguridad de los datos de nuestros clientes y cumplir con [FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) y otros estándares para [el cifrado de datos](/docs/security/new-relic-security/compliance/data-encryption), todas las conexiones entrantes para todos los dominios requieren Seguridad de la capa de transporte (TLS) 1.2. Para obtener más detalles, consulte [nuestra publicación del Foro de soporte sobre TLS 1.2](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023). Para futuras actualizaciones de las versiones de protocolo requeridas y admitidas, siga la [etiqueta`Security Notifications` en el foro de soporte de New Relic](https://discuss.newrelic.com/t/security-notifications/45862). diff --git a/src/i18n/content/es/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/es/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx index bdf851b2170..0eff0d9ad15 100644 --- a/src/i18n/content/es/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx +++ b/src/i18n/content/es/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx @@ -27,7 +27,7 @@ Aquí se describen los tipos de entidad New Relic que son compatibles cuando se Una entidad de servicio se sintetiza siguiendo las convenciones semánticas de recursos de OpenTelemetry que describen una [instancia de servicio](https://opentelemetry.io/docs/specs/semconv/resource/#service). -Consulte nuestra [documentación y ejemplos](/docs/opentelemetry/get-started/opentelemetry-set-up-your-app) para monitorear entidades de servicios usando OpenTelemetry. +Consulte nuestra [documentación y ejemplos](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) para monitorear entidades de servicio usando OpenTelemetry. #### Atributo requerido [#service-required-attributes] diff --git a/src/i18n/content/es/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/es/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx index 457a51d81ec..ddc6f558521 100644 --- a/src/i18n/content/es/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx +++ b/src/i18n/content/es/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx @@ -28,4 +28,8 @@ Los siguientes ejemplos demuestran el uso del recolector para monitor varios com ## Correlación de infraestructura con OpenTelemetry APM [#infrastructure-correlation] -Los siguientes ejemplos demuestran el uso del recolector para correlacionar [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) con datos de infraestructura. El patrón general es configurar el recolector con un procesador que detecta y enriquece la telemetría APM con contexto de entorno adicional en forma de atributo de recurso, antes de exportar los datos a New Relic a través de OTLP. New Relic detecta estos datos de correlación y construye relaciones entre APM y la entidad de infraestructura a través de [recursos](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources). \ No newline at end of file +El siguiente ejemplo demuestra el uso del recolector para correlacionar [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) con datos de infraestructura: + +* [Ejemplo de repositorio de hosts](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/host-monitoring) + +El patrón general es configurar el recolector con un procesador que detecta y enriquece la telemetría APM con contexto de entorno adicional en forma de atributo de recurso, antes de exportar los datos a New Relic a través de OTLP. New Relic detecta estos datos de correlación y construye relaciones entre APM y la entidad de infraestructura a través de [recursos](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources). \ No newline at end of file diff --git a/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx b/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx index 8efa5b2cf61..83aac7b6e26 100644 --- a/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx +++ b/src/i18n/content/es/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx @@ -31,26 +31,18 @@ Requisitos para utilizar esta característica: Supongamos que crea la siguiente consulta NRQL que contiene facetas para un dashboard existente en la UI: -facetfiltering01bis.png +facetfiltering01bis.png
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: Para consultas que contengan una cláusula `FACET` y cumplan con [los requisitos del tipo de gráfico](#requirements), puede configurar esos atributos para que se utilicen como un filtro dashboard sencillo. Puede configurar el atributo para filtrar el dashboard actual en el que se encuentra o filtrar un dashboard relacionado que seleccione. + **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Dashboards**: Para consultas que contengan una cláusula `FACET` y cumplan con [los requisitos del tipo de gráfico](#requirements), puede configurar esos atributos para que se utilicen como un filtro dashboard sencillo. Puede configurar el atributo para filtrar el dashboard actual en el que se encuentra o filtrar un dashboard relacionado que seleccione.
Si selecciona **Filter the current dashboard**, ese gráfico se utilizará para filtrar el dashboard actual por el atributo `userAgentName` disponible. A continuación se muestra una vista de cómo seleccionar uno de esos atributos para filtrar ese dashboard. Observe que el atributo elegido aparece como un filtro en la barra de búsqueda en la parte superior. -facetfiltering02.png +facetfiltering02.png
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: cuando selecciona un atributo que ha configurado para el filtrado de facetas, se filtra el dashboard actual. + **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Dashboards**: cuando selecciona un atributo que ha configurado para el filtrado de facetas, se filtra el dashboard actual.
Para obtener más información sobre esta característica, consulte la [publicación del Foro de soporte sobre filtrado de facetas](https://discuss.newrelic.com/t/facet-linking-in-new-relic-one-now-you-can-use-facets-to-filter-your-new-relic-one-dashboards/82289). @@ -59,31 +51,29 @@ Para obtener más información sobre esta característica, consulte la [publicac [`FACET CASES`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#sel-facet-cases) es una función NRQL que permite agrupar facetas según condiciones. Apoyamos múltiples casos en la misma faceta. -Supongamos que desea consultar algunos datos y colocar las respuestas en categorías mnemotécnicas para un dashboard o informe. Esta sintaxis le permitirá realizar consultas según la duración de la transacción y clasificar los resultados en dos categorías: ACEPTABLE e INACEPTABLE. Esto puede ser realmente útil para hacer que el panel sea más legible y procesable por humanos. +Digamos que desea consultar algunos datos y colocar las respuestas en categorías mnemotécnicas para un dashboard o reporte. Esta sintaxis le permitirá realizar consultas en función de la duración de la transacción y poner los resultados en dos categorías: *ACEPTABLE* e *INACEPTABLE*. Esto puede ser muy útil para hacer que el tablero sea más legible y procesable para las personas. -``` -SELECT filter(count(*), WHERE duration > 1) as 'UNACCEPTABLE', filter(count(*), -WHERE duration <=1) as 'ACCEPTABLE' -FROM Transaction FACET appName LIMIT 5 since 5 minutes ago +```sql +SELECT filter(count(*), WHERE duration > 1) AS 'UNACCEPTABLE', + filter(count(*), WHERE duration <=1) AS 'ACCEPTABLE' +FROM Transaction FACET appName LIMIT 5 SINCE 5 minutes ago ``` -facet_cases_01.png +facet_cases_01.png Al utilizar FACET CASES, podemos utilizar de manera más eficiente múltiples condiciones complejas para generar un conjunto de facetas personalizadas. Basándonos en el ejemplo anterior, digamos que queremos incluir una condición compuesta que excluya los errores de nuestros datos de duración y los agregue a una tercera categoría: -``` +```sql SELECT count(*) -FROM Transaction FACET CASES (where duration > 1 and error is NULL as 'UNACCEPTABLE', where duration <= 1 and error is NULL as 'ACCEPTABLE', where error is not NULL as 'ERROR') since 5 minutes ago +FROM Transaction FACET CASES +( + WHERE duration > 1 AND error IS NULL AS 'UNACCEPTABLE', + WHERE duration <= 1 AND error IS NULL AS 'ACCEPTABLE', + WHERE error IS NOT NULL AS 'ERROR' +) +SINCE 5 minutes ago ``` -facet_cases_02.png +facet_cases_02.png -Luego, utilizando el enlace de facetas, puede filtrar su panel por esas facetas. +Luego, utilizando el enlace de facetas, puede filtrar su panel por esas facetas. \ No newline at end of file diff --git a/src/i18n/content/jp/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx b/src/i18n/content/jp/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx index 5680805b8d2..f45c6e8d501 100644 --- a/src/i18n/content/jp/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx +++ b/src/i18n/content/jp/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx @@ -30,34 +30,22 @@ New Relic のパートナーから特別なオファーを受け取った場合 ### A-Mパートナー [#a-m-partners] - + AWSをアプリにインストールするか、ホストにインストールするかによって、インストール方法やページの見方が異なります。詳しくは、 [Amazon Web Services(AWS)のユーザー](/docs/accounts-partnerships/partnerships/partner-based-installation/amazon-web-services-aws-users) をご覧ください。 - - [Google Cloud Platform (GCP) パートナー](https://newrelic.com/partner/gcp)として、New Relic は[App Engine フレキシブル環境を](https://cloud.google.com/appengine/docs/flexible)サポートしています。 各エージェントには[、GAE flex 環境に対する独自の要件](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment)があります。 New Relic エージェントをインストールすると、 [APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm)を使用してアプリのパフォーマンスを表示できます。 + + [Google Cloud Platform (GCP) パートナー](https://newrelic.com/partner/gcp)として、New Relic は[App Engine フレキシブル環境を](https://cloud.google.com/appengine/docs/flexible)サポートしています。 各エージェントには[、GAE flex 環境に対する独自の要件](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment)があります。 New Relic エージェントをインストールすると、 [APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm)を使用してアプリのパフォーマンスを表示できます。 - - [Heroku](https://www.heroku.com/)は、Web アプリケーションをホストできる Platform as a Service (PaaS) ソリューションです。 New Relic Heroku アドオンを使用すると、 のメトリクスを使用して Heroku を拡張できます。 New RelicアドオンはJava、Node.js、 PHP、Python、Ruby。 Heroku での New Relic のインストールと使用の詳細については、以下を参照してください。 + + [Heroku](https://www.heroku.com/)は、Web アプリケーションをホストできる Platform as a Service (PaaS) ソリューションです。 New Relic Heroku アドオンを使用すると、 のメトリクスを使用して Heroku を拡張できます。 New RelicアドオンはJava、Node.js、 PHP、Python、Ruby。 Heroku での New Relic のインストールと使用の詳細については、以下を参照してください。 * [Heroku開発センターのドキュメント](https://devcenter.heroku.com/articles/newrelic "リンクが新しいウィンドウで開きます") * [HerokuをインストールするためのNew Relicのドキュメント](/docs/accounts-partnerships/partnerships/heroku-new-relic/heroku-installing-new-relic) - + MagentoはNew Relicと提携し、マーチャントがデータに素早くアクセスし、すぐに使えるツールを提供します。 [New Relic Reporting Extension](http://www.magentocommerce.com/magento-connect/new-relic-reporting.html) は、Eコマース事業者のデータに基づいた意思決定を支援します。 [Magento](http://newrelic.com/magento) PHP アプリ用の New Relic アカウントを作成するには、以下の手順に従います。 @@ -73,10 +61,7 @@ New Relic のパートナーから特別なオファーを受け取った場合 ### N-Zパートナー [#n-z-partners] - + [Pantheonを通じてNew Relicのアカウントを作成するには](https://pantheon.io/features/new-relic) and sign into New Relic: 1. [Pantheon と New Relic のパートナー ページ](https://pantheon.io/features/new-relic)から、 **sign up**リンクを選択します。 @@ -88,10 +73,7 @@ New Relic のパートナーから特別なオファーを受け取った場合 数分後、 [APM **Overview**ページ](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)でアプリのパフォーマンスを確認できます。 詳細については、 [Pantheon のドキュメント](https://pantheon.io/docs/new-relic/)を参照してください。 - + [Rackspace Cloud Tools](https://www.rackspace.com) からアカウントを作成し、New Relic にサインインするには、以下の基本的な手順に従います。詳細については、 [Rackspace Cloud Load Balancer plugin](/docs/accounts-partnerships/accounts/install-new-relic/partner-based-installation/rackspace-cloud-load-balancer-plugin) を参照してください。 1. [cloudtools.rackspace.com/myapps](https://cloudtools.rackspace.com/myapps) で、CloudTools アカウントにログインします。 @@ -105,10 +87,7 @@ New Relic のパートナーから特別なオファーを受け取った場合 数分待ってから、 [APM **Overview**ページ](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)でアプリのパフォーマンスを確認してください。 - + [W3 Total Cache](https://wordpress.org/plugins/w3-total-cache/) を通じてアカウントを作成し、New Relic にサインインするには、API キーを取得するだけでなく、W3 PHP エージェントをインストールして実行する必要があります。 @@ -129,17 +108,14 @@ New Relic のパートナーから特別なオファーを受け取った場合 3. New Relic がデータ収集を開始するのを待ちます。 - エージェントをデプロイしてから数分後には、アプリに関するパフォーマンスデータがAPMの [Applications Overview p](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)時代に表示されます。 + エージェントをデプロイしてから数分以内に、アプリのパフォーマンス データが APM[アプリケーションの概要](/docs/apm/applications-menu/monitoring/applications-overview-dashboard)ページに表示されます。 [WordPress](https://wordpress.org/plugins/rt-newrelic-browser/) は、私たちの [ブラウザ監視](/docs/agents/php-agent/installation/wordpress-users-new-relic#browser) のためのプラグインも提供しています。 - + [Windows Azure](https://www.windowsazure.com/) は、.NETやNode.jsなどの様々な言語を使用したWebアプリケーションをホスティングすることができるPaaS(Platform as a Service)ソリューションです。 当社の.NETエージェントをAzureで使用する場合の詳細については、以下を参照してください。 @@ -154,4 +130,4 @@ New Relic のパートナーから特別なオファーを受け取った場合 当社の Node.js エージェントを Azure にインストールして使用する場合の詳細については、 [Node.js agent on Microsoft Azure](/docs/agents/nodejs-agent/hosting-services/nodejs-agent-microsoft-azure) を参照してください。 - + \ No newline at end of file diff --git a/src/i18n/content/jp/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx b/src/i18n/content/jp/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx index 8ca8bbcd0d4..8712dd91564 100644 --- a/src/i18n/content/jp/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx +++ b/src/i18n/content/jp/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx @@ -16,81 +16,20 @@ New Relic の REST API Explorer (v2) は、利用可能なあらゆる API エ [API Explorer](https://rpm.newrelic.com/api/explore) を使用する前に、APIアクセスを有効にして、 [APIキー](/docs/apis/rest-api-v2/requirements/rest-api-key) をお客様のアカウント用に生成する必要があります。 - ユーザー キーには制限が少ないため、 [REST APIキー](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key)ではなく を使用することをお勧めします。 + ユーザー キーには制限が少ないため、 [REST APIキー](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key)ではなく を使用することをお勧めします。 ヒント -* New Relicにサインインしている場合は、API Explorer を使用するときに、 の上部にある[API キー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)UI を選択すると、そのキーが +* New Relicにサインインしている場合は、API Explorer を使用するときに、 の上部にある[API キー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)UI を選択すると、そのキーが**Request** **Parameters**Explorer の セクションと セクションに自動的に表示されます。 +* New Relicにサインインしていない場合は、 [APIキー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)をAPI Explorer の **Parameters** に貼り付けることができます。 - - **Request** - +## API Explorerの使用 [#use-api-explorer] - - **Parameters** - - - Explorer の セクションと セクションに自動的に表示されます。 - -* New Relicにサインインしていない場合は、 [APIキー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key)をAPI Explorer の - - - **Parameters** - - - に貼り付けることができます。 - -## API Explorerにアクセスする [#accessing] - -New Relic API Explorer を使用するには、以下のようになります。 - -1. - **[rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore)** - - - に移動します。 - -2. API Explorerのメニューバーから、ドロップダウンリストでアプリのアカウント名を選択します。 - -3. サイドバーから、機能(アプリケーション、ブラウザなど)と利用可能なAPI[機能](/docs/apm/apis/api-explorer-v2/parts-api-explorer#functions)( - - - **GET** - - - 、 - - - **PUT** - - - 、 - - - **DELETE** - - - )を選択します。 - -4. APIコールのその他の - - - **Parameters** - - - 値を入力します。 (v2 の説明と要件については UI を参照してください。) - -5. リクエストの - - - **format** - - - を選択します: JSON または XML。 - -6. - **Send Request** - - - を選択します。 +1. **[API Explorer](https://api.newrelic.com/docs/)**に移動します。 +2. **Servers**ドロップダウンから、米国または EU ベースの API URL を選択します。 +3. **Authorize** をクリックし、ユーザーAPIキーを入力して、もう一度 **Authorize** をクリックします。 +4. 使用可能な API 関数の 1 つを展開します: **GET****PUT****DELETE** 。 +5. (オプション) APIコールに **Parameters** 値を追加して、応答をフィルタリングします (v2 の説明と要件についてはUIを参照してください)。 +6. **Media type**ドロップダウンから、リクエストの形式(JSON または XML)を選択します。 +7. **Try it out**をクリックし、次に**Execute**クリックします。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx b/src/i18n/content/jp/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx index faa14a3598e..3119f443eaf 100644 --- a/src/i18n/content/jp/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx +++ b/src/i18n/content/jp/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx @@ -19,51 +19,31 @@ IDは以下のものが考えられます。 これらの ID を [New Relic API Explorer](/docs/apis/using-the-api-explorer) にリストアップするには、 [API キー](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) が必要です。 -## API Explorerの使用 [#explorer] +## API Explorerの使用 [#use-api-explorer] -API Explorerを使用して、特定の製品のすべてのプロダクトIDのリストを返すことができます。 +1. **[API Explorer](https://api.newrelic.com/docs/)**に移動します。 +2. **Servers**ドロップダウンから、米国または EU ベースの API URL を選択します。 +3. **Authorize** をクリックし、ユーザーAPIキーを入力して、もう一度 **Authorize** をクリックします。 +4. 使用可能な API 関数の 1 つを展開します: **GET****PUT****DELETE** 。 +5. (オプション) APIコールに **Parameters** 値を追加して、応答をフィルタリングします (v2 の説明と要件についてはUIを参照してください)。 +6. **Media type**ドロップダウンから、リクエストの形式(JSON または XML)を選択します。 +7. **Try it out**をクリックし、次に**Execute**クリックします。 -1. - **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > (select an app)** - +## 製品IDを一覧表示する [#list-product-ids] - に移動します。 +特定の製品のすべての製品 ID のリストを返すには: -2. [rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore)のAPIエクスプローラーにアクセスし、 次に、 +1. `GET /applications.json`ドロップダウンをクリックします。 +2. **Try it out** \[試してみる]をクリックし、 **Execute** 「実行」をクリックします。 +3. 応答を参照してすべての製品 ID を表示します。 - - **Select an account** - +特定の製品 ID を見つけたら、後で他の REST API呼び出しで使用するためにそれをコピーします。 - ドロップダウンからアカウント名を選択します。 +## アプリケーションIDの一覧 [#locating\_app\_id][#locating_app_id] -3. サイドバーから +エージェントによって監視される各アプリには名前が割り当てられます。 その名前には一意の`$APP_ID`も関連付けられています。 `$APP_ID`は、アプリに関する情報を取得するための基本です。 `$APP_ID`一覧表示と使用、および概要データの取得の詳細については、 [「アプリ ID の一覧表示」](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2)を参照してください。 - - **(product category) > GET List** - - - を選択します。 - - - **Send Request** - - - を選択します。 - -4. - **Response** - - - を参照して製品 ID を見つけます。 - -REST APIコールに配置したプロダクトIDを使用してください。 - -## アプリケーションIDの一覧 [#locating_app_id] - -エージェントによって監視される各アプリには名前が割り当てられます。 その名前には一意の`$APP_ID`も関連付けられています。 `$APP_ID`は、アプリに関する情報を取得するための基本です。 `$APP_ID`一覧表示と使用、および概要データの取得の詳細については、 [「アプリ ID の一覧表示」](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2)を参照してください。 - -## ホストIDの一覧表示 [#locating_host_id] +## ホストIDの一覧表示 [#locating\_host\_id][#locating_host_id] `$HOST_ID`は、アプリを実行している特定のホストの APM データを取得するために使用されます。物理サーバーには複数のホストがある場合があります。たとえば、物理サーバー上で実行されている Web サーバー プログラムは、複数の仮想ホストを持つように構成されている場合があります。 @@ -71,33 +51,12 @@ REST APIコールに配置したプロダクトIDを使用してください。 `$HOST_ID`を使用して、ホストのサマリー メトリックと特定のメトリック タイムスライス値を取得します。利用可能な指標の詳細については、次を参照してください。 -1. - **[rpm.newrelic.com](https://rpm.newrelic.com)** - - - に移動します。 - -2. [API エクスプローラー](https://rpm.newrelic.com/api/explore/application_hosts/list)に移動し、 - - - **Select an account** - - - ドロップダウンからアカウント名を選択します。 - -3. [rpm.newrelic.com/api/explore/application_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names)にある API Explorer の - - - **Application host** - - - ページに移動します。 +1. **[rpm.newrelic.com](https://rpm.newrelic.com)**に移動します。 +2. [API エクスプローラー](https://rpm.newrelic.com/api/explore/application_hosts/list)に移動し、 **Select an account**ドロップダウンからアカウント名を選択します。 +3. [rpm.newrelic.com/api/explore/application\_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names)にある API Explorer の**Application host**ページに移動します。 - + API Explorer を使用して特定のアプリケーションのすべての`$HOST_ID`のリストを返すには、 [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id)が必要です。 1. [API エクスプローラー](https://rpm.newrelic.com/api/explore/application_hosts/list)に移動し、 **Select an account**ドロップダウンからアカウント名を選択します。 @@ -116,10 +75,7 @@ REST APIコールに配置したプロダクトIDを使用してください。 4. **Response**を参照して、各ホストの`{HOST_ID}`を見つけます。 - + 以下のように出力されます。 ``` @@ -162,7 +118,7 @@ REST APIコールに配置したプロダクトIDを使用してください。 -## インスタンスIDの一覧 [#locating_instance_id] +## インスタンスIDの一覧 [#locating\_instance\_id][#locating_instance_id] InstanceID の意味は、使用されているNew Relic言語エージェントによって異なります。 この ID は REST API から一覧表示できます。 Java[ JVM](#UI)の場合、APM の**Overview** ページから インスタンス ID ( ) を表示すること もできます。 @@ -255,10 +211,7 @@ InstanceID の意味は、使用されているNew Relic言語エージェント `{INSTANCE_ID}`を使用して、インスタンスのサマリー メトリックと特定のメトリック タイムスライス値を取得できます。使用可能なメトリックの詳細については、 [REST API エクスプローラーのアプリケーション インスタンス](https://rpm.newrelic.com/api/explore/application_instances/names)ページを使用してください。 - + API Explorer を使用して特定のアプリケーションのすべての`$INSTANCE_ID`のリストを返すには、 [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id)が必要です。 1. [API エクスプローラー](https://rpm.newrelic.com/api/explore/application_hosts/list)に移動し、 **Select an account**ドロップダウンからアカウント名を選択します。 @@ -277,11 +230,8 @@ InstanceID の意味は、使用されているNew Relic言語エージェント 4. **Response**を参照して、各インスタンスの`$INSTANCE_ID`を見つけます。 - - {INSTANCE_ID}の出力は以下のようになります。 + + \{INSTANCE\_ID}の出力は以下のようになります。 ``` { @@ -318,13 +268,10 @@ InstanceID の意味は、使用されているNew Relic言語エージェント ``` - + Java アプリ: New Relic で特定の JVM `$INSTANCE_ID`を見つけるには: - 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Applications > (select an app) > JVMs**に移動します。 + 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; APM &amp; services &gt; Applications &gt; (select an app) &gt; JVMs**に移動します。 2. インスタンスの名前を選択します。 @@ -393,4 +340,4 @@ curl -X GET 'https://api.newrelic.com/v2/applications.json' \ } ], . . . -``` +``` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx index 61415044ab2..aa3829b1e3f 100644 --- a/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx +++ b/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx @@ -52,7 +52,7 @@ Python エージェント バージョン 9.8.0 以降。 `trace_id` - _ストリング_ + *ストリング* @@ -64,7 +64,7 @@ Python エージェント バージョン 9.8.0 以降。 `rating` - _文字列_または_整数_ + *文字列*または*整数* @@ -76,7 +76,7 @@ Python エージェント バージョン 9.8.0 以降。 `category` - _ストリング_ + *ストリング* @@ -88,7 +88,7 @@ Python エージェント バージョン 9.8.0 以降。 `message` - _ストリング_ + *ストリング* @@ -100,7 +100,7 @@ Python エージェント バージョン 9.8.0 以降。 `metadata` - _ディクト_ + *ディクト* @@ -110,7 +110,7 @@ Python エージェント バージョン 9.8.0 以降。 -## 戻り値 [#return-valuess] +## 戻り値 [#return-values] なし。 @@ -129,4 +129,4 @@ Python エージェント バージョン 9.8.0 以降。 def post_feedback(request): newrelic.agent.record_llm_feedback_event(trace_id=request.trace_id, rating=request.rating, metadata= {"my_key": "my_val"}) ``` -```` +```` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx b/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx new file mode 100644 index 00000000000..368dc3c5153 --- /dev/null +++ b/src/i18n/content/jp/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx @@ -0,0 +1,85 @@ +--- +title: WithLlmCustomAttributes (Python エージェントAPI ) +type: apiDoc +shortDescription: LLMイベントにカスタムアトリビュートを追加 +tags: + - Agents + - Python agent + - Python agent API +metaDescription: 'Python API: This API adds custom attributes to a Large Language Model (LLM) events generated in AI applications.' +freshnessValidatedDate: never +translationType: machine +--- + +## 構文 [#syntax] + +```py + with newrelic.agent.WithLlmCustomAttributes(custom_attribute_map): +``` + +アプリケーション コード内の LLM 呼び出しによって生成される大規模言語モデル(LLM) (LLM) イベントにユーザー指定のプロパティを追加するコンテキスト マネージャーAPI 。 + +## 要件 [#requirements] + +Python エージェント バージョン 10.1.0 またはそれ以上。 + +## 説明 [#description] + +このコンテキスト マネージャー API は、LLM への呼び出しに基づいて、コンテキスト内で生成された各 LLM イベントにユーザー指定のカスタム属性を追加します。 エージェントは、渡された辞書引数で指定された各カスタムアトリビュート キー名に`llm.`プレフィックスを自動的に追加します。 この API は、アクティブなトランザクションのコンテキスト内で呼び出す必要があります。 + +これらのカスタムアトリビュートは、LLM イベントで表示したり、 New Relic UIで投稿したりできます。 AI モニタリングの詳細については、 [AI ドキュメント を](https://docs.newrelic.com/docs/ai-monitoring/intro-to-ai-monitoring/)参照してください。 + +## パラメーター [#parameters] + + + + + + + + + + + + + + + + + +
+ パラメータ + + 説明 +
+ `custom_attribute_map` + + *辞書* + + 必須。 各キーの値のペアがカスタムアトリビュート名とそのそれぞれの値を示す空ではない辞書。 +
+ +## 戻り値 [#return-values] + +なし。 + +## 例 [#examples] + +### OpenAI チャット完了呼び出しにカスタムアトリビュートを追加する + +```py + import newrelic.agent + + from openai import OpenAI + + client = OpenAI() + + with newrelic.agent.WithLlmCustomAttributes({"custom": "attr", "custom1": "attr1"}): + response = client.chat.completions.create( + messages=[{ + "role": "user", + "content": "Say this is a test", + }], + model="gpt-4o-mini", + ) +``` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx index a5547040173..f920c9ad50a 100644 --- a/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx +++ b/src/i18n/content/jp/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx @@ -248,6 +248,7 @@ Azure Monitor が統合される前は、Azure を監視するには、メトリ * Azure Monitor 統合を有効にすると、すべてのリソースに対して新しい個別のエンティティが作成されます。Azure Polling 統合によって作成されたエンティティはそのままです。これは、ダッシュボード、アラート、およびそれらのエンティティを参照するその他の機能を更新する必要があることを意味します。 * 古いエンティティは 24 時間利用できます。 +* メトリクスに異なる寸法の組み合わせがある場合、メトリクス名が 2 回表示されることがあります。 [データの集計をフィルタリングする書き込みを作成する](/docs/infrastructure/microsoft-azure-integrations/get-started/azure-integration-metrics/#metrics-with-many-dimension-combinations)ことで、メトリクス名の重複を防ぐことができます。 ## 以前の Azure Polling 統合からの移行手順 [#migration-from-polling] diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx index 0f3215899f7..06cf42ae681 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx @@ -132,7 +132,6 @@ newrelic_remote_write: extra_write_relabel_configs: # Enable the extra_write_relabel_configs below for backwards compatibility with legacy POMI labels. # This helpful when migrating from POMI to ensure that Prometheus metrics will contain both labels (e.g. cluster_name and clusterName). - # For more migration info, please visit the [migration guide](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide/). - source_labels: [namespace] action: replace target_label: namespaceName @@ -218,4 +217,4 @@ newrelic-prometheus-agent: enabled: false ``` -この[ドキュメント](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade)で説明されている手順に従って、Helm を使用して Kubernetes クラスターをアップグレードします。 +この[ドキュメント](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade)で説明されている手順に従って、Helm を使用して Kubernetes クラスターをアップグレードします。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx index 36f978d1b39..b568fabe105 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx @@ -23,8 +23,8 @@ Helm を使用してエージェントを構成するには、次の 2 つの方 ```yaml global: - licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_ - cluster: _K8S_CLUSTER_NAME_ + licenseKey: YOUR_NEW_RELIC_LICENSE_KEY + cluster: K8S_CLUSTER_NAME newrelic-prometheus-agent: enabled: true @@ -37,8 +37,8 @@ Helm を使用してエージェントを構成するには、次の 2 つの方 このオプションは、上級ユーザーの場合にのみお勧めします。 ```yaml - licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_ - cluster: _K8S_CLUSTER_NAME_ + licenseKey: YOUR_NEW_RELIC_LICENSE_KEY + cluster: K8S_CLUSTER_NAME config: # YOUR CONFIGURATION GOES HERE. An example: @@ -66,8 +66,8 @@ app_values: ["redis", "traefik", "calico", "nginx", "coredns", "kube-dns", "etcd さらに、統合フィルターの新しいバージョンにより、1 つのジョブによって既にスクレイピングされたターゲットが 2 回目にスクレイピングされる可能性があります。重複データが発生した場合に通知を受け取る (および重複スクレイピングを完全に防止する) ために、次のクエリに基づいてアラートを作成できます。 -``` -FROM Metric select uniqueCount(job) facet instance, cluster_name limit 10 since 2 minutes ago +```sql +FROM Metric SELECT uniqueCount(job) FACET instance, cluster_name LIMIT 10 SINCE 2 minutes ago ``` いずれかの値が 1 以外の場合、同じクラスター内の同じインスタンスをスクレイピングする 2 つ以上のジョブがあります。 @@ -99,19 +99,19 @@ Kubernetes ジョブは、 `target_discovery`構成に従ってターゲット ```yaml kubernetes: jobs: - - job_name_prefix: example - integrations_filter: - enabled: false - target_discovery: - pod: true - endpoints: true - filter: - annotations: - # : - newrelic.io/scrape: 'true' - label: - # : - k8s.io/app: '(postgres|mysql)' + - job_name_prefix: example + integrations_filter: + enabled: false + target_discovery: + pod: true + endpoints: true + filter: + annotations: + # : + newrelic.io/scrape: "true" + label: + # : + k8s.io/app: "(postgres|mysql)" ``` @@ -174,21 +174,21 @@ common: scrape_interval: 30s kubernetes: jobs: - # this job will use the default scrape_interval defined in common. - - job_name_prefix: default-targets-with-30s-interval - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape: 'true' - - - job_name_prefix: slow-targets-with-60s-interval - scrape_interval: 60s - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape_slow: 'true' + # this job will use the default scrape_interval defined in common. + - job_name_prefix: default-targets-with-30s-interval + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape: "true" + + - job_name_prefix: slow-targets-with-60s-interval + scrape_interval: 60s + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape_slow: "true" ``` ## 指標とラベルの変換 [#metric-label-transformations] @@ -203,21 +203,21 @@ YAML 構成ファイルのさまざまな部分で使用する方法の例を次 ```yaml static_targets: -- name: self-metrics - urls: - - 'http://static-service:8181' - extra_metric_relabel_config: - # Drop metrics with prefix 'go_' for this target. - - source_labels: [__name__] - regex: 'go_.+' - action: drop + - name: self-metrics + urls: + - "http://static-service:8181" + extra_metric_relabel_config: + # Drop metrics with prefix 'go_' for this target. + - source_labels: [__name__] + regex: "go_.+" + action: drop newrelic_remote_write: extra_write_relabel_configs: - # Drop all metrics with the specified name before sent to New Relic. - - source_labels: [__name__] - regex: 'metric_name' - action: drop + # Drop all metrics with the specified name before sent to New Relic. + - source_labels: [__name__] + regex: "metric_name" + action: drop ``` ### YAML ファイル スニペットのサンプル [#config-samples] @@ -270,10 +270,10 @@ newrelic_remote_write: ```yaml - source_labels: [__name__] - regex: 'prefix_.+' - target_label: new_label - action: replace - replacement: newLabelValue + regex: 'prefix_.+' + target_label: new_label + action: replace + replacement: newLabelValue ``` @@ -282,7 +282,7 @@ newrelic_remote_write: ```yaml - regex: 'label_name' - action: labeldrop + action: labeldrop ```
@@ -303,36 +303,37 @@ newrelic_remote_write: ```yaml kubernetes: jobs: - - job_name_prefix: skip-verify-on-https-targets - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape: 'true' - - job_name_prefix: bearer-token - target_discovery: - pod: true - filter: - label: - k8s.io/app: my-app-with-token - authorization: - type: Bearer - credentials_file: '/etc/my-app/token' + - job_name_prefix: skip-verify-on-https-targets + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape: "true" + - job_name_prefix: bearer-token + target_discovery: + pod: true + filter: + label: + k8s.io/app: my-app-with-token + authorization: + type: Bearer + credentials_file: "/etc/my-app/token" static_targets: jobs: - - job_name: mtls-target - scheme: https - targets: - - 'my-mtls-target:8181' - tls_config: - ca_file: '/etc/my-app/client-ca.crt' - cert_file: '/etc/my-app/client.crt' - key_file: '/etc/my-app/client.key' - - - job_name: basic-auth-target - targets: - - 'my-basic-auth-static:8181' - basic_auth: - password_file: '/etc/my-app/pass.htpasswd' + - job_name: mtls-target + scheme: https + targets: + - "my-mtls-target:8181" + tls_config: + ca_file: "/etc/my-app/client-ca.crt" + cert_file: "/etc/my-app/client.crt" + key_file: "/etc/my-app/client.key" + + - job_name: basic-auth-target + targets: + - "my-basic-auth-static:8181" + basic_auth: + password_file: "/etc/my-app/pass.htpasswd" + ``` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx index 3ee1395e2dc..73043bacbfc 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx @@ -23,10 +23,10 @@ global: これが値ファイルで更新されたら、次の helm upgrade コマンドを実行します。 ```bash -helm upgrade newrelic-prometheus-configurator/newrelic-prometheus-agent \ ---namespace \ --f values-newrelic.yaml \ -[--version fixed-chart-version] +helm upgrade RELEASE_NAME newrelic-prometheus-configurator/newrelic-prometheus-agent \ + --namespace NEWRELIC_NAMESPACE \ + -f values-newrelic.yaml \ + [--version fixed-chart-version] ``` ## ターゲットのメトリックが表示されない [#target-with-no-metrics] @@ -35,7 +35,7 @@ helm upgrade newrelic-prometheus-configurator/newrelic-prometheus Kubernetes でデフォルト構成を使用している場合は、ポッドまたはサービスに`prometheus.io/scrape=true`アノテーションがあることを確認してください。 -デフォルトでは、Prometheus エージェントは[Prometheus 統合](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro)からのみメトリクスをスクレイピングします。クラスター内のすべての Prometheus エンドポイントをスクレイピングすることを選択しない限り、Prometheus エージェントは[source_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml)で定義されたラベルを使用して、スクレイピングするエンドポイントをフィルタリングします。 +デフォルトでは、Prometheus エージェントは[Prometheus 統合](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro)からのみメトリクスをスクレイピングします。クラスター内のすべての Prometheus エンドポイントをスクレイピングすることを選択しない限り、Prometheus エージェントは[source\_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml)で定義されたラベルを使用して、スクレイピングするエンドポイントをフィルタリングします。 ## ダッシュボードに指標が表示されない [#dashboard-with-no-metrics] @@ -45,8 +45,8 @@ Kubernetes でデフォルト構成を使用している場合は、ポッドま すべてのターゲット スクレイプは、すべてのターゲット メトリックで`up`メトリックを生成します。スクレイピングが成功した場合、これらの指標の値は`1`になります。成功しなかった場合、それらの値は`0`です。 -```SQL -FROM Metric SELECT latest(up) WHERE cluster_name= 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES +```sql +FROM Metric SELECT latest(up) WHERE cluster_name = 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES ``` このメトリックがターゲットに存在しない場合は、削除された可能性があります。 @@ -103,4 +103,4 @@ kubectl exec newrelic-prometheus-agent-0 -- wget -O - 'localhost:9090/api/v1/tar ] } } -``` +``` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx index b8bf299d870..e32702b6147 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx @@ -20,11 +20,7 @@ New Relic を使用して、Prometheus メトリクスに基づいたダッシ * Argo CD サーバーの統計 * リポジトリ統計 -Argo CD Dashboard +Argo CD Dashboard ## 統合を有効にする @@ -46,7 +42,7 @@ New Relic を使用して、Prometheus メトリクスに基づいたダッシ FROM Metric SELECT count(*) WHERE instrumentation.name = 'remote-write' AND metricName LIKE 'argocd_%' FACET metricName LIMIT MAX ``` -4. [Argo CDクイックスタートを](https://newrelic.com/instant-observability/argocd-quickstart) インストールしてビルトインにアクセス と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。 +4. [](https://newrelic.com/instant-observability/argocd-quickstart)組み込みの と[ アラート にアクセスするには、 Argo](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) CD クイックスタート をインストールします。 インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。 @@ -84,8 +80,8 @@ Prometheus メトリックは、ディメンション メトリックとして * 次のコマンドを使用して、Argo CD Prometheus エンドポイントが、Argo CD で構成された任意の K8s ノードでメトリックを発行していることを確認します。 - ``` + ```sh curl :8082/metrics ``` -* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。 +* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx index a03ed8f7f8b..cb229e85473 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx @@ -21,11 +21,7 @@ New Relic を使用して、k8s クラスターの Calico CNI を理解するの * IP テーブルの保存と復元のエラー * BPF が Calico のデータプレーンとして使用されている場合の BPF 固有のメトリック -Calico Dashboard +Calico Dashboard ## 統合を有効にする @@ -80,18 +76,18 @@ Prometheus メトリックは、ディメンション メトリックとして * データの取り込みを見積もります (毎日の取り込み、バイト単位): ```sql - FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' SINCE - 1 day ago + FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' + SINCE 1 day ago ``` ## トラブルシューティング * 次のコマンドを使用して、Calico CNI で構成された任意の K8s ノードで Calico Prometheus エンドポイントがメトリックを発行していることを確認します。 - ``` + ```sh curl :9091/metrics ``` * [Calico ドキュメント](https://projectcalico.docs.tigera.io/maintenance/monitor/monitor-component-metrics)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認してください。 -* Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 +* Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx index b8369dff7e5..d6069e456f9 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx @@ -29,11 +29,7 @@ New Relic を使用して以下を監視します。 * 開いているファイル記述子の数が多い * 証明書の有効期限 -CockroachDB Dashboard Screenshot +CockroachDB Dashboard Screenshot ## 統合を有効にする @@ -52,10 +48,10 @@ New Relic を使用して以下を監視します。 3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。 ```sql - SELECT * from Metric where metricName='rocksdb_num_sstables' + SELECT * FROM Metric WHERE metricName = 'rocksdb_num_sstables' ``` -4. 組み込みの と[ アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) にアクセスするには、[ CockroachDB クイックスタート](https://newrelic.com/instant-observability/?search=cockroachdb) をインストールします。 +4. 組み込みの と[ アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) にアクセスするには、[ CockroachDB クイックスタート](https://newrelic.com/instant-observability/?search=cockroachdb) をインストールします。 ダッシュボードの一部のグラフには、ポッドまたはエンドポイントの識別を必要とする条件付きのクエリが含まれており、これらのラベル`app.kubernetes.io/name` 、 `app.newrelic.io/name` 、 `k8s-app`のいずれかに文字列`cockroachdb`が含まれています。 @@ -69,17 +65,17 @@ New Relic を使用して以下を監視します。 ```yaml - source_labels: [__name__] - separator: ; - regex: timeseries_write_(.*) - target_label: newrelic_metric_type - replacement: counter - action: replace + separator: ; + regex: timeseries_write_(.*) + target_label: newrelic_metric_type + replacement: counter + action: replace - source_labels: [__name__] - separator: ; - regex: sql_byte(.*) - target_label: newrelic_metric_type - replacement: counter - action: replace + separator: ; + regex: sql_byte(.*) + target_label: newrelic_metric_type + replacement: counter + action: replace ``` ## データを見つけて使用する @@ -93,33 +89,33 @@ Prometheus メトリックは、ディメンション メトリックとして 次の NRQL クエリを使用して、New Relic に取り込まれている CockroachDB メトリクスを理解します。 - + * 一意のメトリック名を一覧表示します。 ```sql - FROM Metric SELECT uniques(metricName) WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') LIMIT MAX + FROM Metric SELECT uniques(metricName) + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + LIMIT MAX ``` * メトリック更新の数をカウントします。 ```sql - FROM Metric SELECT datapointcount() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') FACET metricName + FROM Metric SELECT datapointcount() + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + FACET metricName ``` * データの取り込みを見積もります (毎日の取り込み、バイト単位): ```sql - FROM Metric SELECT bytecountestimate() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') SINCE 1 day ago + FROM Metric SELECT bytecountestimate() + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + SINCE 1 day ago ``` - + 構成設定に従ってジョブ名を調整します。 @@ -127,7 +123,7 @@ Prometheus メトリックは、ディメンション メトリックとして * 一意のメトリック名を一覧表示します。 ```sql - FROM Metric SELECT uniques(metricName) WHERE job='cockroachdb' LIMIT MAX + FROM Metric SELECT uniques(metricName) WHERE job = 'cockroachdb' LIMIT MAX ``` * メトリック更新の数をカウントします。 @@ -148,4 +144,4 @@ Prometheus メトリックは、ディメンション メトリックとして [CockroachDB ドキュメント](https://www.cockroachlabs.com/docs/v22.1/monitor-cockroachdb-with-prometheus.html)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認してください。 -Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 +Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx index 491590d55fe..d9a72f5a265 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx @@ -18,11 +18,7 @@ CoreDNS パフォーマンスの視覚化、潜在的なエラーのアラート * CoreDNS エラー * キャッシュ統計 -CoreDNS Dashboard +CoreDNS Dashboard ## 統合を有効にする @@ -41,7 +37,7 @@ CoreDNS パフォーマンスの視覚化、潜在的なエラーのアラート 3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。 ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX ``` 4. [CoreDNS クイックスタートを](https://newrelic.com/instant-observability/CoreDNS)インストールして、組み込みのダッシュボードと[アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)にアクセスします。 @@ -65,13 +61,13 @@ Prometheus メトリックは、ディメンション メトリックとして * 一意のメトリック名を一覧表示します。 ```sql - FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX + FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX ``` * メトリック更新の数をカウントします。 ```sql - FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX + FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX ``` * データの取り込みを見積もります (毎日の取り込み、バイト単位): @@ -84,4 +80,4 @@ Prometheus メトリックは、ディメンション メトリックとして [CoreDNS ドキュメント](https://coredns.io/plugins/kubernetes/)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認します。 -Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 +Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx index 6ec314b4c38..935061cfba8 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx @@ -18,11 +18,7 @@ New Relic を使用して、Etcd クラスターの状態を理解するのに * gRPC 統計 * ディスク書き込みレイテンシ -Etcd Dashboard +Etcd Dashboard ## 統合を有効にする @@ -41,10 +37,10 @@ New Relic を使用して、Etcd クラスターの状態を理解するのに 3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。 ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX ``` -4. [Etcd クイックスタート](https://newrelic.com/instant-observability/etcd) をインストールして組み込みにアクセスする と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。 +4. 組み込みの と[ アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) にアクセスするには、 [Etcd クイックスタート をインストールします。](https://newrelic.com/instant-observability/etcd) インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。 @@ -77,12 +73,12 @@ Prometheus メトリックは、ディメンション メトリックとして * データの取り込みを見積もります (毎日の取り込み、バイト単位): ```sql - FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' SINCE - 1 day ago + FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' + SINCE 1 day ago ``` ## トラブルシューティング [Etcd ドキュメント](https://etcd.io/docs/v3.5/op-guide/monitoring/)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認します。 -Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 +Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx index 0ca52a014cf..8d1f2880d8d 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx @@ -17,11 +17,7 @@ New Relic を使用して、k8s クラスターの Harbor インフラストラ * Harbor プロジェクトのバイト クォータ使用率 * Harbor サーバーとクライアントのエラー率 -Harbor Dashboard +Harbor Dashboard ## 統合を有効にする @@ -81,8 +77,8 @@ Prometheus メトリックは、ディメンション メトリックとして * 次のコマンドを使用して、Harbor で構成された任意の K8s ノードで、Harbor Prometheus エンドポイントがメトリックを発行していることを確認します。 - ``` + ```sh curl :9090/metrics ``` -* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。 +* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx index ca947966788..0791f50595c 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx @@ -20,11 +20,7 @@ New Relic を使用して、NGINX Ingress Controller のパフォーマンスの * ペイロード サイズと応答時間に関する要求と応答の洞察 * CPU とメモリの統計 -NGINX Ingress Controller Dashboard +NGINX Ingress Controller Dashboard ## 統合を有効にする @@ -43,10 +39,10 @@ New Relic を使用して、NGINX Ingress Controller のパフォーマンスの 3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。 ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX ``` -4. [NGINX Ingress Controller クイックスタート](https://newrelic.com/instant-observability/nginx-ingress-controller) をインストールして組み込みにアクセスする と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。 +4. [](https://newrelic.com/instant-observability/nginx-ingress-controller)組み込みの と アラート[ にアクセスするには、 NGINX Ingress](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) Controller クイックスタート をインストールします。 インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。 @@ -86,4 +82,4 @@ Prometheus メトリックは、ディメンション メトリックとして [NGINX Ingress Controller ドキュメント](https://kubernetes.github.io/ingress-nginx/user-guide/monitoring/#prometheus-and-grafana-installation-using-pod-annotations)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認します。 -Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 +Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx index 98ebacc25fe..7e92c5b7ed2 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx @@ -70,6 +70,7 @@ global: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -91,10 +92,7 @@ remote_write: 新しいコメント`# Target setup`の下に静的構成を設定できます。 - + 必ず``を挿入してください: ```yml lineHighlight=12-16 @@ -103,6 +101,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -111,9 +110,9 @@ remote_write: # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -122,10 +121,7 @@ remote_write: ``` - + 必ず``を挿入してください: ```yml lineHighlight=12-16 @@ -134,6 +130,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -142,9 +139,9 @@ remote_write: # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -153,10 +150,7 @@ remote_write: ``` - + 必ず``を挿入してください: ```yml lineHighlight=12-16 @@ -165,6 +159,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -173,9 +168,9 @@ remote_write: # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -190,10 +185,7 @@ remote_write: 静的ターゲットを構成する代わりに、サービス検出を構成できます。 - + `# Target setup` の下に `region`、`access_key`、`secret_key`、`port` を指定して、 AWS EC2 インスタンスのサービス検出を設定できます。 ```yml lineHighlight=12-22 @@ -202,6 +194,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -227,10 +220,7 @@ remote_write: ``` - + `# Target setup`の下に必ず``を挿入してください: ```yml lineHighlight=12-15 @@ -239,6 +229,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -257,10 +248,7 @@ remote_write: ``` - + `# Target setup`の下に必ず``を挿入してください: ```yml lineHighlight=12-15 @@ -269,6 +257,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -301,10 +290,7 @@ remote_write: 以下の例では、動的検出とラベルの組み合わせを示します。 静的ターゲットを使用している場合は、上記の[静的ターゲット](#static-targets)を挿入するだけです。 - + 詳細については、Prometheus [EC2 の](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#ec2_sd_config)ドキュメントを参照してください。 ```yml lineHighlight=23-26 @@ -313,6 +299,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -342,10 +329,7 @@ remote_write: ``` - + 詳細については、Prometheus[EC2 の](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#azure_sd_config)ドキュメントを参照してください。 ```yml lineHighlight=16-19 @@ -354,6 +338,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -376,10 +361,7 @@ remote_write: ``` - + 詳細については、Prometheus [EC2 の](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#gce_sd_config)ドキュメントを参照してください。 ```yml lineHighlight=16-19 @@ -388,6 +370,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -417,10 +400,10 @@ remote_write: 1. 以下を実行します。 - ``` + ```sh ./prometheus --config.file=./prometheus.yml ``` 2. キーボード コマンド`CONTROL + z`と`bg`を使用して、スクレーパーをバックグラウンドで実行するように設定します。 本番環境では、これをサービスとして設定する必要があります (たとえば、 `systemd`を使用)。 -3. **[one.newrelic.com](https://one.newrelic.com/)> Infrastructure > Hosts** に移動して、New Relic UI でデータを確認します。 +3. **[one.newrelic.com](https://one.newrelic.com/)&gt; Infrastructure &gt; Hosts** に移動して、New Relic UI でデータを確認します。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx index 76f2d0d6113..e5cc932d903 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx @@ -20,11 +20,7 @@ New Relic を使用すると、以下を監視できます。 * 接続されたクライアント、ノードごとの接続されたクライアント、ノードごとの最後の保存以降の変更、ノードごとの期限切れキー/秒、ノードによって使用されたメモリ、およびブロックされたクライアントを示すグラフ * ノードごとのキースペース ヒット率、ノードごとのエビクトされたキー/秒、ノードごとの入力バイト/秒、ノードごとのネットワーク I/O、および出力バイト/秒を示すグラフ -Redis Dashboard +Redis Dashboard ## 統合を有効にする @@ -43,10 +39,10 @@ New Relic を使用すると、以下を監視できます。 3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。 ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX ``` -4. ビルトインにアクセスするために [Redis (Prometheus) クイックスタート](https://newrelic.com/instant-observability/redis-prometheus) をインストールする と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。 +4. [](https://newrelic.com/instant-observability/redis-prometheus)組み込みの と[ アラート にアクセスするには、 Redis](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) (Prometheus) クイックスタート をインストールします。 インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。 @@ -90,4 +86,4 @@ Prometheus メトリックは、ディメンション メトリックとして [Redis エクスポーターのドキュメント](https://github.com/oliver006/redis_exporter)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認してください。 -Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 +Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx index 983f6b8089c..f83c7a53d4f 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx @@ -13,11 +13,7 @@ translationType: machine New Relic を使用して、キュレートされたダッシュボードを簡単にインストールして、Traefik インスタンスの状態を監視します。 -Traefik Dashboard +Traefik Dashboard ## 統合を有効にする @@ -36,7 +32,7 @@ New Relic を使用して、キュレートされたダッシュボードを簡 3. 次のクエリを使用して、メトリクスが期待どおりに取り込まれていることを確認します。 ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX ``` 4. 組み込みのダッシュボードと[アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)にアクセスするには、 [Traefik クイックスタート](https://newrelic.com/instant-observability/traefik)をインストールします。 @@ -83,4 +79,4 @@ Prometheus メトリックは、ディメンション メトリックとして [Traefik ドキュメント](https://docs.gitlab.com/ee/user/clusters/agent/troubleshooting.html)のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認します。 -Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 +Prometheus 統合の特定の[トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration)を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx index 41678898c9e..db755669758 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx @@ -18,11 +18,7 @@ New Relic を使用して、k8s クラスターの Velero バックアップ ジ * インスタンスごとのバックアップ期間とサイズ * インスタンスごとの復元ステータス -Velero Dashboard +Velero Dashboard ## 統合を有効にする @@ -44,7 +40,7 @@ New Relic を使用して、k8s クラスターの Velero バックアップ ジ FROM Metric SELECT count(*) WHERE metricName LIKE 'velero_%' FACET metricName LIMIT MAX ``` -4. ビルトインにアクセスするには、 [Velero クイックスタート](https://newrelic.com/instant-observability/velero-prometheus) をインストールしてください と [アラート](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/)。 +4. [](https://newrelic.com/instant-observability/velero-prometheus)組み込みの と[ アラート にアクセスするには、](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) Velero クイックスタート をインストールします。 インポートしたら、アセットを編集または複製して、特定の要件に適合させることができます。 @@ -76,10 +72,10 @@ Prometheus メトリックは、ディメンション メトリックとして * 次のコマンドを使用して、Velero Prometheus エンドポイントが Velero で構成された任意の k8s ノードでメトリックを発行していることを確認します。 - ``` + ```sh curl :8085/metrics ``` * [Velero ドキュメント](https://velero.io/docs/main/troubleshooting/#velero-is-not-publishing-prometheus-metrics) のトラブルシューティングのヒントに従って、メトリックがクラスターで期待どおりに構成されていることを確認してください。 -* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。 +* Prometheus 統合の特定の [トラブルシューティング ガイドライン](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) を確認することもできます。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx index c4077cfa3b9..c33adb09fcd 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx @@ -26,35 +26,19 @@ Prometheus のリモート書き込みデータは、New Relic に送信され 以下は、Prometheus の読み書きデータが我々のシステムを通過する際のバイトレートの変化をシミュレーションしたものです。このケースでは、ローカルのPrometheusサーバーがローカルのnode-exporterをリモートで書き込んだデータを取り込むことでメトリクスが生成されました。 -Byte rate estimate total comparison +Byte rate estimate total comparison Prometheusの送信バイト数が、データポイントを解凍する直前に我々が記録したリモートライトの圧縮バイト数とほぼ一致していることに注目してほしい。リモートライトの圧縮バイト数のばらつきが大きくなっているのは、分散システムでのデータ処理の性質によるものだと考えられます。 -Sent vs. compressed bytes comparison +Sent vs. compressed bytes comparison データポイントが解凍されると、5~10倍の拡大率が、データ解凍の直前と直後に測定した「リモートライトの圧縮データバイトレート」と「リモートライトの非圧縮バイトレート」の差に反映されます。 -Uncompressed vs. compressed bytes comparison +Uncompressed vs. compressed bytes comparison 最後に、データが変換され、エンリッチメントが実行されると、リモート書き込みの非圧縮バイトと [`bytecountestimate()`](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) の違いが以下のようになります。リストされた `bytecountestimate()` は、保存される前のデータの最終状態のバイト数の尺度です。 -Bytecountestimate() vs. uncompressed bytes comparison +Bytecountestimate() vs. uncompressed bytes comparison Prometheus の読み取り/書き込みデータが通過する可能性のあるデータ変換/追加をよりよく理解するために、Prometheus サーバーによって報告される測定値である`prometheus_remote_storage_bytes_total`メトリックの比較を次に示します。 @@ -74,26 +58,25 @@ Prometheusサーバーの表現。 NRQLクエリの表現 -``` -"endTimestamp": 1631305327668, -"instance:" "localhost:9090", -"instrumentation.name": "remote-write" -"instrumentation.provider": "prometheus", -"instrumentation.source": "foobarbaz", -"instrumentation.version": "0.0.2", -"job": "prometheus", -"metricName": "prometheus_remote_storage_bytes_total", -"newrelic.source": "prometheusAPI", -"prometheus_remote_storage_bytes_total", -"newrelic.source": "prometheusAPI", -"prometheus_remote_storage_bytes_total": { - "type": "count", - "count": 23051 -}, -"prometheus_server": "foobarbaz", -"remote_name": "5dfb33", -"timestamp": 1631305312668, -"url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz" +```json +{ + "endTimestamp": 1631305327668, + "instance": "localhost:9090", + "instrumentation.name": "remote-write", + "instrumentation.provider": "prometheus", + "instrumentation.source": "foobarbaz", + "instrumentation.version": "0.0.2", + "job": "prometheus", + "metricName": "prometheus_remote_storage_bytes_total", + "newrelic.source": "prometheusAPI", + "prometheus_remote_storage_bytes_total": { + "type": "count", + "count": 23051 + }, + "prometheus_server": "foobarbaz", + "remote_name": "5dfb33", + "timestamp": 1631305312668, + "url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz" } ``` @@ -107,14 +90,16 @@ NRQLクエリの表現 New Relicに保存されている推定バイト数を表示します。 -``` -FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO +```sql +FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' +WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO ``` New Relicに送信されるPrometheusのバイトを監視する。 ``` -FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO +FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' +WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO ``` ## 外部参照 [#references] @@ -122,4 +107,5 @@ FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) A 圧縮とエンコーディングについて説明しているPrometheusやGitHubのドキュメントへの外部リンクを紹介します。 * [Prometheus referencing Snappy Compression being used in encoding](https://prometheus.io/docs/prometheus/latest/storage/#overview): 読み取りプロトコルと書き込みプロトコルは、どちらも HTTP 上で snappy-compressed protocol buffer encoding を使用しています。このプロトコルはまだ安定した API とはみなされておらず、将来的には、Prometheus とリモートストレージ間のすべてのホップが HTTP/2 をサポートしていると安全に想定できるようになった時点で、HTTP/2 上の gRPC を使用するように変更される可能性があります。 -* [Prometheus Protobuf リファレンス](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64). + +* [Prometheus Protobuf リファレンス](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64). \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx index cd1be2d2dbe..b365ad38d3a 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx @@ -16,32 +16,20 @@ Prometheus OpenMetricsとNew Relic for DockerやKubernetesとの統合のため ## 解決 -Docker icon +Docker icon - - **Docker** - +**Docker** -``` +```sh docker logs nri-prometheus docker logs nri-prometheus 2>&1 | grep -v "level=debug" ``` -img-integration-k8s@2x.png +img-integration-k8s@2x.png - - **Kubernetes** - +**Kubernetes** -``` +```sh kubectl logs deploy/nri-prometheus kubectl logs deploy/nri-prometheus | grep -v "level=debug" -``` +``` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx index ac8b2f2b1cd..80e41b61d0e 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx @@ -20,7 +20,7 @@ Docker または Kubernetes の Prometheus OpenMetrics 統合が、許容され 1. 次のように、 [`NrIntegrationError`イベント](/docs/telemetry-data-platform/manage-data/nrintegrationerror)を使用して Prometheus メトリクスのクエリを実行します。 - ``` + ```sql FROM NrIntegrationError SELECT * WHERE newRelicFeature = 'Metrics' ``` @@ -32,4 +32,4 @@ Docker または Kubernetes の Prometheus OpenMetrics 統合が、許容され New Relic は、Prometheus OpenMetrics インテグレーションのメトリクスが送信される際に、基本的な検証を行います。より広範な検証は、メトリクスの処理時に非同期的に行われます。 -New Relic がこの非同期検証中にエラーを検出した場合、エラーは New Relic アカウントの`NrIntegrationError`イベントに入れられます。たとえば、Prometheus OpenMetrics 統合用に定義されたメトリクス制限を超えると、New Relic はアカウントにレート制限を適用し、関連する`NrIntegrationError`イベントを作成します。 +New Relic がこの非同期検証中にエラーを検出した場合、エラーは New Relic アカウントの`NrIntegrationError`イベントに入れられます。たとえば、Prometheus OpenMetrics 統合用に定義されたメトリクス制限を超えると、New Relic はアカウントにレート制限を適用し、関連する`NrIntegrationError`イベントを作成します。 \ No newline at end of file diff --git a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx index 23842c66cbb..0dfeb6ca6e2 100644 --- a/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx +++ b/src/i18n/content/jp/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx @@ -27,6 +27,6 @@ Prometheus OpenMetrics integration for Kubernetesを毎分500Kのデータポイ スクレーパーの状態や再起動イベントを確認するため。 -``` +```sh kubectl describe pod -l "app=nri-prometheus" -``` +``` \ No newline at end of file diff --git a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx index 95365a670c0..4bd57ddd735 100644 --- a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx +++ b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx @@ -37,7 +37,7 @@ New Relic で何ができるか見てみましょう: * [Prometheus](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic/#Agent)エージェントが提供するサービス検出機能を利用して、クラスタ内の任意のワークロードから Prometheus メトリックを取得します。 -* 統合[ には、事前定義されたアラート条件](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy) [Kubernetesのセットが含まれていますが、](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts) Kubernetesデータに基づいて アラートを作成および変更したり 、[ 推奨されるアラート ポリシー](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies) のセットを追加したりできます。 +* 統合には、[ 事前定義されたアラート条件](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy)[ Kubernetesのセットが含まれていますが、](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts) Kubernetesデータに基づいて アラートを作成および変更したり 、[ 推奨されるアラート ポリシー](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies) のセットを追加したりできます。 * すべての Kubernetes イベントを確認します。 [Kubernetesインテグレーション](/docs/integrations/kubernetes-integration/kubernetes-events/install-kubernetes-events-integration)は、 Kubernetesクラスタで発生するイベントを監視し、それらのイベントをNew Relicに送信します。 その後、クラスター エクスプローラーでイベント データを視覚化できます。 [New Relic Kubernetesインテグレーションをインストールする](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure/)とデフォルトでインストールされます。 diff --git a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx index 865700ededc..40b8eec3374 100644 --- a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx +++ b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx @@ -61,8 +61,8 @@ Helm の使用に関する詳細については[、 Kubernetesインテグレー helm repo add newrelic https://helm-charts.newrelic.com helm upgrade --install newrelic-bundle newrelic/nri-bundle \ - --set global.licenseKey= \ - --set global.cluster= \ + --set global.licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY \ + --set global.cluster=CLUSTER_NAME \ --namespace=newrelic \ --set newrelic-infrastructure.privileged=true \ --set global.lowDataMode=true \ @@ -81,7 +81,7 @@ helm repo add newrelic-k8s https://newrelic.github.io/k8s-agents-operator helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \ --namespace newrelic \ --create-namespace \ - --set licenseKey= + --set licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY ``` 設定オプションの完全なリストについては、 [README](https://github.com/newrelic/k8s-agents-operator/tree/main/charts/k8s-agents-operator#values)チャートを参照してください。 @@ -93,17 +93,17 @@ helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \ 1. オペレーターに測定させるネームスペースごとに、有効な[New Relic取り込みライセンス](/docs/apis/intro-apis/new-relic-api-keys/#license-key)を含むシークレットを作成します。 ```shell - kubectl create secret generic newrelic-key-secret \ - --namespace \ - --from-literal=new_relic_license_key= + kubectl create secret generic newrelic-key-secret \ + --namespace NAMESPACE_TO_MONITOR \ + --from-literal=new_relic_license_key=YOUR_NEW_RELIC_INGEST_LICENSE_KEY ``` - `` を有効なNew Relicライセンスキーに置き換えてください。 + `YOUR_NEW_RELIC_INGEST_LICENSE_KEY` を有効なNew Relicライセンスキーに置き換えてください。 2. 自動計装したい各ネームスペースに、以下のカスタムリソース定義(CRD)を適用します。 次のコマンドを実行します: ```shell - kubectl apply -f -n + kubectl apply -f YOUR_YAML_FILE -n NAMESPACE_TO_MONITOR ``` CRD YAML ファイル内で、計装するAPMエージェントを指定します。 利用可能なすべてのAPMエージェントdockerイメージと対応するタグは、DockerHub にリストされています。 @@ -115,35 +115,35 @@ helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \ * [Ruby](https://hub.docker.com/repository/docker/newrelic/newrelic-ruby-init/general) ```yaml - apiVersion: newrelic.com/v1alpha1 - kind: Instrumentation - metadata: - labels: - app.kubernetes.io/name: instrumentation - app.kubernetes.io/created-by: k8s-agents-operator - name: newrelic-instrumentation - spec: - java: - image: newrelic/newrelic-java-init:latest - # env: - # Example New Relic agent supported environment variables - # - name: NEW_RELIC_LABELS - # value: "environment:auto-injection" - # Example overriding the appName configuration - # - name: NEW_RELIC_POD_NAME - # valueFrom: - # fieldRef: - # fieldPath: metadata.name - # - name: NEW_RELIC_APP_NAME - # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)" - nodejs: - image: newrelic/newrelic-node-init:latest - python: - image: newrelic/newrelic-python-init:latest - dotnet: - image: newrelic/newrelic-dotnet-init:latest - ruby: - image: newrelic/newrelic-ruby-init:latest + apiVersion: newrelic.com/v1alpha1 + kind: Instrumentation + metadata: + labels: + app.kubernetes.io/name: instrumentation + app.kubernetes.io/created-by: k8s-agents-operator + name: newrelic-instrumentation + spec: + java: + image: newrelic/newrelic-java-init:latest + # env: + # Example New Relic agent supported environment variables + # - name: NEW_RELIC_LABELS + # value: "environment:auto-injection" + # Example overriding the appName configuration + # - name: NEW_RELIC_POD_NAME + # valueFrom: + # fieldRef: + # fieldPath: metadata.name + # - name: NEW_RELIC_APP_NAME + # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)" + nodejs: + image: newrelic/newrelic-node-init:latest + python: + image: newrelic/newrelic-python-init:latest + dotnet: + image: newrelic/newrelic-dotnet-init:latest + ruby: + image: newrelic/newrelic-ruby-init:latest ``` ## アプリケーションで自動APMインストゥルメンテーションを有効にする [#enable-apm-instrumentation] @@ -163,30 +163,30 @@ instrumentation.newrelic.com/inject-ruby: "true" Javaエージェントを計装するためのアノテーション付きのエージェントの例を参照してください。 ```yaml - apiVersion: apps/v1 - kind: Deployment +apiVersion: apps/v1 +kind: Deployment +metadata: + name: spring-petclinic +spec: + selector: + matchLabels: + app: spring-petclinic + replicas: 1 + template: metadata: - name: spring-petclinic + labels: + app: spring-petclinic + annotations: + instrumentation.newrelic.com/inject-java: "true" spec: -   selector: -     matchLabels: -       app: spring-petclinic -   replicas: 1 -   template: -     metadata: -       labels: -         app: spring-petclinic -       annotations: -         instrumentation.newrelic.com/inject-java: "true" -     spec: -       containers: -         - name: spring-petclinic -           image: ghcr.io/pavolloffay/spring-petclinic:latest -           ports: -             - containerPort: 8080 -           env: -           - name: NEW_RELIC_APP_NAME -             value: spring-petclinic-demo + containers: + - name: spring-petclinic + image: ghcr.io/pavolloffay/spring-petclinic:latest + ports: + - containerPort: 8080 + env: + - name: NEW_RELIC_APP_NAME + value: spring-petclinic-demo ``` このサンプル ファイルは、環境変数を使用してエージェント設定をグローバルに構成する方法を示しています。 利用可能なすべての設定オプションについては、各エージェントの設定ドキュメントを参照してください。 @@ -216,7 +216,7 @@ Javaエージェントを計装するためのアノテーション付きのエ 次の構文を使用して、nri-bundle チャートのアップグレードを実行します。 ```shell - k8s-agents-operator.enabled=true +k8s-agents-operator.enabled=true ``` ### スタンドアロン インストール @@ -224,7 +224,7 @@ Javaエージェントを計装するためのアノテーション付きのエ `helm upgrade`コマンドを実行して、Kubernetes エージェント オペレーターの新しいバージョンに更新します。 ```shell - helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic +helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic ``` ## Kubernetes エージェント オペレーターのアンインストール [#uninstall-k8s-operator] @@ -234,7 +234,7 @@ Javaエージェントを計装するためのアノテーション付きのエ nri-bundle チャートをアンインストールするか、オペレーターのみを削除する場合は、次の引数で helm upgrade を実行します。 ```shell - k8s-agents-operator.enabled=false +k8s-agents-operator.enabled=false ``` ### スタンドアロン インストール @@ -242,7 +242,7 @@ nri-bundle チャートをアンインストールするか、オペレーター Kubernetes エージェント オペレーターをアンインストールして削除するには、次のコマンドを実行します。 ```shell - helm uninstall k8s-agents-operator -n newrelic +helm uninstall k8s-agents-operator -n newrelic ``` ## データを見つけて使用する [#find-data] @@ -300,26 +300,26 @@ Kubernetes エージェント オペレーターをアンインストールし * シークレットとインストゥルメンテーション CRD がアプリのネームスペースにインストールされていることを確認します。 ```shell - kubectl get secrets -n - kubectl get instrumentation -n + kubectl get secrets -n NAMESPACE + kubectl get instrumentation -n NAMESPACE ``` * ポッドに自動インストゥルメンテーションを有効にする注釈があることを確認します。 ```shell - kubectl get pod -n -o jsonpath='{.metadata.annotations}' + kubectl get pod POD_NAME -n NAMESPACE -o jsonpath='{.metadata.annotations}' ``` * エージェント オペレーター ポッドからログを取得します。 ```shell - kubectl logs -n newrelic + kubectl logs AGENT_OPERATOR_POD -n newrelic ``` * `init`コンテナがアプリケーションのポッド内に挿入され、正常に実行されたことを確認します。 ```shell - kubectl describe pod -n + kubectl describe pod POD_NAME -n NAMESPACE ``` ## サポート [#support] diff --git a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx index 4da56bc0e48..0d3fabb25c1 100644 --- a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx +++ b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx @@ -1,5 +1,5 @@ --- -title: 推奨アラートポリシー +title: 推奨されるアラートポリシーとダッシュボード tags: - Integrations - Kubernetes integration @@ -8,23 +8,43 @@ freshnessValidatedDate: '2024-09-02T00:00:00.000Z' translationType: machine --- -最初に[Kubernetesインテグレーションをインストールする](/install/kubernetes/)ときに、 Kubernetesクラスタ上のアラート条件の基礎を形成する、推奨されるアラート条件のデフォルト セットがアカウントにデプロイされます。 これらの条件は、 **Kubernetes alert policy**というポリシーにグループ化されます。 +初めて[Kubernetesインテグレーションをインストールすると、Kubernetes クラスター上の](/install/kubernetes/)アラート条件とダッシュボードの基礎を形成する、推奨されるアラート条件とKubernetesボードのデフォルト セットがアカウントにデプロイされます。 アラート条件は、 [Kubernetes alert policy](#k8s-alert-conditions)と[Google Kubernetes Engine alert policy](#google-alert-policies)という 2 つのポリシーにグループ化されます。 -私たちはあらゆる環境で最も一般的なユースケースに対処しようとしましたが、デフォルトのポリシーを拡張するために設定できる追加のアラートがいくつかあります。 これらは私たちが推奨するアラート ポリシーです。 +私たちはあらゆる環境で最も一般的なユースケースに対処しようとしましたが、デフォルトのポリシーを拡張するために設定できる追加のアラートがいくつかあります。 アラートの詳細については、 [「New Relic アラートの使用開始」を](/docs/tutorial-create-alerts/create-new-relic-alerts/)参照してください。 -## 推奨アラートポリシーの追加 [#add-recommended-alert-policy] +## 推奨アラート条件とダッシュボードの追加 [#add-recommended-alert-policy] -推奨されるアラート ポリシーを追加するには、次の手順に従います。 +推奨されるアラートポリシーとダッシュボードを追加するには、次の手順に従います。 1. **[one.newrelic.com](https://one.newrelic.com) &gt; Integrations &amp; Agents**に移動します。 -2. 事前に構築されたリソースにアクセスするには、 **Alerts**選択します。 +2. 検索ボックスに `kubernetes`と入力します。 - Add Kubernetes alerts + Integrations & Agents -3. **Kubernetes**を検索し、追加する推奨アラート ポリシーを選択します。 +3. 次のいずれかのオプションを選択します。 - Add Kubernetes alerts + * **Kubernetes**: 推奨されるアラート条件のデフォルト セットとダッシュボードを追加します。 + + * **Google Kubernetes Engine**: 推奨される Google Kubernetes エンジンのアラート条件とダッシュボードのデフォルト セットを追加します。 + +4. Kubernetesインテグレーションをインストールする必要がある場合は **Begin installation** をクリックし、すでにこのインテグレーションをセットアップしている場合は **Skip this step** をクリックします。 + +5. 手順 3 で選択したオプションに応じて、追加するさまざまなリソースが表示されます。 + +Add the default set of recommended alert conditions + +
+ 手順 3 で**Kubernetes**選択した場合に推奨されるアラート条件とダッシュボードのデフォルトのセット。 +
+ +Add the default set of recommended Google Kubernetes engine alert conditions + +
+ 手順 3 で**Google Kubernetes Engine**選択した場合に推奨される Google Kubernetes エンジン アラート条件とダッシュボードのデフォルトのセット。 +
+ +6. **See your data**をクリックすると、New Relic の Kubernetes データを含むダッシュボードが表示されます。 ## 推奨アラートポリシーを確認する方法 [#see-recommended-alert-policy] @@ -38,90 +58,112 @@ translationType: machine Add Kubernetes alerts +## Kubernetesダッシュボードの見方 [#see-dashboards] + +一般的なユースケースの Kubernetes データを即座に視覚化できるようにするために、推奨される事前構築済みダッシュボードのコレクションがあります。 これらのダッシュボードを表示する方法については、 [「推奨ダッシュボードの管理」を](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards)参照してください。 + ## Kubernetes アラートポリシー [#k8s-alert-conditions] これは、追加する推奨アラート条件のデフォルトのセットです。 - + + このダッシュボードには、一般的なユースケースの Kubernetes データを即座に視覚化するのに役立つグラフと視覚化が含まれています。 + + + このアラート条件は、コンテナが 5 分間以上 25% 以上スロットルされた場合に分割を生成します。 次のクエリを実行します: ```sql FROM K8sContainerSample SELECT sum(containerCpuCfsThrottledPeriodsDelta) / sum(containerCpuCfsPeriodsDelta) * 100 - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerCPUThrottling.yaml)参照してください。 - + このアラート条件は、制限に対するコンテナの平均 CPU 使用率が 5 分以上にわたって 90% を超えた場合に分割を生成します。 次のクエリを実行します: ```sql FROM K8sContainerSample SELECT average(cpuCoresUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighCPUUtil.yaml)参照してください。 - + このアラート条件は、制限に対するコンテナ メモリの平均使用量が 5 分間以上にわたって 90% を超えた場合に、分割を生成します。 次のクエリを実行します: ```sql FROM K8sContainerSample SELECT average(memoryWorkingSetUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighMemUtil.yaml)参照してください。 - + このアラート条件は、コンテナの再起動が 5 分間のスライディング ウィンドウ内で 0 を超えると、分割を生成します。 次のクエリを実行します: ```sql FROM K8sContainerSample SELECT sum(restartCountDelta) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerRestarting.yaml)参照してください。 - + このアラート条件は、コンテナが 5 分を超えて待機する場合に分割を生成します。 次のクエリを実行します: ```sql FROM K8sContainerSample SELECT uniqueCount(podName) - WHERE status = 'Waiting' and clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') FACET containerName, podName, namespaceName, clusterName + WHERE status = 'Waiting' AND clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerWaiting.yaml)参照してください。 - + このアラート条件は、daemonset に 5 分を超える期間ポッドが欠落している場合に一括を生成します。 次のクエリを実行します: ```sql FROM K8sDaemonsetSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET daemonsetName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DaemonsetPodsMissing.yaml)参照してください。 - + このアラート条件は、デプロイメントに 5 分を超えてポッドが欠落している場合に分割を生成します。 次のクエリを実行します: ```sql FROM K8sDeploymentSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet deploymentName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET deploymentName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DeploymentPodsMissing.yaml)参照してください。 @@ -131,7 +173,7 @@ translationType: machine id="etcd-utilization-high" title={<> Etcd - ファイル記述子の使用率が高い + ファイル記述子の使用率が高い (アラート条件) } > このアラート条件は、 `Etcd`ファイル記述子の使用率が 5 分間以上にわたって 90% を超えた場合に、分割を生成します。 次のクエリを実行します: @@ -139,7 +181,8 @@ translationType: machine ```sql FROM K8sEtcdSample SELECT max(processFdsUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET displayName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdFileDescriptors.yaml)参照してください。 @@ -149,7 +192,7 @@ translationType: machine id="etcd-no-leader" title={<> Etcd - リーダーがいない + リーダーがいない(アラート条件) } > このアラート条件は、 `Etcd`ファイル記述子が 1 分を超えてリーダーレスである場合に分割を生成します。 次のクエリを実行します: @@ -157,37 +200,42 @@ translationType: machine ```sql FROM K8sEtcdSample SELECT min(etcdServerHasLeader) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET displayName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdHasNoLeader.yaml)参照してください。 - + このアラート条件は、水平ポッド オートスケーラーの現在のレプリカが目的のレプリカよりも 5 分以上低い場合に集計を生成します。 次のクエリを実行します: ```sql FROM K8sHpaSample SELECT latest(desiredReplicas - currentReplicas) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET displayName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMissingReplicas.yaml)参照してください。 - + このアラート条件は、水平ポッド オートスケーラーが 5 つのレプリカを超えると、集計を生成します。 次のクエリを実行します: ```sql FROM K8sHpaSample SELECT latest(maxReplicas - currentReplicas) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName + WHERE clusterName in ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET displayName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMaxReplicas.yaml)参照してください。 - + このアラート条件は、ジョブが失敗ステータスを報告したときに集計を生成します。 次のクエリを実行します: ```sql @@ -199,121 +247,144 @@ translationType: machine 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/JobFailed.yaml)参照してください。 - + このアラート条件は、ネームスペース内の 5 つを超えるポッドが 5 分以上失敗した場合に集計を生成します。 次のクエリを実行します: ```sql FROM K8sPodSample SELECT uniqueCount(podName) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') and status = 'Failed' facet namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + AND status = 'Failed' + FACET namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodsFailingNamespace.yaml)参照してください。 - + このアラート条件は、平均ノード割り当て可能 CPU 使用率が 5 分を超えて 90% を超えた場合に分割を生成します。 次のクエリを実行します: ```sql FROM K8sNodeSample SELECT average(allocatableCpuCoresUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableCPUUtil.yaml)参照してください。 - + このアラート条件は、ノードの割り当て可能なメモリの平均使用率が 5 分を超えて 90% を超えた場合に分割を生成します。 次のクエリを実行します: ```sql FROM K8sNodeSample SELECT average(allocatableMemoryUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableMemUtil.yaml)参照してください。 - + このアラート条件は、ノードが 5 分間利用できない場合に加算を生成します。 次のクエリを実行します: ```sql FROM K8sNodeSample SELECT latest(condition.Ready) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeIsNotReady.yaml)参照してください。 - + このアラート条件は、ノードがスケジュールされていないとマークされている場合に分割を生成します。 次のクエリを実行します: ```sql FROM K8sNodeSample SELECT latest(unschedulable) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeUnschedulable.yaml)参照してください。 - + このアラート条件は、ノードの実行中のポッドが 5 分を超えてノードのポッド容量の 90% を超えた場合に集計を生成します。 次のクエリを実行します: ```sql FROM K8sPodSample, K8sNodeSample - SELECT ceil(filter(uniqueCount(podName) - WHERE status = 'Running') / latest(capacityPods) * 100) as 'Pod Capacity %' where nodeName != '' and nodeName is not null and clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + SELECT ceil + (filter + ( + uniqueCount(podName), + WHERE status = 'Running' + ) / latest(capacityPods) * 100 + ) AS 'Pod Capacity %' + WHERE nodeName != '' AND nodeName IS NOT NULL + AND clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodePodCapacity.yaml)参照してください。 - + このアラート条件は、ノード ルート ファイル システムの平均容量使用率が 5 分を超えて 90% を超えた場合に加算を生成します。 次のクエリを実行します: ```sql FROM K8sNodeSample SELECT average(fsCapacityUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighFSCapacityUtil.yaml)参照してください。 - + このアラート条件は、永続ボリュームが 5 分を超えて失敗または保留状態にある場合に、分割を生成します。 次のクエリを実行します: ```sql FROM K8sPersistentVolumeSample SELECT uniqueCount(volumeName) - WHERE statusPhase in ('Failed','Pending') and clusterName in ('YOUR_CLUSTER_NAME') facet volumeName, clusterName + WHERE statusPhase IN ('Failed','Pending') + AND clusterName IN ('YOUR_CLUSTER_NAME') + FACET volumeName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PersistentVolumeErrors.yaml)参照してください。 - + このアラート条件は、ポッドを 5 分を超えてスケジュールできない場合に一括を生成します。 次のクエリを実行します: ```sql FROM K8sPodSample SELECT latest(isScheduled) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET podName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotScheduled.yaml)参照してください。 - + このアラート条件は、ポッドが 5 分以上利用できない場合に、集計を生成します。 次のクエリを実行します: ```sql FROM K8sPodSample SELECT latest(isReady) - WHERE status not in ('Failed', 'Succeeded') where clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName + WHERE status NOT IN ('Failed', 'Succeeded') + AND clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET podName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotReady.yaml)参照してください。 @@ -323,7 +394,7 @@ translationType: machine id="statefulset-missing-pods" title={<> statefulset - ポッドが不足しています + ポッドがありません (アラート条件) } > このアラート条件は、 `statefulset`にポッドが 5 分間以上存在しない場合に集計を生成します。 次のクエリを実行します: @@ -331,7 +402,9 @@ translationType: machine ```sql FROM K8sStatefulsetSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET daemonsetName, namespaceName, clusterName ``` 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/StatefulsetPodsMissing.yaml)参照してください。 @@ -343,7 +416,11 @@ translationType: machine これは、追加する推奨される Google Kubernetes エンジン アラート条件のデフォルトのセットです。 - + + このダッシュボードには、一般的なユースケースの Google Kubernetes データを即座に視覚化するのに役立つグラフと視覚化が含まれています。 + + + このアラート条件は、ノードの CPU 使用率が少なくとも 15 分間 90% を超えた場合に加算を生成します。 次のクエリを実行します: ```sql @@ -355,7 +432,7 @@ translationType: machine 詳細については[、GitHub 設定ファイルを](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/google-kubernetes-engine/HighCPU.yml)参照してください。 - + このアラート条件は、ノードのメモリ使用量が総容量の 85% を超えた場合に、分割を生成します。 次のクエリを実行します: ```sql diff --git a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx index 4d990034a58..7983e856d8d 100644 --- a/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx +++ b/src/i18n/content/jp/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx @@ -315,6 +315,10 @@ translationType: machine + + `InternalK8sCompositeSample` これはNew Relic生成するイベントであり、 [Kubernetesクラスタ エクスプローラー](/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/kubernetes-cluster-explorer/#cluster-explorer-use)にとって非常に重要です。 このイベントがないと、UI に Kubernetes データが表示されません。 表にリストされているイベントはすべて課金対象ですが、 `InternalK8sCompositeSample`は課金対象外のイベントです。 詳細については、 [「データ取り込み: 課金とルール」を](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/)参照してください。 + + ### APMが監視するアプリケーションにおけるKubernetesのメタデータ [#apm-custom-attributes] [アプリケーションをKubernetesに接続すると、](/docs/kubernetes-pixie/kubernetes-integration/advanced-configuration/link-apm-applications-kubernetes/)次のプロパティがアプリケーション データとディストリビューティッド(分散)トレーシング メタデータに追加されます。 diff --git a/src/i18n/content/jp/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/jp/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx index 37d9d18f467..22e0d8a3277 100644 --- a/src/i18n/content/jp/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx +++ b/src/i18n/content/jp/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx @@ -27,7 +27,7 @@ New Relicここでは、OpenTelemetry インストゥルメンテーションを サービス エンティティは[、サービス インスタンス](https://opentelemetry.io/docs/specs/semconv/resource/#service)を記述する OpenTelemetry リソースのセマンティック規則に従って合成されます。 -OpenTelemetry を使用してサービス エンティティを監視する方法については、[ドキュメントと例](/docs/opentelemetry/get-started/opentelemetry-set-up-your-app)を参照してください。 +OpenTelemetry を使用してサービス エンティティを監視する方法については[、ドキュメントと例](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)を参照してください。 #### 必要な属性 [#service-required-attributes] diff --git a/src/i18n/content/jp/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/jp/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx index 92b361f657c..c14edf4a89f 100644 --- a/src/i18n/content/jp/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx +++ b/src/i18n/content/jp/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx @@ -28,4 +28,8 @@ translationType: machine ## OpenTelemetry APM によるインフラストラクチャの相関 [#infrastructure-correlation] -次の例は、コレクターを使用して[APM OpenTelemetry を](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)インフラストラクチャ データと相関させる方法を示しています。 一般的なパターンは、OTLP 経由でデータを にエクスポートする前に、 テレメトリーを検出し、リソース プロパティの形式で追加の環境コンテキストを使用して強化するプロセッサーを備えたコレクターを構成することです。APMNew RelicNew Relic はこの相関データを検出し、[リソース](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources)を介して APM とインフラストラクチャ エンティティ間の関係を構築します。 \ No newline at end of file +次の例は、コレクターを使用して[APM OpenTelemetry を](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro)インフラストラクチャ データと相関させる方法を示しています。 + +* [ホストリポジトリの例](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/host-monitoring) + +一般的なパターンは、OTLP 経由でデータを にエクスポートする前に、 テレメトリーを検出し、リソース プロパティの形式で追加の環境コンテキストを使用して強化するプロセッサーを備えたコレクターを構成することです。APMNew RelicNew Relic はこの相関データを検出し、[リソース](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources)を介して APM とインフラストラクチャ エンティティ間の関係を構築します。 \ No newline at end of file diff --git a/src/i18n/content/kr/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx b/src/i18n/content/kr/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx index 62d89f98265..a6f85f1f0bd 100644 --- a/src/i18n/content/kr/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx +++ b/src/i18n/content/kr/docs/accounts/install-new-relic/partner-based-installation/log-install-new-relic-partners.mdx @@ -30,34 +30,22 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크 ### A - M 파트너 [#a-m-partners] - + 앱용으로 AWS를 설치할 것인지 호스트용으로 설치할 것인지에 따라 다른 설치 및 페이지 보기 절차가 적용됩니다. 자세한 내용은 [Amazon Web Services(AWS) 사용자](/docs/accounts-partnerships/partnerships/partner-based-installation/amazon-web-services-aws-users) 를 참조하십시오. - - [Google Cloud Platform (GCP) 파트너](https://newrelic.com/partner/gcp) 로서 뉴렐릭은 [App Engine 가변형 환경을](https://cloud.google.com/appengine/docs/flexible) 지원합니다. 각 에이전트에는 [GAE Flex 환경에 대한 자체 요구사항이](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment) 있습니다. 뉴렐릭 에이전트를 설치한 후 [APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm) 으로 앱 성능을 볼 수 있습니다. + + [Google Cloud Platform (GCP) 파트너](https://newrelic.com/partner/gcp) 로서 뉴렐릭은 [App Engine 가변형 환경을](https://cloud.google.com/appengine/docs/flexible) 지원합니다. 각 에이전트에는 [GAE Flex 환경에 대한 자체 요구사항이](/docs/accounts-partnerships/partnerships/google-cloud-platform-gcp/google-app-engine-environment) 있습니다. 뉴렐릭 에이전트를 설치한 후 [APM](/docs/apm/new-relic-apm/getting-started/introduction-new-relic-apm) 으로 앱 성능을 볼 수 있습니다. - - [Heroku](https://www.heroku.com/) 는 웹 호스팅이 가능한 PaaS(Platform as a Service) 솔루션입니다. 뉴렐릭 Heroku 추가 기능을 사용하면 의 지표로 Heroku 확장할 수 있습니다. 뉴렐릭 추가 기능은 Java, Node.js, PHP, 파이썬, 루비. Heroku 와 함께 뉴렐릭을 설치하고 사용하는 방법에 대한 자세한 내용은 다음을 참조하세요. + + [Heroku](https://www.heroku.com/) 는 웹 호스팅이 가능한 PaaS(Platform as a Service) 솔루션입니다. 뉴렐릭 Heroku 추가 기능을 사용하면 의 지표로 Heroku 확장할 수 있습니다. 뉴렐릭 추가 기능은 Java, Node.js, PHP, 파이썬, 루비. Heroku 와 함께 뉴렐릭을 설치하고 사용하는 방법에 대한 자세한 내용은 다음을 참조하세요. * [Heroku 개발자 센터 문서](https://devcenter.heroku.com/articles/newrelic "링크가 새 창에서 열립니다.") * [Heroku 설치에 대한 New Relic의 문서](/docs/accounts-partnerships/partnerships/heroku-new-relic/heroku-installing-new-relic) - + Magento는 New Relic과 파트너 관계를 맺어 판매자가 데이터 및 즉시 사용 가능한 도구에 더 빠르게 액세스할 수 있도록 했습니다. [New Relic Reporting Extension](http://www.magentocommerce.com/magento-connect/new-relic-reporting.html) 은 전자 상거래 비즈니스가 데이터 기반 의사 결정을 내리는 데 도움이 됩니다. PHP 앱용 [Magento](http://newrelic.com/magento) 로 New Relic 계정을 생성하려면: @@ -73,10 +61,7 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크 ### N - Z 파트너 [#n-z-partners] - + [Pantheon](https://pantheon.io/features/new-relic) 을 통해 New Relic 계정을 만들고 New Relic에 로그인하려면: 1. [뉴렐릭이 있는 Pantheon의 파트너 페이지](https://pantheon.io/features/new-relic) 에서 **sign up** 링크를 선택하세요. @@ -88,10 +73,7 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크 몇 분 후에 [APM **Overview** 페이지](/docs/apm/applications-menu/monitoring/applications-overview-dashboard) 에서 앱 성능을 확인할 수 있습니다. 자세한 내용은 [Pantheon 문서 를](https://pantheon.io/docs/new-relic/) 참조하세요. - + [Rackspace Cloud Tools](https://www.rackspace.com) 를 통해 계정을 만들고 New Relic에 로그인하려면 다음 기본 절차를 따르세요. 자세한 내용은 [Rackspace Cloud Load Balancer 플러그인](/docs/accounts-partnerships/accounts/install-new-relic/partner-based-installation/rackspace-cloud-load-balancer-plugin) 을 참조하십시오. 1. cloudtools.rackspace.com/myapps에서 [CloudTools](https://cloudtools.rackspace.com/myapps) 계정에 로그인합니다. @@ -105,10 +87,7 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크 몇 분 정도 기다린 후 [APM **Overview** 페이지](/docs/apm/applications-menu/monitoring/applications-overview-dashboard) 에서 앱 성능을 확인하세요. - + [W3 Total Cache](https://wordpress.org/plugins/w3-total-cache/) 를 통해 계정을 생성하고 New Relic에 로그인하려면 API 키만 받는 것이 아니라 W3 PHP 에이전트를 설치하고 실행해야 합니다. @@ -129,17 +108,14 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크 3. New Relic이 데이터 수집을 시작할 때까지 기다리십시오. - 에이전트를 배포한 후 몇 분 안에 앱에 대한 성능 데이터가 APM의 [애플리케이션 개요 페이지](/docs/apm/applications-menu/monitoring/applications-overview-dashboard) 에 나타납니다. + 구현 후 몇 분 내에 앱에 대한 에이전트, 성능 데이터가 APM [설계 개요](/docs/apm/applications-menu/monitoring/applications-overview-dashboard) 페이지에 표시됩니다. [WordPress](https://wordpress.org/plugins/rt-newrelic-browser/) 는 [브라우저 모니터링](/docs/agents/php-agent/installation/wordpress-users-new-relic#browser) 을 위한 플러그인도 제공합니다. - + [Windows Azure](https://www.windowsazure.com/) 는 .NET 및 Node.js를 비롯한 다양한 언어를 사용하여 웹 애플리케이션을 호스팅할 수 있는 PaaS(Platform as a Service) 솔루션입니다. Azure에서 .NET 에이전트를 사용하는 방법에 대한 자세한 내용은 다음을 참조하세요. @@ -154,4 +130,4 @@ New Relic 파트너로부터 특별 제안을 받은 경우 파트너의 링크 Azure와 함께 Node.js 에이전트를 설치하고 사용하는 방법에 대한 자세한 내용은 [Microsoft Azure의 Node.js 에이전트를](/docs/agents/nodejs-agent/hosting-services/nodejs-agent-microsoft-azure) 참조하세요. - + \ No newline at end of file diff --git a/src/i18n/content/kr/docs/apis/intro-apis/new-relic-api-keys.mdx b/src/i18n/content/kr/docs/apis/intro-apis/new-relic-api-keys.mdx index ca66d159ce7..316dafc6e24 100644 --- a/src/i18n/content/kr/docs/apis/intro-apis/new-relic-api-keys.mdx +++ b/src/i18n/content/kr/docs/apis/intro-apis/new-relic-api-keys.mdx @@ -9,13 +9,9 @@ freshnessValidatedDate: never translationType: machine --- -당사의 모니터링 솔루션과 API는 API 키를 사용하여 귀하의 신원을 인증하고 확인합니다. 이 키를 사용하면 조직에서 승인된 사람만 뉴렐릭에 데이터를 보고하고 해당 데이터에 액세스하고 기능을 구성할 수 있습니다. 기본 키는 볼륨 키(데이터 보고용)와 (GraphQL API 인 NerdGraph 작업용)입니다. +당사의 모니터링 솔루션과 API는 API 키를 사용하여 귀하의 신원을 인증하고 확인합니다. 이 키를 사용하면 조직에서 승인된 사람만 뉴렐릭에 데이터를 보고하고 해당 데이터에 액세스하고 기능을 구성할 수 있습니다. 기본 키는 볼륨 키(데이터 보고용)와 (GraphQL API 인 NerdGraph 작업용)입니다. -Screenshot of the API keys UI +Screenshot of the API keys UI API 키로 시작하려면: @@ -131,49 +127,35 @@ API 키로 시작하려면: ## API 키 보기 및 관리 [#keys-ui] -[API 키 UI 페이지](https://one.newrelic.com/api-keys) 에서 대부분의 API 키를 보고 관리할 수 있습니다. 이를 찾으려면 [사용자 메뉴](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings/#user-menu) 에서 **API keys** 클릭하세요. 당신은 또한 수: +을 클릭하면 [사용자 메뉴](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings/#user-menu) 에 위치한 [API 키 UI 페이지](https://one.newrelic.com/api-keys) 에서 대부분의 키를 관리할 수API **API keys** 있습니다. -* [NerdGraph 탐색기를 사용](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph#explorer)하여 사용자 키 확인 및 생성 -* [NerdGraph API](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys)를 사용해 라이선스 키, 브라우저 키 및 사용자 키를 프로그래밍 가능한 방식으로 관리 - -[계정 ID](/docs/accounts/accounts-billing/account-setup/account-id)는 뉴렐릭에 데이터를 보고할 때 종종 필요한 또 다른 식별 번호입니다. - -## UI에서의 키 복사 방법 [#copy-keys] - -[**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) 에서 기존 API 키와 해당 ID를 복사할 수 있습니다. - -* **Copy key**: 키 자체의 값을 복사합니다. -* **Copy key ID**: API를 통해 키 개체를 참조하는 데 때때로 필요한 키의 ID를 복사합니다. -* **Copy truncated key**: 이 옵션은 귀하의 것이 아닌 키에 사용할 수 있습니다. 키에서 몇 자리 숫자만 복사하므로 내부 키 추적이나 지원팀과의 대화에 유용할 수 있습니다. +NerdGraph에서 키를 보려면 키 ID를 복사하세요. [NerdGraph를 사용하여 키를 관리할](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys)수도 있습니다. ## API 키 관리에 대한 권장사항 [#security-practices] API 키가 잘못된 사람의 손에 들어가면 보안 위험이 발생할 수 있습니다. 예를 들어: -* 귀하의 가진 누군가가 귀하의 계정으로 임의의 데이터를 보낼 수 있습니다. +* 귀하의 가진 누군가가 귀하의 계정으로 임의의 데이터를 보낼 수 있습니다. * 팀원의 사용자 키 중 하나를 가진 사람이 New Relic 데이터를 보고 New Relic 계정을 변경할 수 있습니다. 비밀번호 및 기타 민감한 정보와 마찬가지로 API 키를 안전하게 취급해야 합니다. 몇 가지 권장 사항: * 라이센스 키와 브라우저 키의 경우 키 순환 전략 구현을 고려하십시오. 새 키를 만들고 정해진 일정에 따라 이전 키를 삭제하십시오. 고려 사항: - * 계정과 연결된 원래 키는 삭제할 수 없으므로 강력한 보안 전략을 구현하려면 나중에 삭제할 수 있는 추가 키를 생성해야 합니다. + * 계정에 연결된 원래 수집 키는 삭제할 수 없으므로 나중에 삭제할 수 있는 추가 수집 키를 만드는 것이 좋습니다. 이를 통해 강력한 보안 태세를 갖추는 것이 가능합니다. * 모바일 앱 토큰에는 적용되지 않습니다. 토큰을 삭제하거나 추가 토큰을 만들 수 없습니다. -* 의 경우: +* 의 경우: * 팀원들에게 사용자 키를 안전하게 유지하도록 지시하십시오. - * 직원이 조직을 떠나면 뉴렐릭에서 제거해야 합니다. + * 구성원이 조직을 떠날 때 뉴렐릭에서 해당 사용자 ID를 제거하세요. 이렇게 하면 사용자 ID와 연결된 모든 사용자 키가 비활성화됩니다. ## API 키 순환 [#rotate-keys] API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습니다. - + [라이선스 키](/docs/apis/intro-apis/new-relic-api-keys/#license-key)는 거의 모든 데이터를 보고하는 데 사용됩니다. (자체 키를 사용하는 브라우저 및 모바일 모니터링 데이터 제외) 각 키는 특정 계정에 연결되어 있으며 사용자는 원하는 만큼 키를 생성할 수 있습니다. 라이선스 키는 업데이트할 수 없으며 삭제한 후 새 키를 생성하여 교체해야 합니다. (또는 [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) EU [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) 데이터 센터의 경우 )에서 API 키 에서 귀하의 계정에 대한 키를 찾을 수 있습니다.UI [모든 제품 관리자 권한](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#standard-roles) 이나 해당 키를 볼 수 있는 사용자 지정 역할이 없으면 사용 권한이 있는 키만 표시됩니다. @@ -188,51 +170,28 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습 3. **API keys** 페이지 오른쪽 상단에 있는 **Create a key** 클릭하세요. - Screenshot of API keys list in New Relic + Screenshot of API keys list in New Relic 4. 새 키 이름을 입력하고 **Key type** 에 대해 **Ingest - License** 선택한 다음 선택적 설명을 추가하고 **Save** 클릭합니다. - Screenshot of create an API page + Screenshot of create an API page 5. 새 키/값으로 이전 키를 참조하는 모든 파일이나 코드를 업데이트하세요. 새 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Copy key** 클릭하면 새 키를 찾을 수 있습니다. - Screenshot of the copy key options + Screenshot of the copy key options 6. 외부 의존성/종속성이 업데이트되면 이전 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Delete** 클릭하여 이전 키를 안전하게 삭제할 수 있습니다. - Screenshot of delete key option + Screenshot of delete key option 7. 키가 성공적으로 삭제되면 오른쪽 하단에 다음 메시지가 표시됩니다. - Screenshot showing the confirmation of a deleted key + Screenshot showing the confirmation of a deleted key NerdGraph API를 통해 라이선스 키를 관리할 수도 있습니다. 지침은 [NerdGraph 튜토리얼: API 키 관리](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/)를 참조하십시오. - + 브라우저 키는 브라우저 모니터링 데이터를 보고하는 데 사용됩니다. 각 키는 특정 계정에 연결되어 있으며 고객은 원하는 만큼 키를 생성할 수 있습니다. (또는 [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) EU [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) 데이터 센터의 경우 )의 API 키 에서 귀하의 계정에 대한 브라우저 키를 찾을 수 있습니다.UI [모든 제품 관리자 권한](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts/#standard-roles) 이나 해당 키를 볼 수 있는 사용자 지정 역할이 없으면 사용 권한이 있는 키만 표시됩니다. @@ -247,59 +206,33 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습 3. **API keys** 페이지 오른쪽 상단에 있는 **Create a key** 클릭하세요. - Screenshot of API keys list in New Relic + Screenshot of API keys list in New Relic 4. 새 키 이름을 입력하고 **Key type** 에 대해 **Ingest - Browser** 선택한 다음 선택적 설명을 추가하고 **Save** 클릭합니다. - Screenshot of create an API page + Screenshot of create an API page 5. 새 키/값으로 이전 키를 참조하는 모든 파일이나 코드를 업데이트하세요. 새 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Copy key** 클릭하면 새 키를 찾을 수 있습니다. - Screenshot of the copy key options + Screenshot of the copy key options 6. 외부 의존성/종속성이 업데이트되면 이전 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Delete** 클릭하여 이전 키를 안전하게 삭제할 수 있습니다. - Screenshot of delete key option + Screenshot of delete key option 7. 키가 성공적으로 삭제되면 오른쪽 하단에 다음 메시지가 표시됩니다. - Screenshot showing the confirmation of a deleted key + Screenshot showing the confirmation of a deleted key - + 모바일 모니터링은 라이선스 키 대신 모바일 앱 토큰을 사용하여 데이터를 보고합니다. 모바일 앱 토큰은 모두 고유하며 애플리케이션이 NR1에 등록될 때마다 다시 생성됩니다. 앱과 연결된 모바일 키를 순환하려면 뉴렐릭에서 앱을 다시 인증해야 합니다. 앱 토큰에 대한 보다 자세한 내용은 [모바일 모니터링 설정 구성](/docs/mobile-monitoring/new-relic-mobile/maintenance/configure-settings-for-mobile-monitoring/#application-token)을 참조하십시오. - - NerdGraph 및 REST API 를 사용하려면 "개인 API 키"라고도 하는 뉴렐릭 사용자 키가 필요합니다. 키는 조직이나 특정 사용자에게 속할 수 있습니다. + + NerdGraph 및 REST API 를 사용하려면 "개인 API 키"라고도 하는 뉴렐릭 사용자 키가 필요합니다. 키는 조직이나 특정 사용자에게 속할 수 있습니다. (또는 [**one.eu.newrelic.com/api-keys**](https://one.eu.newrelic.com/api-keys) EU [**one.newrelic.com/api-keys**](https://one.newrelic.com/api-keys) 데이터센터의 경우 )의 API 키 에서 귀하 계정의 사용자 키를 찾을 수 있습니다.UI 모든 제품 관리자 권한이나 해당 키를 볼 수 있는 사용자 지정 역할이 없으면 사용 권한이 있는 키만 표시됩니다. @@ -315,55 +248,32 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습 3. **API keys** 페이지 오른쪽 상단에 있는 **Create a key** 클릭하세요. - Screenshot of API keys list in New Relic + Screenshot of API keys list in New Relic 4. 새 키 이름을 입력하고 **Key type** 에 대해 **User** 선택한 다음 선택적 설명을 추가하고 **Save** 클릭합니다. - Screenshot of create an API page + Screenshot of create an API page 5. 새 키/값으로 이전 키를 참조하는 모든 파일이나 코드를 업데이트하세요. 새 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Copy key** 클릭하면 새 키를 찾을 수 있습니다. - Screenshot of the copy key options + Screenshot of the copy key options 6. 외부 의존성/종속성이 업데이트되면 이전 키와 동일한 행에 있는 **...** 아이콘을 클릭한 후 **Delete** 클릭하여 이전 키를 안전하게 삭제할 수 있습니다. - Screenshot of delete key option + Screenshot of delete key option 7. 키가 성공적으로 삭제되면 오른쪽 하단에 다음 메시지가 표시됩니다. - Screenshot showing the confirmation of a deleted key + Screenshot showing the confirmation of a deleted key - NerdGraph API를 통해 사용자 키를 관리할 수도 있습니다. 지침은 [NerdGraph 튜토리얼: API 키 관리](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/)를 참조하십시오. + NerdGraph API를 통해 사용자 키를 관리할 수도 있습니다. 지침은 [NerdGraph 튜토리얼: API 키 관리](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys/)를 참조하십시오. 또한 오래되거나 덜 일반적인 API 키 유형도 있습니다. 이러한 키를 순환하려면 다음을 수행합니다. - + 이는 고객이 사용하도록 권장하지 않지만 뉴렐릭에서 지원되고 있는 이전 키입니다. 이러한 키는 메트릭, 이벤트, 로그 및 트레이스 API를 통해 데이터를 수집하는 데 사용되며 전체 조직에 적용됩니다. 이러한 키를 순환하려면 다음을 수행합니다. @@ -374,35 +284,20 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습 3. 페이지 왼쪽에서 **Looking for other keys?** 섹션을 찾아 교체하려는 키 유형에 대한 링크를 클릭합니다. - Screenshot of links to Insights keys + Screenshot of links to Insights keys 4. 새 삽입 또는 쿼리 키를 만들려면 **+** 아이콘을 클릭하세요. - Screenshot of plus buttons to add Insights keys + Screenshot of plus buttons to add Insights keys 5. 이전 키를 참조하는 모든 파일이나 코드를 새로운 핵심 가치로 업데이트하세요. 6. 외부 의존성/종속성이 업데이트되면 이전 키를 안전하게 삭제할 수 있습니다. 키를 제거하려면 해당 키 위에 마우스를 놓고 **Delete** 클릭하세요. - Screenshot of Insights key interface including delete button + Screenshot of Insights key interface including delete button - + 이는 더 이상 사용되지 않지만 뉴렐릭에서 계속 지원되는 오래된 키입니다. 이제 REST API 키 대신 사용자 키를 사용하는 것이 좋습니다. 이 키를 순환할 수는 없지만 삭제할 수는 있습니다. @@ -413,29 +308,19 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습 3. 페이지 왼쪽에서 **Looking for other keys?** 섹션을 찾아 **REST API key** 클릭합니다. - Screenshot of links to legacy REST API keys + Screenshot of links to legacy REST API keys 4. **Delete REST API Key** 을(를) 클릭합니다. - + Pixie API 키는 Pixie 플랫폼에 커스텀 애플리케이션을 인증하는 데 사용됩니다. Pixie API 키는 수정할 수 없습니다. Pixie API 키를 순환하려면 새 키를 생성한 다음 이전 키를 삭제해야 합니다. Pixie API 키에 대한 보다 자세한 내용은 Pixie 문서의 [API 키 관리](https://docs.px.dev/reference/admin/api-keys/)를 참조하십시오. - + 파트너십 API는 뉴렐릭 담당자가 이를 사용해야 한다고 구체적으로 안내하지 않는 한 조직에서 사용할 수 없습니다. API에 대한 보다 자세한 내용은 [파트너십 API 참조](/docs/new-relic-partnerships/partnerships/partner-api/partner-api-reference/)를 확인하시기 바랍니다. - 키를 보거나 재생성하려면 파트너십 소유자 자격 증명을 사용하여 뉴렐릭에 로그인한 다음 **Partnerships > Edit settings**s로 이동하세요. + 키를 보거나 재생성하려면 파트너십 소유자 자격 증명을 사용하여 뉴렐릭에 로그인한 다음 **Partnerships > Edit settings**s로 이동하세요. @@ -444,64 +329,45 @@ API 키를 순환하는 가장 일반적인 4가지 방법은 다음과 같습 API 키를 생성하거나 관리하려면 [one.newrelic.com/launcher/api-keys-ui.api-keys-launcher](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher) 의 UI 또는 [NerdGraph API를 사용](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys) 하십시오. 자세한 내용을 보려면 키를 선택하십시오. - + 데이터 수집에 사용되는 주요 키를 라이선스 키라고 합니다. API 키 UI 및 [NerdGraph](/docs/apis/nerdgraph/examples/use-nerdgraph-manage-license-keys-user-keys) 에서 이 키는 때때로 `ingest - license` 으로 참조됩니다. 거의 모든 New Relic 데이터 수집에는 라이센스 키가 필요합니다. 브라우저 모니터링 데이터(브라우저 키 사용) 및 모바일 모니터링 데이터(모바일 앱 토큰 사용)는 예외입니다. 라이선스 키는 뉴렐릭 계정과 연결된 40자의 16진수 문자열입니다. 뉴렐릭에 처음 [가입](/docs/subscriptions/creating-your-new-relic-account)하면 단일 계정과 자체 라이선스 키가 있는 조직이 생성됩니다. 더 많은 계정이 추가되면 각 계정은 자체 라이선스 키로 시작합니다. 계정에 대해 원래 생성된 라이선스 키는 삭제할 수 없지만 관리 및 삭제할 수 있는 추가 라이선스 키를 생성할 수 있으며, 이는 키 순환과 같은 보안 관행을 구현하는 데 유용합니다. 원래 생성된 계정 라이선스 키를 순환해야 하는 경우 [지원팀에 문의](https://support.newrelic.com)하십시오. - 사용자가 라이선스 키를 보거나 관리할 수 없도록 제한하려면 해당 권한이 없는 역할을 할당합니다: [기존 사용자 모델](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) \| [새로운 사용자 모델](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions) + 사용자가 라이선스 키를 보거나 관리할 수 없도록 제한하려면 해당 권한이 없는 역할을 할당합니다: [기존 사용자 모델](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) | [새로운 사용자 모델](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions) - + 브라우저 모니터링은 라이센스 키가 아닌 브라우저 키를 사용하여 데이터를 보고합니다. 브라우저 키는 [브라우저 모니터링 에이전트](/docs/browser/new-relic-browser/getting-started/introduction-browser-monitoring) 의 데이터를 계정에 연결하는 데 사용됩니다. 계정 생성 시 생성된 원래 브라우저 키는 관리하거나 삭제할 수 없지만, 새 브라우저 키를 생성하고 해당 키를 삭제할 수는 있습니다. 계정의 원래 브라우저 키를 순환하는 데 도움이 필요하면 [지원팀에 문의](https://support.newrelic.com)하시기 바랍니다. - + 모바일 모니터링은 라이선스 키가 아닌 모바일 앱 토큰을 사용하여 데이터를 보고합니다. 자세한 내용은 [모바일 앱 토큰](/docs/mobile-monitoring/new-relic-mobile/maintenance/viewing-your-application-token) 을 참조하세요. - + [NerdGraph](/docs/apis/intro-apis/introduction-new-relic-apis/#graphql) 및 [REST API](/docs/apis/intro-apis/introduction-new-relic-apis/#rest-api) 를 사용하려면 &quot;개인 API 키&quot;라고도 하는 New Relic 사용자 키가 필요합니다. - 은(는) 특정 뉴렐릭 사용자와 연결되어 있으므로 양도할 수 없습니다. 사용자 키를 사용하면 키와 연결된 특정 계정뿐만 아니라 액세스 권한이 부여된 모든 계정에 대해 쿼리를 수행할 수 있습니다. 뉴렐릭 사용자가 뉴렐릭에서 삭제되면 해당 사용자 키도 비활성화되어 작동하지 않습니다. + 은(는) 특정 뉴렐릭 사용자와 연결되어 있으므로 양도할 수 없습니다. 사용자 키를 사용하면 키와 연결된 특정 계정뿐만 아니라 액세스 권한이 부여된 모든 계정에 대해 쿼리를 수행할 수 있습니다. 뉴렐릭 사용자가 뉴렐릭에서 삭제되면 해당 사용자 키도 비활성화되어 작동하지 않습니다. 사용자에게 여러 계정에 대한 액세스 권한을 제공하더라도 사용자 키는 단일 특정 계정, 즉 키가 생성된 계정에 연결됩니다. 여기서 중요한 점은 계정이 삭제되면 해당 계정과 연결된 모든 사용자 키가 더 이상 작동하지 않는다는 것입니다. (또한 REST API의 경우 호출은 해당 사용자 키와 연결된 계정으로 제한됩니다.) - 사용자가 사용자 키를 확인하거나 관리하지 못하도록 하려면 해당 권한이 없는 역할을 할당해야 합니다. [기존 사용자 모델](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) \| [새로운 사용자 모델](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions) + 사용자가 사용자 키를 확인하거나 관리하지 못하도록 하려면 해당 권한이 없는 역할을 할당해야 합니다. [기존 사용자 모델](/docs/accounts/original-accounts-billing/original-users-roles/users-roles-original-user-model#add-on) | [새로운 사용자 모델](/docs/accounts/accounts-billing/new-relic-one-user-management/user-permissions) 위에서 설명한 기본 API 키 외에도 일부 뉴렐릭 고객들이 익히 사용하고 있는 몇 가지 다른 API 키가 있습니다. 이미 사용 중이 아니라면 이 키를 사용할 필요는 없습니다. - + - + - 이 키는 아직 사용 중이지만 동일한 작업 등에 사용할 수 있는 사용하는 것이 좋습니다. + 이 키는 아직 사용 중이지만 동일한 작업 등에 사용할 수 있는 사용하는 것이 좋습니다. 데이터 수집에 사용되는 이전 New Relic API 키 중 하나는 삽입 키라고도 하는 Insights 삽입 키입니다. 라이센스 키는 동일한 기능 등에 사용되므로 이 키보다 라이센스 키를 권장합니다. @@ -517,19 +383,13 @@ API 키를 생성하거나 관리하려면 [one.newrelic.com/launcher/api-keys-u 인사이트 삽입 키를 찾고 관리하려면: [사용자 메뉴](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings) 에서 **API keys** ( [API 키 페이지로 직접 연결되는 링크](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher) 받기)을 클릭하세요. 그런 다음 **Insights insert keys**) 클릭하세요. - + 이전 API 키 중 하나는 인사이트 [쿼리 API](/docs/insights/insights-api/get-data/query-insights-event-data-api) 에 사용되는 인사이트 쿼리 키입니다. 거의 모든 목적에 대해 **we recommend using [NerdGraph](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph) to query and return New Relic data.** 한 가지 예외는 이 키가 여전히 [Grafana용 Prometheus 데이터 소스로 뉴렐릭을](/docs/more-integrations/grafana-integrations/set-configure/configure-new-relic-prometheus-data-source-grafana) 구성하는 데 사용된다는 것입니다. 인사이트 쿼리 키를 찾고 관리하려면: [사용자 메뉴](/docs/accounts/accounts-billing/general-account-settings/intro-account-settings) 에서 **API keys** ( [API 키 페이지로 직접 연결되는 링크](https://one.newrelic.com/launcher/api-keys-ui.api-keys-launcher) 받기)을 클릭하세요. 그런 다음 **Insights query keys**) 클릭하세요. - + 관리자 키는 더 이상 사용되지 않는 이전 API 키 중 하나입니다. 2020년 12월 4일부로 기존의 모든 관리 키는 사용자 키로 마이그레이션되었습니다. 관리자 키를 사용하고 있었다면 해당 키를 활성 상태로 유지하기 위해 아무 작업도 수행할 필요가 없습니다. API 키 UI를 통해 자동으로 액세스할 수 있고 사용자 키로 레이블이 지정되며 동일한 권한이 부여됩니다. 동일한 워크플로를 통해 사용자 키처럼 관리할 수 있습니다. @@ -537,10 +397,7 @@ API 키를 생성하거나 관리하려면 [one.newrelic.com/launcher/api-keys-u 마이그레이션된 모든 관리 키에는 키 테이블에 **Migrated from an admin user key** 라는 메모가 있습니다. - + REST API 키는 [REST API를](/docs/apis/rest-api-v2/get-started/introduction-new-relic-rest-api-v2) 사용하기 위한 이전 키입니다. 이제 REST API 키 대신 사용자 키를 사용하는 것이 좋습니다. 사용자는 계정별이 아닌 사용자별이므로 조직에서 팀 구성원의 액세스를 더 효과적으로 제어할 수 있습니다. 또한 REST API 대신 최신 API인 [NerdGraph를](/docs/apis/nerdgraph/get-started/introduction-new-relic-nerdgraph) 사용하는 것이 좋습니다. 고려해야 할 사항: @@ -557,4 +414,4 @@ API 키를 생성하거나 관리하려면 [one.newrelic.com/launcher/api-keys-u - + \ No newline at end of file diff --git a/src/i18n/content/kr/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx b/src/i18n/content/kr/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx index 31324f644bf..a5660f6b2db 100644 --- a/src/i18n/content/kr/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx +++ b/src/i18n/content/kr/docs/apis/rest-api-v2/api-explorer-v2/use-api-explorer.mdx @@ -16,81 +16,20 @@ New Relic의 REST API Explorer(v2)를 사용하면 사용 가능한 모든 API [API 탐색기](https://rpm.newrelic.com/api/explore) 를 사용하려면 API 액세스가 활성화되어야 하고 계정에 대한 [API 키](/docs/apis/rest-api-v2/requirements/rest-api-key) 가 생성되어야 합니다. - 사용자 키에는 제한 사항이 적으므로 [REST API 키](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key) 가 아닌 사용하는 것이 좋습니다. + 사용자 키에는 제한 사항이 적으므로 [REST API 키](/docs/apis/intro-apis/new-relic-api-keys/#rest-api-key) 가 아닌 사용하는 것이 좋습니다. 팁: -* 뉴렐릭에 로그인한 경우 탐색기를 사용할 때 상단에서 API [API 키를](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) 선택할 수 UI +* 뉴렐릭에 로그인한 경우 탐색기를 사용할 때 상단에서 API [API 키를](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) 선택할 수 UI **Request** **Parameters** 있으며 해당 키는 탐색기의 및 섹션에 자동으로 표시됩니다. +* 뉴렐릭에 로그인하지 않은 경우 [API 키를](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) API 탐색기의 **Parameters**에 붙여넣을 수 있습니다. - - **Request** - +## API 탐색기 사용 [#use-api-explorer] - - **Parameters** - - - 있으며 해당 키는 탐색기의 및 섹션에 자동으로 표시됩니다. - -* 뉴렐릭에 로그인하지 않은 경우 [API 키를](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) API 탐색기의 - - - **Parameters** - - - 에 붙여넣을 수 있습니다. - -## API 탐색기에 액세스 [#accessing] - -New Relic API 탐색기를 사용하려면: - -1. - **[rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore)** - - - 으)로 이동합니다. - -2. API 탐색기의 메뉴 표시줄에 있는 드롭다운 목록에서 앱의 계정 이름을 선택합니다. - -3. 사이드바에서 기능(애플리케이션, 브라우저 등)과 사용 가능한 API [함수](/docs/apm/apis/api-explorer-v2/parts-api-explorer#functions)( - - - **GET** - - - , - - - **PUT** - - - , - - - **DELETE** - - - )를 선택합니다. - -4. API 호출에 대한 다른 - - - **Parameters** - - - 값을 입력합니다. (v2에 대한 설명 및 요구 사항은 UI를 참조하세요.) - -5. 요청에 대한 - - - **format** - - - (JSON 또는 XML)을 선택합니다. - -6. - **Send Request** - - - 선택합니다. +1. **[API Explorer](https://api.newrelic.com/docs/)** 로 이동합니다. +2. **Servers** 드롭다운 메뉴에서 US 또는 EU 기반 API URL을 선택하세요. +3. **Authorize** 클릭하고 사용자 API 키를 입력한 후 **Authorize** 다시 클릭합니다. +4. 사용 가능한 API 함수 중 하나를 확장하세요: **GET**, **PUT**, **DELETE**. +5. (선택 사항) API 호출에 대한 **Parameters** 값을 추가하여 응답을 필터링합니다(v2에 대한 설명과 요구 사항은 UI를 참조하세요). +6. **Media type** 드롭다운 메뉴에서 요청에 대한 형식을 JSON 또는 XML 중에서 선택하세요. +7. **Try it out** 클릭한 다음 **Execute** 클릭하세요. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx b/src/i18n/content/kr/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx index 19dae15c169..6c5d5a28f30 100644 --- a/src/i18n/content/kr/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx +++ b/src/i18n/content/kr/docs/apis/rest-api-v2/get-started/list-application-id-host-id-instance-id.mdx @@ -19,53 +19,31 @@ ID에는 다음이 포함될 수 있습니다. [New Relic API Explorer](/docs/apis/using-the-api-explorer) 에 이러한 ID를 나열하려면 [API 키](/docs/apis/rest-api-v2/getting-started/introduction-new-relic-rest-api-v2#api_key) 가 필요합니다. -## API 탐색기 사용 [#explorer] +## API 탐색기 사용 [#use-api-explorer] -API 탐색기를 사용하여 특정 제품에 대한 모든 제품 ID 목록을 반환할 수 있습니다. +1. **[API Explorer](https://api.newrelic.com/docs/)** 로 이동합니다. +2. **Servers** 드롭다운 메뉴에서 US 또는 EU 기반 API URL을 선택하세요. +3. **Authorize** 클릭하고 사용자 API 키를 입력한 후 **Authorize** 다시 클릭합니다. +4. 사용 가능한 API 함수 중 하나를 확장하세요: **GET**, **PUT**, **DELETE**. +5. (선택 사항) API 호출에 대한 **Parameters** 값을 추가하여 응답을 필터링합니다(v2에 대한 설명과 요구 사항은 UI를 참조하세요). +6. **Media type** 드롭다운 메뉴에서 요청에 대한 형식을 JSON 또는 XML 중에서 선택하세요. +7. **Try it out** 클릭한 다음 **Execute** 클릭하세요. -1. - **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > (select an app)** - +## 제품 ID 나열 [#list-product-ids] - 으)로 이동합니다. +특정 제품의 모든 제품 ID 목록을 반환하려면: -2. [rpm.newrelic.com/api/explore](https://rpm.newrelic.com/api/explore) 에서 API 탐색기로 이동합니다. 그런 다음 +1. `GET /applications.json` 드롭다운 메뉴를 클릭하세요. +2. **Try it out** \[시도해보기]를 클릭한 다음 **Execute** \[실행]을 클릭합니다. +3. 모든 제품 ID를 보려면 응답을 탐색하세요. - - **Select an account** - +특정 제품 ID를 찾으면 나중에 다른 REST API 호출에 사용할 수 있도록 복사하세요. - 드롭다운 메뉴에서 계정 이름을 선택하세요. +## 애플리케이션 ID 나열 [#locating\_app\_id][#locating_app_id] -3. 사이드바에서 +에이전트가 모니터링하는 각 앱에는 이름이 할당됩니다. 고유한 `$APP_ID` 도 해당 이름과 연관되어 있습니다. `$APP_ID` 는 앱에 대한 정보를 검색하는 데 기본입니다. `$APP_ID` 나열 및 사용, 요약 데이터 가져오기에 대한 자세한 내용은 [앱 ID 나열을](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2) 참조하세요. - - **(product category) > GET List** - - - 선택합니다. - - - **Send Request** - - - 선택합니다. - -4. 제품 ID를 찾으려면 - - - **Response** - - - 을 탐색하세요. - -REST API 호출에서 찾은 제품 ID를 사용하십시오. - -## 애플리케이션 ID 나열 [#locating_app_id] - -에이전트가 모니터링하는 각 앱에는 이름이 할당됩니다. 고유한 `$APP_ID` 도 해당 이름과 연관되어 있습니다. `$APP_ID` 는 앱에 대한 정보를 검색하는 데 기본입니다. `$APP_ID` 나열 및 사용, 요약 데이터 가져오기에 대한 자세한 내용은 [앱 ID 나열을](/docs/apis/rest-api-v2/application-examples-v2/listing-your-app-id-metric-data-v2) 참조하세요. - -## 호스트 ID 나열 [#locating_host_id] +## 호스트 ID 나열 [#locating\_host\_id][#locating_host_id] `$HOST_ID` 은 앱을 실행하는 특정 호스트에 대한 APM 데이터를 가져오는 데 사용됩니다. 물리적 서버에는 둘 이상의 호스트가 있을 수 있습니다. 예를 들어, 물리적 서버에서 실행되는 웹 서버 프로그램은 하나 이상의 가상 호스트를 갖도록 구성될 수 있습니다. @@ -73,33 +51,12 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오. `$HOST_ID` 을 사용하여 호스트에 대한 요약 측정항목과 특정 측정항목 타임슬라이스 값을 검색합니다. 사용 가능한 측정항목에 대한 자세한 내용은 다음을 참조하세요. -1. - **[rpm.newrelic.com](https://rpm.newrelic.com)** - - - 으)로 이동합니다. - -2. [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) 로 이동한 후 - - - **Select an account** - - - 드롭다운 메뉴에서 계정 이름을 선택하세요. - -3. [rpm.newrelic.com/api/explore/application_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names) 에서 API 탐색기의 - - - **Application host** - - - 페이지로 이동합니다. +1. **[rpm.newrelic.com](https://rpm.newrelic.com)** 으)로 이동합니다. +2. [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) 로 이동한 후 **Select an account** 드롭다운 메뉴에서 계정 이름을 선택하세요. +3. [rpm.newrelic.com/api/explore/application\_hosts/names](https://rpm.newrelic.com/api/explore/application_hosts/names) 에서 API 탐색기의 **Application host** 페이지로 이동합니다. - + API 탐색기를 사용하여 특정 애플리케이션에 대한 모든 `$HOST_ID` 목록을 반환하려면 [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id) 이 필요합니다. 1. [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) 로 이동한 후 **Select an account** 드롭다운 메뉴에서 계정 이름을 선택하세요. @@ -118,10 +75,7 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오. 4. 각 호스트에 대한 `{HOST_ID}` 을(를) 찾으려면 **Response** 을 찾아보세요. - + 출력은 다음과 유사하게 나타납니다. ``` @@ -164,7 +118,7 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오. -## 인스턴스 ID 나열 [#locating_instance_id] +## 인스턴스 ID 나열 [#locating\_instance\_id][#locating_instance_id] 해당 ID의 의미는 사용 중인 뉴렐릭 언어 에이전트에 따라 다릅니다. REST API에서 이 ID를 나열할 수 있습니다. Java의 경우 APM의 **Overview** 페이지에서 [인스턴스 ID(JVM)를 볼](#UI) 수도 있습니다. @@ -257,10 +211,7 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오. `{INSTANCE_ID}` 을 사용하여 인스턴스에 대한 요약 측정항목과 특정 측정항목 타임슬라이스 값을 검색할 수 있습니다. 사용 가능한 메트릭에 대한 자세한 내용은 [REST API Explorer 애플리케이션 인스턴스](https://rpm.newrelic.com/api/explore/application_instances/names) 페이지를 사용하십시오. - + API 탐색기를 사용하여 특정 애플리케이션에 대한 모든 `$INSTANCE_ID` 목록을 반환하려면 [`$APP_ID`](/docs/apis/rest-api-v2/requirements/finding-product-id) 이 필요합니다. 1. [API Explorer](https://rpm.newrelic.com/api/explore/application_hosts/list) 로 이동한 후 **Select an account** 드롭다운 메뉴에서 계정 이름을 선택하세요. @@ -279,11 +230,8 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오. 4. 각 인스턴스에 대한 `$INSTANCE_ID` 를 찾으려면 **Response** 를 찾아보세요. - - {INSTANCE_ID} 출력은 다음과 유사하게 표시됩니다. + + \{INSTANCE\_ID} 출력은 다음과 유사하게 표시됩니다. ``` { @@ -320,13 +268,10 @@ REST API 호출에서 찾은 제품 ID를 사용하십시오. ``` - + 자바 앱: New Relic에서 특정 JVM `$INSTANCE_ID` 을 찾으려면: - 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > APM & services > Applications > (select an app) > JVMs** 으)로 이동합니다. + 1. **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; APM &amp; services &gt; Applications &gt; (select an app) &gt; JVMs** 으)로 이동합니다. 2. 인스턴스의 이름을 선택합니다. @@ -395,4 +340,4 @@ curl -X GET 'https://api.newrelic.com/v2/applications.json' \ } ], . . . -``` +``` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx b/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx index 45b74d69bc4..23036b5d841 100644 --- a/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx +++ b/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/recordllmfeedbackevent-python-agent-api.mdx @@ -52,7 +52,7 @@ Python 에이전트 버전 9.8.0 이상. `trace_id` - _끈_ + *끈* @@ -64,11 +64,11 @@ Python 에이전트 버전 9.8.0 이상. `rating` - _문자열_ 또는 _정수_ + *문자열* 또는 *정수* - 필수의. 최종 사용자가 제공한 평가(예: '좋음/나쁨', '1-10') + 필수의. 최종 사용자가 제공한 평가(예: '좋음/나쁨', '1-10') @@ -76,11 +76,11 @@ Python 에이전트 버전 9.8.0 이상. `category` - _끈_ + *끈* - 선택 과목. 최종 사용자가 제공한 피드백 카테고리(예: "유익함", "부정확함") + 선택 과목. 최종 사용자가 제공한 피드백 카테고리(예: "유익함", "부정확함") @@ -88,7 +88,7 @@ Python 에이전트 버전 9.8.0 이상. `message` - _끈_ + *끈* @@ -100,7 +100,7 @@ Python 에이전트 버전 9.8.0 이상. `metadata` - _딕셔너리_ + *딕셔너리* @@ -110,7 +110,7 @@ Python 에이전트 버전 9.8.0 이상. -## 반환 값 [#return-valuess] +## 반환 값 [#return-values] 없음. @@ -129,4 +129,4 @@ Python 에이전트 버전 9.8.0 이상. def post_feedback(request): newrelic.agent.record_llm_feedback_event(trace_id=request.trace_id, rating=request.rating, metadata= {"my_key": "my_val"}) ``` -```` +```` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx b/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx new file mode 100644 index 00000000000..8bee4504d47 --- /dev/null +++ b/src/i18n/content/kr/docs/apm/agents/python-agent/python-agent-api/withllmcustomattributes-python-agent-api.mdx @@ -0,0 +1,85 @@ +--- +title: WithLlmCustomAttributes(Python 에이전트 API) +type: apiDoc +shortDescription: LLM 이벤트에 사용자 정의 속성 추가 +tags: + - Agents + - Python agent + - Python agent API +metaDescription: 'Python API: This API adds custom attributes to a Large Language Model (LLM) events generated in AI applications.' +freshnessValidatedDate: never +translationType: machine +--- + +## 통사론 [#syntax] + +```py + with newrelic.agent.WithLlmCustomAttributes(custom_attribute_map): +``` + +제작 코드에서 LLM 호출에 의해 생성된 LLM(기능 언어 모델) 이벤트에 사용자 지정 속성을 추가하는 컨텍스트 관리자 API 입니다. + +## 요구 사항 [#requirements] + +파이썬 에이전트 버전 10.1.0 또는 그 이상. + +## 설명 [#description] + +이 컨텍스트 관리자 API는 LLM에 대한 호출을 기반으로 컨텍스트 내에서 생성된 각 LLM 이벤트에 사용자 지정 속성을 추가합니다. 에이전트는 전달된 사전 인수에 지정된 각 사용자 속성 키 이름에 자동으로 `llm.` 접두사를 추가합니다. 이 API는 활성 트랜잭션 컨텍스트 내에서 호출되어야 합니다. + +이러한 사용자 정의 속성은 뉴렐릭 UI 의 LLM 이벤트 및 쿼리에서 볼 수 있습니다. AI 모니터링에 대한 자세한 내용은 [AI 문서를](https://docs.newrelic.com/docs/ai-monitoring/intro-to-ai-monitoring/) 참조하세요. + +## 매개변수 [#parameters] + + + + + + + + + + + + + + + + + +
+ 매개변수 + + 설명 +
+ `custom_attribute_map` + + *사전* + + 필수의. 각 키/값 쌍이 사용자 정의 속성 이름과 해당 값을 나타내는 비어 있지 않은 사전입니다. +
+ +## 반환 값 [#return-values] + +없음. + +## 예 [#examples] + +### OpenAI 채팅 완료 호출에 사용자 정의 속성 추가 + +```py + import newrelic.agent + + from openai import OpenAI + + client = OpenAI() + + with newrelic.agent.WithLlmCustomAttributes({"custom": "attr", "custom1": "attr1"}): + response = client.chat.completions.create( + messages=[{ + "role": "user", + "content": "Say this is a test", + }], + model="gpt-4o-mini", + ) +``` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx b/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx index 7d86c214474..0f75575877c 100644 --- a/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx +++ b/src/i18n/content/kr/docs/infrastructure/microsoft-azure-integrations/azure-integrations-list/azure-monitor.mdx @@ -248,6 +248,7 @@ Azure Monitor 통합 전에 Azure를 모니터링하려면 메트릭 및 메타 * Azure Monitor 통합을 사용하도록 설정하면 모든 리소스에 대해 별도의 새 엔터티가 생성됩니다. Azure Polling 통합에서 생성된 엔터티는 그대로 유지됩니다. 즉, 대시보드, 경고 및 해당 엔터티를 참조하는 기타 기능을 업데이트해야 합니다. * 이전 엔터티는 24시간 동안 사용할 수 있습니다. +* 지표에 여러 차원 조합이 있는 경우 지표 이름이 두 번 나타날 수 있습니다. [데이터 집계를 필터링하는 쿼리를 생성](/docs/infrastructure/microsoft-azure-integrations/get-started/azure-integration-metrics/#metrics-with-many-dimension-combinations) 하면 중복된 메트릭 이름을 방지할 수 있습니다. ## 이전 Azure Polling 통합에서 마이그레이션 단계 [#migration-from-polling] diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx index 3632d66808d..1e7469ec7f8 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide.mdx @@ -132,7 +132,6 @@ newrelic_remote_write: extra_write_relabel_configs: # Enable the extra_write_relabel_configs below for backwards compatibility with legacy POMI labels. # This helpful when migrating from POMI to ensure that Prometheus metrics will contain both labels (e.g. cluster_name and clusterName). - # For more migration info, please visit the [migration guide](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/migration-guide/). - source_labels: [namespace] action: replace target_label: namespaceName @@ -218,4 +217,4 @@ newrelic-prometheus-agent: enabled: false ``` -Helm을 사용하여 Kubernetes 클러스터를 업그레이드하려면 이 [문서](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) 에 설명된 단계를 따르십시오. +Helm을 사용하여 Kubernetes 클러스터를 업그레이드하려면 이 [문서](/docs/kubernetes-pixie/kubernetes-integration/installation/install-kubernetes-integration-using-helm/#upgrade) 에 설명된 단계를 따르십시오. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx index cffc98d45ac..06a26a0ab1c 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/setup-prometheus-agent.mdx @@ -23,8 +23,8 @@ Helm을 사용하여 에이전트를 구성하려면 다음 두 가지 방법 ```yaml global: - licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_ - cluster: _K8S_CLUSTER_NAME_ + licenseKey: YOUR_NEW_RELIC_LICENSE_KEY + cluster: K8S_CLUSTER_NAME newrelic-prometheus-agent: enabled: true @@ -37,8 +37,8 @@ Helm을 사용하여 에이전트를 구성하려면 다음 두 가지 방법 이 옵션은 고급 사용자인 경우에만 권장됩니다. ```yaml - licenseKey: _YOUR_NEW_RELIC_LICENSE_KEY_ - cluster: _K8S_CLUSTER_NAME_ + licenseKey: YOUR_NEW_RELIC_LICENSE_KEY + cluster: K8S_CLUSTER_NAME config: # YOUR CONFIGURATION GOES HERE. An example: @@ -66,8 +66,8 @@ app_values: ["redis", "traefik", "calico", "nginx", "coredns", "kube-dns", "etcd 또한 통합 필터의 새 버전으로 인해 한 작업에서 이미 스크랩한 대상이 두 번째로 스크랩될 수 있습니다. 중복 데이터 발생 시 알림을 수신하고 중복 스크래핑을 방지하려면 다음 쿼리를 기반으로 경고를 생성할 수 있습니다. -``` -FROM Metric select uniqueCount(job) facet instance, cluster_name limit 10 since 2 minutes ago +```sql +FROM Metric SELECT uniqueCount(job) FACET instance, cluster_name LIMIT 10 SINCE 2 minutes ago ``` 값이 1이 아닌 경우 동일한 클러스터에서 동일한 인스턴스를 스크래핑하는 작업이 둘 이상 있는 것입니다. @@ -99,19 +99,19 @@ Kubernetes 작업은 `target_discovery` 구성에 따라 대상을 검색하고 ```yaml kubernetes: jobs: - - job_name_prefix: example - integrations_filter: - enabled: false - target_discovery: - pod: true - endpoints: true - filter: - annotations: - # : - newrelic.io/scrape: 'true' - label: - # : - k8s.io/app: '(postgres|mysql)' + - job_name_prefix: example + integrations_filter: + enabled: false + target_discovery: + pod: true + endpoints: true + filter: + annotations: + # : + newrelic.io/scrape: "true" + label: + # : + k8s.io/app: "(postgres|mysql)" ``` @@ -174,21 +174,21 @@ common: scrape_interval: 30s kubernetes: jobs: - # this job will use the default scrape_interval defined in common. - - job_name_prefix: default-targets-with-30s-interval - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape: 'true' - - - job_name_prefix: slow-targets-with-60s-interval - scrape_interval: 60s - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape_slow: 'true' + # this job will use the default scrape_interval defined in common. + - job_name_prefix: default-targets-with-30s-interval + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape: "true" + + - job_name_prefix: slow-targets-with-60s-interval + scrape_interval: 60s + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape_slow: "true" ``` ## 측정항목 및 라벨 변환 [#metric-label-transformations] @@ -203,21 +203,21 @@ kubernetes: ```yaml static_targets: -- name: self-metrics - urls: - - 'http://static-service:8181' - extra_metric_relabel_config: - # Drop metrics with prefix 'go_' for this target. - - source_labels: [__name__] - regex: 'go_.+' - action: drop + - name: self-metrics + urls: + - "http://static-service:8181" + extra_metric_relabel_config: + # Drop metrics with prefix 'go_' for this target. + - source_labels: [__name__] + regex: "go_.+" + action: drop newrelic_remote_write: extra_write_relabel_configs: - # Drop all metrics with the specified name before sent to New Relic. - - source_labels: [__name__] - regex: 'metric_name' - action: drop + # Drop all metrics with the specified name before sent to New Relic. + - source_labels: [__name__] + regex: "metric_name" + action: drop ``` ### YAML 파일 스니펫 샘플 [#config-samples] @@ -270,10 +270,10 @@ newrelic_remote_write: ```yaml - source_labels: [__name__] - regex: 'prefix_.+' - target_label: new_label - action: replace - replacement: newLabelValue + regex: 'prefix_.+' + target_label: new_label + action: replace + replacement: newLabelValue ``` @@ -282,7 +282,7 @@ newrelic_remote_write: ```yaml - regex: 'label_name' - action: labeldrop + action: labeldrop ```
@@ -303,36 +303,37 @@ newrelic_remote_write: ```yaml kubernetes: jobs: - - job_name_prefix: skip-verify-on-https-targets - target_discovery: - pod: true - filter: - annotations: - newrelic.io/scrape: 'true' - - job_name_prefix: bearer-token - target_discovery: - pod: true - filter: - label: - k8s.io/app: my-app-with-token - authorization: - type: Bearer - credentials_file: '/etc/my-app/token' + - job_name_prefix: skip-verify-on-https-targets + target_discovery: + pod: true + filter: + annotations: + newrelic.io/scrape: "true" + - job_name_prefix: bearer-token + target_discovery: + pod: true + filter: + label: + k8s.io/app: my-app-with-token + authorization: + type: Bearer + credentials_file: "/etc/my-app/token" static_targets: jobs: - - job_name: mtls-target - scheme: https - targets: - - 'my-mtls-target:8181' - tls_config: - ca_file: '/etc/my-app/client-ca.crt' - cert_file: '/etc/my-app/client.crt' - key_file: '/etc/my-app/client.key' - - - job_name: basic-auth-target - targets: - - 'my-basic-auth-static:8181' - basic_auth: - password_file: '/etc/my-app/pass.htpasswd' + - job_name: mtls-target + scheme: https + targets: + - "my-mtls-target:8181" + tls_config: + ca_file: "/etc/my-app/client-ca.crt" + cert_file: "/etc/my-app/client.crt" + key_file: "/etc/my-app/client.key" + + - job_name: basic-auth-target + targets: + - "my-basic-auth-static:8181" + basic_auth: + password_file: "/etc/my-app/pass.htpasswd" + ``` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx index 2b4a09b5522..e55fa403a80 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide.mdx @@ -23,10 +23,10 @@ global: 이것이 값 파일에서 업데이트되면 다음 helm upgrade 명령을 실행합니다. ```bash -helm upgrade newrelic-prometheus-configurator/newrelic-prometheus-agent \ ---namespace \ --f values-newrelic.yaml \ -[--version fixed-chart-version] +helm upgrade RELEASE_NAME newrelic-prometheus-configurator/newrelic-prometheus-agent \ + --namespace NEWRELIC_NAMESPACE \ + -f values-newrelic.yaml \ + [--version fixed-chart-version] ``` ## 대상에 대한 메트릭이 표시되지 않음 [#target-with-no-metrics] @@ -35,7 +35,7 @@ helm upgrade newrelic-prometheus-configurator/newrelic-prometheus Kubernetes에서 기본 구성을 사용하는 경우 Pod 또는 서비스에 `prometheus.io/scrape=true` 주석이 있는지 확인하세요. -기본적으로 Prometheus 에이전트는 [Prometheus 통합](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro) 에서만 측정항목을 스크랩합니다. 클러스터의 모든 Prometheus 엔드포인트를 스크레이핑하도록 선택하지 않은 경우 Prometheus 에이전트는 [source_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml) 에 정의된 레이블을 사용하여 스크랩할 엔드포인트를 필터링합니다. +기본적으로 Prometheus 에이전트는 [Prometheus 통합](/docs/infrastructure/prometheus-integrations/integrations-list/integrations-list-intro) 에서만 측정항목을 스크랩합니다. 클러스터의 모든 Prometheus 엔드포인트를 스크레이핑하도록 선택하지 않은 경우 Prometheus 에이전트는 [source\_labels](https://github.com/newrelic/newrelic-prometheus-configurator/blob/main/charts/newrelic-prometheus-agent/values.yaml) 에 정의된 레이블을 사용하여 스크랩할 엔드포인트를 필터링합니다. ## 대시보드에 메트릭이 표시되지 않음 [#dashboard-with-no-metrics] @@ -45,8 +45,8 @@ Kubernetes에서 기본 구성을 사용하는 경우 Pod 또는 서비스에 `p 모든 대상 스크랩은 모든 대상 지표와 함께 `up` 지표를 생성합니다. 스크래핑에 성공하면 이러한 메트릭의 값은 `1` 입니다. 성공하지 못한 경우 해당 값은 `0` 입니다. -```SQL -FROM Metric SELECT latest(up) WHERE cluster_name= 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES +```sql +FROM Metric SELECT latest(up) WHERE cluster_name = 'YOUR_CLUSTER_NAME' AND pod = 'TARGET_POD_NAME' TIMESERIES ``` 대상에 대해 이 메트릭이 없으면 삭제되었을 수 있습니다. @@ -103,4 +103,4 @@ kubectl exec newrelic-prometheus-agent-0 -- wget -O - 'localhost:9090/api/v1/tar ] } } -``` +``` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx index 807112bfb22..1344ca4393b 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/argocd-integration.mdx @@ -20,11 +20,7 @@ k8s 클러스터의 Argo CD 인프라를 더 잘 이해하기 위해 New Relic * Argo CD 서버 통계 * 리포지토리 통계 -Argo CD Dashboard +Argo CD Dashboard ## 통합 활성화 @@ -46,7 +42,7 @@ k8s 클러스터의 Argo CD 인프라를 더 잘 이해하기 위해 New Relic FROM Metric SELECT count(*) WHERE instrumentation.name = 'remote-write' AND metricName LIKE 'argocd_%' FACET metricName LIMIT MAX ``` -4. 내장된 기능에 액세스하려면 [Argo CD 빠른 시작을](https://newrelic.com/instant-observability/argocd-quickstart) 설치하십시오. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 [알림 에](https://newrelic.com/instant-observability/argocd-quickstart) 액세스하려면 Argo CD 퀵스타트를 설치하세요. 가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다. @@ -84,8 +80,8 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 * 이 명령을 사용하여 Argo CD Prometheus 엔드포인트가 Argo CD로 구성된 모든 K8s 노드에서 메트릭을 내보내고 있는지 확인합니다. - ``` + ```sh curl :8082/metrics ``` -* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다. +* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx index 33898fe2df1..66a3240eac5 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/calico-integration.mdx @@ -21,11 +21,7 @@ New Relic을 사용하여 k8s 클러스터의 Calico CNI를 이해하는 데 도 * IP 테이블 저장 및 복원 오류 * BPF가 Calico의 데이터 플레인으로 사용되는 경우 BPF 특정 메트릭 -Calico Dashboard +Calico Dashboard ## 통합 활성화 @@ -80,18 +76,18 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 * 데이터 수집 추정(일일 수집, 바이트 단위): ```sql - FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' SINCE - 1 day ago + FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'felix_%' + SINCE 1 day ago ``` ## 문제점 해결 * 이 명령을 사용하여 Calico Prometheus 엔드포인트가 Calico CNI로 구성된 모든 K8s 노드에서 지표를 내보내고 있는지 확인하십시오. - ``` + ```sh curl :9091/metrics ``` * [Calico 문서](https://projectcalico.docs.tigera.io/maintenance/monitor/monitor-component-metrics) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오. -* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. +* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx index 9db23a4d750..ffc5e2d555e 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/cockroach-db-integration.mdx @@ -29,11 +29,7 @@ New Relic을 사용하여 다음을 모니터링합니다. * 높은 열린 파일 설명자 수 * 인증서 만료 -CockroachDB Dashboard Screenshot +CockroachDB Dashboard Screenshot ## 통합 활성화 @@ -52,10 +48,10 @@ New Relic을 사용하여 다음을 모니터링합니다. 3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다. ```sql - SELECT * from Metric where metricName='rocksdb_num_sstables' + SELECT * FROM Metric WHERE metricName = 'rocksdb_num_sstables' ``` -4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 알림 에 액세스하려면 [CockroachDB 퀵스타트를](https://newrelic.com/instant-observability/?search=cockroachdb) 설치하세요. +4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 알림 에 액세스하려면 [CockroachDB 퀵스타트를](https://newrelic.com/instant-observability/?search=cockroachdb) 설치하세요. 대시보드의 일부 차트에는 `cockroachdb` 문자열을 포함하는 `app.kubernetes.io/name` , `app.newrelic.io/name` , `k8s-app` 레이블 중 하나를 사용하여 팟(Pod) 또는 엔드포인트를 식별해야 하는 조건이 있는 쿼리가 포함되어 있습니다. @@ -69,17 +65,17 @@ New Relic을 사용하여 다음을 모니터링합니다. ```yaml - source_labels: [__name__] - separator: ; - regex: timeseries_write_(.*) - target_label: newrelic_metric_type - replacement: counter - action: replace + separator: ; + regex: timeseries_write_(.*) + target_label: newrelic_metric_type + replacement: counter + action: replace - source_labels: [__name__] - separator: ; - regex: sql_byte(.*) - target_label: newrelic_metric_type - replacement: counter - action: replace + separator: ; + regex: sql_byte(.*) + target_label: newrelic_metric_type + replacement: counter + action: replace ``` ## 데이터 찾기 및 사용 @@ -93,33 +89,33 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 다음 NRQL 쿼리를 사용하여 New Relic에서 수집되는 CockroachDB 메트릭을 이해하십시오. - + * 고유한 측정항목 이름 나열: ```sql - FROM Metric SELECT uniques(metricName) WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') LIMIT MAX + FROM Metric SELECT uniques(metricName) + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + LIMIT MAX ``` * 메트릭 업데이트 수 계산: ```sql - FROM Metric SELECT datapointcount() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') FACET metricName + FROM Metric SELECT datapointcount() + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + FACET metricName ``` * 데이터 수집 추정(일일 수집, 바이트 단위): ```sql - FROM Metric SELECT bytecountestimate() WHERE (app_kubernetes_io_name LIKE '%cockroach%' or app_newrelic_com_name LIKE '%cockroach%' or k8s_app LIKE '%cockroach%') SINCE 1 day ago + FROM Metric SELECT bytecountestimate() + WHERE (app_kubernetes_io_name LIKE '%cockroach%' OR app_newrelic_com_name LIKE '%cockroach%' OR k8s_app LIKE '%cockroach%') + SINCE 1 day ago ``` - + 구성 설정에 따라 작업 이름을 조정하십시오. @@ -127,7 +123,7 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 * 고유한 측정항목 이름 나열: ```sql - FROM Metric SELECT uniques(metricName) WHERE job='cockroachdb' LIMIT MAX + FROM Metric SELECT uniques(metricName) WHERE job = 'cockroachdb' LIMIT MAX ``` * 메트릭 업데이트 수 계산: @@ -148,4 +144,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 [CockroachDB 설명서](https://www.cockroachlabs.com/docs/v22.1/monitor-cockroachdb-with-prometheus.html) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오. -Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. +Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx index 82a3e6f9aac..5d9aabc2dbb 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/core-dns-integration.mdx @@ -18,11 +18,7 @@ New Relic을 사용하여 CoreDNS 성능을 시각화하고, 잠재적인 오류 * CoreDNS 오류 * 캐시 통계 -CoreDNS Dashboard +CoreDNS Dashboard ## 통합 활성화 @@ -41,7 +37,7 @@ New Relic을 사용하여 CoreDNS 성능을 시각화하고, 잠재적인 오류 3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다. ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'coredns_%' FACET metricName LIMIT MAX ``` 4. 기본 제공 대시보드 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 에 액세스하려면 [CoreDNS 빠른 시작을](https://newrelic.com/instant-observability/CoreDNS) 설치하십시오. @@ -65,13 +61,13 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 * 고유한 측정항목 이름 나열: ```sql - FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX + FROM Metric SELECT uniques(metricName) WHERE metricName LIKE 'coredns_%' LIMIT MAX ``` * 메트릭 업데이트 수 계산: ```sql - FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX + FROM Metric SELECT datapointcount() WHERE metricName LIKE 'coredns_%' LIMIT MAX ``` * 데이터 수집 추정(일일 수집, 바이트 단위): @@ -84,4 +80,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 [CoreDNS 설명서](https://coredns.io/plugins/kubernetes/) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오. -Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. +Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx index 5086998a8ae..07d455604ba 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/etcd-integration.mdx @@ -18,11 +18,7 @@ New Relic을 사용하여 Etcd 클러스터의 상태를 이해하는 데 도움 * gRPC 통계 * 디스크 쓰기 대기 시간 -Etcd Dashboard +Etcd Dashboard ## 통합 활성화 @@ -41,10 +37,10 @@ New Relic을 사용하여 Etcd 클러스터의 상태를 이해하는 데 도움 3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다. ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'etcd_%' FACET metricName LIMIT MAX ``` -4. 내장된 기능에 액세스하려면 [Etcd 빠른 시작을](https://newrelic.com/instant-observability/etcd) 설치하세요. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 알림 에 액세스하려면 [Etcd 퀵스타트를](https://newrelic.com/instant-observability/etcd) 설치하세요. 가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다. @@ -77,12 +73,12 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 * 데이터 수집 추정(일일 수집, 바이트 단위): ```sql - FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' SINCE - 1 day ago + FROM Metric SELECT bytecountestimate() WHERE metricName LIKE 'etcd_%' + SINCE 1 day ago ``` ## 문제점 해결 [Etcd 설명서](https://etcd.io/docs/v3.5/op-guide/monitoring/) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오. -Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. +Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx index 79bb1714983..18e49bac56d 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/harbor-integration.mdx @@ -17,11 +17,7 @@ New Relic을 사용하여 k8s 클러스터의 Harbour 인프라를 이해하는 * Harbor Project 바이트 할당량 사용률 * 하버 서버 및 클라이언트 오류율 -Harbor Dashboard +Harbor Dashboard ## 통합 활성화 @@ -81,8 +77,8 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 * 이 명령을 사용하여 Harbour Prometheus 엔드포인트가 Harbour로 구성된 모든 K8s 노드에서 지표를 내보내고 있는지 확인하십시오. - ``` + ```sh curl :9090/metrics ``` -* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다. +* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx index 9cdd44db17a..c781908ddeb 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/ingress-controller-integration.mdx @@ -20,11 +20,7 @@ New Relic을 사용하여 NGINX 인그레스 컨트롤러 성능에 대한 가 * 페이로드 크기 및 응답 시간에 대한 요청 및 응답 통찰력 * CPU 및 메모리 통계 -NGINX Ingress Controller Dashboard +NGINX Ingress Controller Dashboard ## 통합 활성화 @@ -43,10 +39,10 @@ New Relic을 사용하여 NGINX 인그레스 컨트롤러 성능에 대한 가 3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다. ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'nginx_%' FACET metricName LIMIT MAX ``` -4. [NGINX 인그레스 컨트롤러 빠른 시작을](https://newrelic.com/instant-observability/nginx-ingress-controller) 설치하여 내장된 기능에 액세스하세요. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. [NGINX Ingress Controller를](https://newrelic.com/instant-observability/nginx-ingress-controller) 설치하여 기본 제공 및 [알림에](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 액세스하세요. 가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다. @@ -86,4 +82,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 [NGINX 인그레스 컨트롤러 설명서](https://kubernetes.github.io/ingress-nginx/user-guide/monitoring/#prometheus-and-grafana-installation-using-pod-annotations) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오. -Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. +Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx index 313eda3da49..c26ee410638 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/node-exporter-integration.mdx @@ -70,6 +70,7 @@ global: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -91,10 +92,7 @@ remote_write: 새 주석 `# Target setup` 아래에서 정적 구성을 설정할 수 있습니다. - + ``(를) 삽입하세요. ```yml lineHighlight=12-16 @@ -103,6 +101,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -111,9 +110,9 @@ remote_write: # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -122,10 +121,7 @@ remote_write: ``` - + ``(를) 삽입하세요. ```yml lineHighlight=12-16 @@ -134,6 +130,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -142,9 +139,9 @@ remote_write: # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -153,10 +150,7 @@ remote_write: ``` - + ``(를) 삽입하세요. ```yml lineHighlight=12-16 @@ -165,6 +159,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -173,9 +168,9 @@ remote_write: # Target setup static_configs: - - targets: ['localhost:9100'] - labels: - instanceid: + - targets: ['localhost:9100'] + labels: + instanceid: remote_write: - url: https://metric-api.newrelic.com/prometheus/v1/write?prometheus_server=NodeExporter @@ -190,10 +185,7 @@ remote_write: 정적, 목표를 구성하는 대신 서비스 검색을 구성할 수 있습니다. - + `# Target setup` 아래에 `region`, `access_key`, `secret_key` 및 `port` 를 제공하여 AWS EC2 인스턴스에 대한 서비스 검색을 설정할 수 있습니다. ```yml lineHighlight=12-22 @@ -202,6 +194,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -227,10 +220,7 @@ remote_write: ``` - + `# Target setup` 아래에 `` 을 삽입해야 합니다. ```yml lineHighlight=12-15 @@ -239,6 +229,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -257,10 +248,7 @@ remote_write: ``` - + `# Target setup` 아래에 `` 을 삽입해야 합니다. ```yml lineHighlight=12-15 @@ -269,6 +257,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -301,10 +290,7 @@ remote_write: 아래 예에서는 동적 검색과 라벨의 조합을 보여줍니다. 정적 타격, 목표를 사용하는 경우 위에 표시된 [정적 타격, 목표를](#static-targets) 삽입하면 됩니다. - + 자세한 내용은 Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#ec2_sd_config) 설명서를 참조하세요. ```yml lineHighlight=23-26 @@ -313,6 +299,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -342,10 +329,7 @@ remote_write: ``` - + 자세한 내용은 Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#azure_sd_config) 설명서를 참조하세요. ```yml lineHighlight=16-19 @@ -354,6 +338,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -376,10 +361,7 @@ remote_write: ``` - + 자세한 내용은 Prometheus [EC2](https://prometheus.io/docs/prometheus/latest/configuration/configuration/#gce_sd_config) 설명서를 참조하세요. ```yml lineHighlight=16-19 @@ -388,6 +370,7 @@ remote_write: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). + # A scrape configuration containing exactly one endpoint to scrape: # Here it's Prometheus itself. scrape_configs: @@ -417,10 +400,10 @@ remote_write: 1. 다음을 실행합니다. - ``` + ```sh ./prometheus --config.file=./prometheus.yml ``` 2. 키보드 명령 `CONTROL + z` 및 `bg` 사용하여 스크레이퍼가 백그라운드에서 실행되도록 설정합니다. 환경에서는 이를 서비스로 설정하려고 합니다(예: `systemd`). -3. **[one.newrelic.com](https://one.newrelic.com/) > Infrastructure > Hosts** 로으로 이동하여 뉴렐릭 UI에서 데이터를 확인하세요. +3. **[one.newrelic.com](https://one.newrelic.com/) &gt; Infrastructure &gt; Hosts** 로으로 이동하여 뉴렐릭 UI에서 데이터를 확인하세요. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx index e8a330abb50..b7a2b66c4f5 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/redis-integration.mdx @@ -20,11 +20,7 @@ New Relic을 사용하면 다음을 모니터링할 수 있습니다. * 연결된 클라이언트, 노드별 연결된 클라이언트, 노드별 마지막 저장 이후 변경 사항, 노드별 만료된 키/초, 노드에서 사용된 메모리 및 차단된 클라이언트를 보여주는 차트 * 노드별 키스페이스 적중률, 노드별 초당 제거된 키, 노드별 초당 입력 바이트, 초당 네트워크 I/O, 노드별 초당 출력 바이트를 보여주는 차트 -Redis Dashboard +Redis Dashboard ## 통합 활성화 @@ -43,10 +39,10 @@ New Relic을 사용하면 다음을 모니터링할 수 있습니다. 3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다. ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'redis_%' FACET metricName LIMIT MAX ``` -4. 내장된 기능에 액세스하려면 [Redis(Prometheus) 빠른 시작을](https://newrelic.com/instant-observability/redis-prometheus) 설치하세요. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. [Redis (Prometheus) 퀵스타트를](https://newrelic.com/instant-observability/redis-prometheus) 설치하여 기본 제공 및 [알림에](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 액세스하세요. 가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다. @@ -90,4 +86,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 [Redis 내보내기 문서](https://github.com/oliver006/redis_exporter) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오. -Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. +Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx index bda9adde8e4..f66f1134589 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/traefik-integration.mdx @@ -13,11 +13,7 @@ translationType: machine New Relic을 사용하면 선별된 대시보드를 쉽게 설치하여 Traefik 인스턴스의 상태를 모니터링할 수 있습니다. -Traefik Dashboard +Traefik Dashboard ## 통합 활성화 @@ -36,7 +32,7 @@ New Relic을 사용하면 선별된 대시보드를 쉽게 설치하여 Traefik 3. 다음 쿼리를 사용하여 메트릭이 예상대로 수집되고 있는지 확인합니다. ```sql - FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX + FROM Metric SELECT count(*) WHERE metricName LIKE 'traefik_%' FACET metricName LIMIT MAX ``` 4. 기본 제공 대시보드 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 에 액세스하려면 [Traefik 빠른 시작을](https://newrelic.com/instant-observability/traefik) 설치하십시오. @@ -83,4 +79,4 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 [Traefik 설명서](https://docs.gitlab.com/ee/user/clusters/agent/troubleshooting.html) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오. -Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. +Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/troubleshooting/no-data-appears-prometheus-integration) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx index 046aadd18da..cdcf798243e 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/integrations-list/velero-integration.mdx @@ -18,11 +18,7 @@ New Relic을 사용하여 k8s 클러스터에 대한 Velero 백업 작업의 성 * 인스턴스별 백업 기간 및 크기 * 인스턴스별 복원 상태 -Velero Dashboard +Velero Dashboard ## 통합 활성화 @@ -44,7 +40,7 @@ New Relic을 사용하여 k8s 클러스터에 대한 Velero 백업 작업의 성 FROM Metric SELECT count(*) WHERE metricName LIKE 'velero_%' FACET metricName LIMIT MAX ``` -4. 내장된 기능에 액세스하려면 [Velero 빠른 시작을](https://newrelic.com/instant-observability/velero-prometheus) 설치하십시오. 및 [경고](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/). +4. [내장된](/docs/alerts-applied-intelligence/new-relic-alerts/learn-alerts/introduction-alerts/) 및 알림 에 액세스하려면 [Velero 퀵스타트를](https://newrelic.com/instant-observability/velero-prometheus) 설치하세요. 가져온 후에는 자산을 편집하거나 복제하여 특정 요구 사항에 맞게 조정할 수 있습니다. @@ -76,10 +72,10 @@ Prometheus 메트릭은 차원 메트릭으로 저장됩니다. [NRQL을 사용 * 이 명령을 사용하여 Velero Prometheus 엔드포인트가 Velero로 구성된 모든 k8s 노드에서 지표를 내보내고 있는지 확인하십시오. - ``` + ```sh curl :8085/metrics ``` * [Velero 설명서](https://velero.io/docs/main/troubleshooting/#velero-is-not-publishing-prometheus-metrics) 의 문제 해결 팁에 따라 메트릭이 클러스터에서 예상대로 구성되었는지 확인하십시오. -* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다. +* Prometheus 통합에 대한 특정 [문제 해결 지침을](/docs/infrastructure/prometheus-integrations/install-configure-prometheus-agent/troubleshooting-guide/) 확인할 수도 있습니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx index 62c57d6c8e7..3a96dde8712 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/compare-rw-data-sent-billed-bytes.mdx @@ -26,35 +26,19 @@ Prometheus 원격 쓰기 데이터는 더 빠르고 무손실 전송을 위해 [ 아래는 Prometheus 읽기-쓰기 데이터가 시스템을 통해 이동할 때 바이트 속도 변화를 시뮬레이션한 것입니다. 이 경우 메트릭은 로컬 노드 내보내기의 로컬 Prometheus 서버의 원격 쓰기 스크랩을 수집하여 생성되었습니다. -Byte rate estimate total comparison +Byte rate estimate total comparison Prometheus가 보낸 바이트 레이트가 데이터 포인트 압축을 풀기 직전에 우리가 기록하는 원격 쓰기 압축 바이트 수와 얼마나 밀접하게 일치하는지 주목하십시오. 원격 쓰기 압축 바이트 속도의 증가된 변동은 분산 시스템을 통해 데이터를 처리하는 특성에 기인할 수 있습니다. -Sent vs. compressed bytes comparison +Sent vs. compressed bytes comparison 데이터 포인트가 압축 해제됨에 따라 데이터 압축 해제 직전과 직후에 측정한 원격 쓰기 압축 데이터 바이트 비율과 원격 쓰기 비압축 바이트 비율 간의 차이에 5-10x 확장 계수가 반영됩니다. -Uncompressed vs. compressed bytes comparison +Uncompressed vs. compressed bytes comparison 마지막으로 데이터가 변환되고 보강이 수행됨에 따라 압축되지 않은 원격 쓰기 바이트와 [`bytecountestimate()`](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/usage-queries-alerts/#byte-count-estimate) 간의 차이는 아래에서 확인할 수 있습니다. 나열된 `bytecountestimate()` 은 저장되기 전 데이터의 최종 상태에 대한 바이트 수를 측정한 것입니다. -Bytecountestimate() vs. uncompressed bytes comparison +Bytecountestimate() vs. uncompressed bytes comparison Prometheus 읽기-쓰기 데이터가 통과할 수 있는 데이터 변환/추가를 더 잘 이해할 수 있도록 Prometheus 서버에서 보고한 측정값인 `prometheus_remote_storage_bytes_total` 측정항목을 비교합니다. @@ -74,26 +58,25 @@ Prometheus 서버 표현: NRQL 쿼리 표현 -``` -"endTimestamp": 1631305327668, -"instance:" "localhost:9090", -"instrumentation.name": "remote-write" -"instrumentation.provider": "prometheus", -"instrumentation.source": "foobarbaz", -"instrumentation.version": "0.0.2", -"job": "prometheus", -"metricName": "prometheus_remote_storage_bytes_total", -"newrelic.source": "prometheusAPI", -"prometheus_remote_storage_bytes_total", -"newrelic.source": "prometheusAPI", -"prometheus_remote_storage_bytes_total": { - "type": "count", - "count": 23051 -}, -"prometheus_server": "foobarbaz", -"remote_name": "5dfb33", -"timestamp": 1631305312668, -"url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz" +```json +{ + "endTimestamp": 1631305327668, + "instance": "localhost:9090", + "instrumentation.name": "remote-write", + "instrumentation.provider": "prometheus", + "instrumentation.source": "foobarbaz", + "instrumentation.version": "0.0.2", + "job": "prometheus", + "metricName": "prometheus_remote_storage_bytes_total", + "newrelic.source": "prometheusAPI", + "prometheus_remote_storage_bytes_total": { + "type": "count", + "count": 23051 + }, + "prometheus_server": "foobarbaz", + "remote_name": "5dfb33", + "timestamp": 1631305312668, + "url": "https://staging-metric-api.newrelic.com/prometheus/v1/write?prometheus_server=foobarbaz" } ``` @@ -107,14 +90,16 @@ NRQL 쿼리 표현 New Relic에 저장된 예상 바이트 수를 보려면: -``` -FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO +```sql +FROM Metric SELECT rate(bytecountestimate(), 1 minute) AS 'bytecountestimate()' +WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO ``` New Relic으로 전송된 Prometheus 바이트를 모니터링하려면: ``` -FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO +FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) AS 'Prometheus sent bytes rate' +WHERE prometheus_server = INSERT_PROMETHEUS_SERVER_NAME SINCE 1 hour ago TIMESERIES AUTO ``` ## 외부 참조 [#references] @@ -122,4 +107,5 @@ FROM Metric SELECT rate(sum(prometheus_remote_storage_bytes_total), 1 minute) A 다음은 압축 및 인코딩을 명확히 하는 Prometheus 및 GitHub 문서에 대한 몇 가지 외부 링크입니다. * [인코딩에 사용되는 Snappy Compression을 참조하는 Prometheus](https://prometheus.io/docs/prometheus/latest/storage/#overview) : 읽기 및 쓰기 프로토콜은 모두 HTTP를 통한 빠른 압축 프로토콜 버퍼 인코딩을 사용합니다. 프로토콜은 아직 안정적인 API로 간주되지 않으며 앞으로 Prometheus와 원격 저장소 간의 모든 홉이 HTTP/2를 지원하는 것으로 안전하게 가정할 수 있게 되면 HTTP/2를 통한 gRPC를 사용하도록 변경될 수 있습니다. -* [프로메테우스 프로토부프 참조](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64) . + +* [프로메테우스 프로토부프 참조](https://github.com/prometheus/prometheus/blob/main/prompb/types.proto#L58-L64) . \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx index 8a1b189b42c..9b51f811e04 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/get-logs-prometheus-integration.mdx @@ -16,32 +16,20 @@ Docker 또는 Kubernetes용 New Relic과 Prometheus OpenMetrics 통합에 대한 ## 해결책 -Docker icon +Docker icon - - **Docker** - +**Docker** -``` +```sh docker logs nri-prometheus docker logs nri-prometheus 2>&1 | grep -v "level=debug" ``` -img-integration-k8s@2x.png +img-integration-k8s@2x.png - - **Kubernetes** - +**Kubernetes** -``` +```sh kubectl logs deploy/nri-prometheus kubectl logs deploy/nri-prometheus | grep -v "level=debug" -``` +``` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx index dd627af804f..6ce99e489ba 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/rate-limit-errors-prometheus-integration.mdx @@ -20,7 +20,7 @@ Docker 또는 Kubernetes용 Prometheus OpenMetrics 통합이 허용되는 메트 1. 다음과 같이 [`NrIntegrationError` 이벤트](/docs/telemetry-data-platform/manage-data/nrintegrationerror) 를 사용하여 Prometheus 측정항목 쿼리를 실행합니다. - ``` + ```sql FROM NrIntegrationError SELECT * WHERE newRelicFeature = 'Metrics' ``` @@ -32,4 +32,4 @@ Docker 또는 Kubernetes용 Prometheus OpenMetrics 통합이 허용되는 메트 New Relic은 제출될 때 Prometheus OpenMetrics 통합 메트릭의 기본 유효성 검사를 수행합니다. 메트릭을 처리할 때 더 광범위한 유효성 검사가 비동기적으로 수행됩니다. -New Relic이 이 비동기식 검증 중에 오류를 발견하면 오류는 New Relic 계정의 `NrIntegrationError` 이벤트에 기록됩니다. 예를 들어, Prometheus OpenMetrics 통합에 대해 정의된 측정항목 제한을 초과하는 경우 New Relic은 계정에 비율 제한을 적용하고 연결된 `NrIntegrationError` 이벤트를 생성합니다. +New Relic이 이 비동기식 검증 중에 오류를 발견하면 오류는 New Relic 계정의 `NrIntegrationError` 이벤트에 기록됩니다. 예를 들어, Prometheus OpenMetrics 통합에 대해 정의된 측정항목 제한을 초과하는 경우 New Relic은 계정에 비율 제한을 적용하고 연결된 `NrIntegrationError` 이벤트를 생성합니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx index 8ad44419a41..283889ba1fe 100644 --- a/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx +++ b/src/i18n/content/kr/docs/infrastructure/prometheus-integrations/troubleshooting/restarts-gaps-data-kubernetes.mdx @@ -27,6 +27,6 @@ Kubernetes용 Prometheus OpenMetrics 통합을 실행할 때 다시 시작하고 스크레이퍼의 상태 및 재시작 이벤트를 확인하려면: -``` +```sh kubectl describe pod -l "app=nri-prometheus" -``` +``` \ No newline at end of file diff --git a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx index 1b1e89c80b3..ff287e953aa 100644 --- a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx +++ b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/get-started/introduction-kubernetes-integration.mdx @@ -37,7 +37,7 @@ Kubernetes를 관리하는 것은 어려울 수 있습니다. 몇 분 만에 컨 * [Prometheus 에이전트](/docs/infrastructure/prometheus-integrations/get-started/send-prometheus-metric-data-new-relic/#Agent) 가 제공하는 서비스 검색 덕분에 클러스터의 모든 워크로드에서 Prometheus 메트릭을 스크랩합니다. -* 통합에는 [미리 정의된 공지 정책 세트가](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy) 포함되어 있지만,[ Kubernetes ](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts)Kubernetes 데이터를 기반으로 공지 정책을 만들고 수정 [하거나 권장 공지 정책 세트를 추가할](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies) 수 있습니다. +* 통합에는 [미리 정의된 공지 정책 세트가](/docs/kubernetes-pixie/kubernetes-integration/installation/predefined-alert-policy) 포함되어 있지만,[ Kubernetes ](/docs/kubernetes-pixie/kubernetes-integration/installation/create-alerts)Kubernetes 데이터를 기반으로 알림을 만들고 수정하거나 [권장되는 공지 정책 세트를 추가할](/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies) 수 있습니다. * 모든 Kubernetes 이벤트를 확인하세요. [Kubernetes 이벤트 통합은](/docs/integrations/kubernetes-integration/kubernetes-events/install-kubernetes-events-integration) 쿠버네티스 클러스터에서 발생하는 이벤트를 감시하고 해당 이벤트를 뉴렐릭으로 보냅니다. 그런 다음 클러스터 탐색기에서 이벤트 데이터를 시각화할 수 있습니다. [뉴렐릭 Kubernetes 통합 설치](/docs/kubernetes-pixie/kubernetes-integration/installation/kubernetes-integration-install-configure/) 후 기본으로 설치됩니다. diff --git a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx index 638db91af35..8eafb31f52e 100644 --- a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx +++ b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/k8s-agent-operator.mdx @@ -61,8 +61,8 @@ Helm 사용에 대한 자세한 내용은 [Kubernetes 통합 설치](/install/ku helm repo add newrelic https://helm-charts.newrelic.com helm upgrade --install newrelic-bundle newrelic/nri-bundle \ - --set global.licenseKey= \ - --set global.cluster= \ + --set global.licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY \ + --set global.cluster=CLUSTER_NAME \ --namespace=newrelic \ --set newrelic-infrastructure.privileged=true \ --set global.lowDataMode=true \ @@ -81,7 +81,7 @@ helm repo add newrelic-k8s https://newrelic.github.io/k8s-agents-operator helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \ --namespace newrelic \ --create-namespace \ - --set licenseKey= + --set licenseKey=YOUR_NEW_RELIC_INGEST_LICENSE_KEY ``` 설정 옵션의 전체 목록을 보려면 [README](https://github.com/newrelic/k8s-agents-operator/tree/main/charts/k8s-agents-operator#values) 차트를 참조하세요. @@ -93,17 +93,17 @@ helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \ 1. 연산자가 리소스를 사용하도록 하려는 각 컨테이너 공간에 대해 유효한 [뉴렐릭 수집 볼륨 키가](/docs/apis/intro-apis/new-relic-api-keys/#license-key) 포함된 비밀을 생성하세요. ```shell - kubectl create secret generic newrelic-key-secret \ - --namespace \ - --from-literal=new_relic_license_key= + kubectl create secret generic newrelic-key-secret \ + --namespace NAMESPACE_TO_MONITOR \ + --from-literal=new_relic_license_key=YOUR_NEW_RELIC_INGEST_LICENSE_KEY ``` - `` 유효한 뉴렐릭 클러스터 키로 바꾸세요. + `YOUR_NEW_RELIC_INGEST_LICENSE_KEY` 유효한 뉴렐릭 클러스터 키로 바꾸세요. 2. 자동으로 계측하려는 각 네임스페이스에 다음의 사용자 지정 리소스 정의(CRD)를 적용합니다. 다음 명령을 실행하세요: ```shell - kubectl apply -f -n + kubectl apply -f YOUR_YAML_FILE -n NAMESPACE_TO_MONITOR ``` CRD YAML 파일 내에서 축소하려는 APM 에이전트를 지정합니다. 사용 가능한 모든 APM 에이전트 docker 이미지와 해당 태그는 DockerHub에 나열되어 있습니다. @@ -115,35 +115,35 @@ helm upgrade --install k8s-agents-operator newrelic-k8s/k8s-agents-operator \ * [루비](https://hub.docker.com/repository/docker/newrelic/newrelic-ruby-init/general) ```yaml - apiVersion: newrelic.com/v1alpha1 - kind: Instrumentation - metadata: - labels: - app.kubernetes.io/name: instrumentation - app.kubernetes.io/created-by: k8s-agents-operator - name: newrelic-instrumentation - spec: - java: - image: newrelic/newrelic-java-init:latest - # env: - # Example New Relic agent supported environment variables - # - name: NEW_RELIC_LABELS - # value: "environment:auto-injection" - # Example overriding the appName configuration - # - name: NEW_RELIC_POD_NAME - # valueFrom: - # fieldRef: - # fieldPath: metadata.name - # - name: NEW_RELIC_APP_NAME - # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)" - nodejs: - image: newrelic/newrelic-node-init:latest - python: - image: newrelic/newrelic-python-init:latest - dotnet: - image: newrelic/newrelic-dotnet-init:latest - ruby: - image: newrelic/newrelic-ruby-init:latest + apiVersion: newrelic.com/v1alpha1 + kind: Instrumentation + metadata: + labels: + app.kubernetes.io/name: instrumentation + app.kubernetes.io/created-by: k8s-agents-operator + name: newrelic-instrumentation + spec: + java: + image: newrelic/newrelic-java-init:latest + # env: + # Example New Relic agent supported environment variables + # - name: NEW_RELIC_LABELS + # value: "environment:auto-injection" + # Example overriding the appName configuration + # - name: NEW_RELIC_POD_NAME + # valueFrom: + # fieldRef: + # fieldPath: metadata.name + # - name: NEW_RELIC_APP_NAME + # value: "$(NEW_RELIC_LABELS)-$(NEW_RELIC_POD_NAME)" + nodejs: + image: newrelic/newrelic-node-init:latest + python: + image: newrelic/newrelic-python-init:latest + dotnet: + image: newrelic/newrelic-dotnet-init:latest + ruby: + image: newrelic/newrelic-ruby-init:latest ``` ## 애플리케이션에서 자동 APM 계측 활성화 [#enable-apm-instrumentation] @@ -163,30 +163,30 @@ instrumentation.newrelic.com/inject-ruby: "true" 부하 에이전트에 대한 주석이 포함된 배포 예시를 참조하세요. ```yaml - apiVersion: apps/v1 - kind: Deployment +apiVersion: apps/v1 +kind: Deployment +metadata: + name: spring-petclinic +spec: + selector: + matchLabels: + app: spring-petclinic + replicas: 1 + template: metadata: - name: spring-petclinic + labels: + app: spring-petclinic + annotations: + instrumentation.newrelic.com/inject-java: "true" spec: -   selector: -     matchLabels: -       app: spring-petclinic -   replicas: 1 -   template: -     metadata: -       labels: -         app: spring-petclinic -       annotations: -         instrumentation.newrelic.com/inject-java: "true" -     spec: -       containers: -         - name: spring-petclinic -           image: ghcr.io/pavolloffay/spring-petclinic:latest -           ports: -             - containerPort: 8080 -           env: -           - name: NEW_RELIC_APP_NAME -             value: spring-petclinic-demo + containers: + - name: spring-petclinic + image: ghcr.io/pavolloffay/spring-petclinic:latest + ports: + - containerPort: 8080 + env: + - name: NEW_RELIC_APP_NAME + value: spring-petclinic-demo ``` 이 예제 파일은 환경 변수를 사용하여 에이전트 설정을 전역적으로 구성하는 방법을 보여줍니다. 사용 가능한 모든 설정 옵션은 각 에이전트의 설정 문서를 참조하세요. @@ -216,7 +216,7 @@ instrumentation.newrelic.com/inject-ruby: "true" 다음과 같은 방법으로 nri-bundle 차트의 업그레이드를 실행하십시오: ```shell - k8s-agents-operator.enabled=true +k8s-agents-operator.enabled=true ``` ### 독립형 설치 @@ -224,7 +224,7 @@ instrumentation.newrelic.com/inject-ruby: "true" `helm upgrade` 명령어를 실행하여 최신 버전의 Kubernetes 에이전트 연산자로 업데이트하세요. ```shell - helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic +helm upgrade k8s-agents-operator newrelic/k8s-agents-operator -n newrelic ``` ## Kubernetes 에이전트 오퍼레이터 제거 [#uninstall-k8s-operator] @@ -234,7 +234,7 @@ instrumentation.newrelic.com/inject-ruby: "true" nri-번들 차트를 제거하거나 연산자만 제거하려는 경우 다음 매개변수를 사용하여 helm 업그레이드를 실행하십시오. ```shell - k8s-agents-operator.enabled=false +k8s-agents-operator.enabled=false ``` ### 독립형 설치 @@ -242,7 +242,7 @@ nri-번들 차트를 제거하거나 연산자만 제거하려는 경우 다음 Kubernetes 에이전트 연산자를 제거하고 삭제하려면 다음 명령을 실행하세요. ```shell - helm uninstall k8s-agents-operator -n newrelic +helm uninstall k8s-agents-operator -n newrelic ``` ## 데이터 찾기 및 사용 [#find-data] @@ -300,26 +300,26 @@ Kubernetes 에이전트 연산자를 제거하고 삭제하려면 다음 명령 * 비밀과 계측 CRD가 앱의 네임스페이스에 설치되어 있는지 확인하세요. ```shell - kubectl get secrets -n - kubectl get instrumentation -n + kubectl get secrets -n NAMESPACE + kubectl get instrumentation -n NAMESPACE ``` * 파드에 자동 로그를 활성화하는 주석이 있는지 확인하세요. ```shell - kubectl get pod -n -o jsonpath='{.metadata.annotations}' + kubectl get pod POD_NAME -n NAMESPACE -o jsonpath='{.metadata.annotations}' ``` * 에이전트 운영자 Padd로부터 로그를 받으세요. ```shell - kubectl logs -n newrelic + kubectl logs AGENT_OPERATOR_POD -n newrelic ``` * `init` 컨테이너가 삽입되어 있고 제작의 파드 내부에 성공적으로 실행되었는지 확인하세요. ```shell - kubectl describe pod -n + kubectl describe pod POD_NAME -n NAMESPACE ``` ## 지원하다 [#support] diff --git a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx index 5ea19a224b4..1ffdfcfd775 100644 --- a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx +++ b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/installation/recommended-alert-policies.mdx @@ -1,5 +1,5 @@ --- -title: 추천 공지사항 +title: 추천 공지 및 대시보드 tags: - Integrations - Kubernetes integration @@ -8,23 +8,43 @@ freshnessValidatedDate: '2024-09-02T00:00:00.000Z' translationType: machine --- -[Kubernetes 통합을 처음 설치](/install/kubernetes/) 하면 귀하의 쿠버네티스 클러스터에 공지 조건의 기초를 형성하는 권장 공지 조건의 기본 세트가 귀하의 계정에 구현되고 배포됩니다. 이러한 조건은 **Kubernetes alert policy** 이라는 정책으로 그룹화됩니다. +[Kubernetes 통합을 처음 설치](/install/kubernetes/) 하면 쿠버네티스 클러스터에서 공지 조건 및 대시보드의 기반을 형성하는 권장 공지 조건 및 대시보드의 기본 세트를 계정에 구현하고 배포합니다. 주의사항은 [Kubernetes alert policy](#k8s-alert-conditions) 및 [Google Kubernetes Engine alert policy](#google-alert-policies) 의 몇 가지 정책으로 그룹화됩니다. -모든 환경에서 가장 일반적인 사용 사례를 다루려고 노력했지만 기본 정책을 확장하여 설정할 수 있는 추가 알림도 많이 있습니다. 권장하는 알림 정책은 다음과 같습니다. +모든 환경에서 가장 일반적인 사용 사례를 다루려고 노력했지만 기본 정책을 확장하여 설정할 수 있는 추가 알림도 많이 있습니다. 알림에 대해 자세히 알아보려면 [뉴렐릭 알림 시작하기를](/docs/tutorial-create-alerts/create-new-relic-alerts/) 참조하세요. -## 추천 공지 추가 [#add-recommended-alert-policy] +## 권장 공지 조건 및 대시보드 추가 [#add-recommended-alert-policy] -추천 공지를 추가하려면 다음 단계를 따르세요. +추천 공지 및 대시보드를 추가하려면 다음 단계를 따르세요. 1. **[one.newrelic.com](https://one.newrelic.com) &gt; Integrations &amp; Agents** 으)로 이동합니다. -2. **Alerts** 선택하여 사전 구축된 리소스에 액세스하세요. +2. 검색 상자에 `kubernetes`입력합니다. - Add Kubernetes alerts + Integrations & Agents -3. **Kubernetes** 검색하여 추가하고 싶은 추천 공지 정책을 선택하세요. +3. 다음 옵션 중 하나를 선택하세요. - Add Kubernetes alerts + * **Kubernetes**: 권장되는 공지 조건과 대시보드의 기본 세트를 추가합니다. + + * **Google Kubernetes Engine**: 권장되는 Google Kubernetes 엔진 공지 조건 및 대시보드의 기본 세트를 추가합니다. + +4. Kubernetes 통합을 설치해야 하는 경우 **Begin installation** 클릭하고, 이미 통합을 설정한 경우 **Skip this step** 클릭하세요. + +5. 3단계에서 선택한 옵션에 따라 추가할 수 있는 리소스가 달라집니다. + +Add the default set of recommended alert conditions + +
+ 3단계에서 **Kubernetes** 선택하면 권장되는 공지 조건과 대시보드의 기본 집합입니다. +
+ +Add the default set of recommended Google Kubernetes engine alert conditions + +
+ 3단계에서 **Google Kubernetes Engine** 을 선택하면 권장되는 Google Kubernetes 엔진 공지 조건 및 대시보드의 기본 집합입니다. +
+ +6. **See your data** 을 클릭하면 Kubernetes 데이터가 포함된 대시보드가 뉴렐릭으로 표시됩니다. ## 추천 공지 보는 방법 [#see-recommended-alert-policy] @@ -38,90 +58,112 @@ translationType: machine Add Kubernetes alerts +## Kubernetes 대시보드를 보는 방법 [#see-dashboards] + +일반적인 사용 사례에 대한 Kubernetes 데이터를 즉시 시각화하는 데 도움이 되는 권장 사전 구축 대시보드 모음이 있습니다. 이러한 대시보드를 보는 방법을 알아보려면 [추천 대시보드 관리를](/docs/query-your-data/explore-query-data/dashboards/prebuilt-dashboards) 참조하세요. + ## Kubernetes 공지 위치 [#k8s-alert-conditions] 이것은 권장되는 공지 사항의 기본 세트입니다. 추가할 사항은 다음과 같습니다. - + + 이 대시보드에는 일반적인 사용 사례에 대한 Kubernetes 데이터를 즉시 시각화하는 데 도움이 되는 차트와 시각화가 포함되어 있습니다. + + + 이 공지 조건은 컨테이너가 5분 이상 25% 이상 제한될 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sContainerSample SELECT sum(containerCpuCfsThrottledPeriodsDelta) / sum(containerCpuCfsPeriodsDelta) * 100 - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerCPUThrottling.yaml) 참조하세요. - + 이 공지 조건은 제한에 대한 평균 컨테이너 CPU 사용량이 5분 이상 90%를 초과하는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sContainerSample SELECT average(cpuCoresUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighCPUUtil.yaml) 참조하세요. - + 이 공지 조건은 제한에 대한 평균 컨테이너 메모리 사용량이 5분 이상 90%를 초과하는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sContainerSample SELECT average(memoryWorkingSetUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerHighMemUtil.yaml) 참조하세요. - + 이 공지 조건은 다시 시작이 5분 슬라이딩 창에서 0을 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sContainerSample SELECT sum(restartCountDelta) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet containerName, podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerRestarting.yaml) 참조하세요. - + 이 공지 조건은 컨테이너가 5분 이상 기다릴 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sContainerSample SELECT uniqueCount(podName) - WHERE status = 'Waiting' and clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') FACET containerName, podName, namespaceName, clusterName + WHERE status = 'Waiting' AND clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET containerName, podName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/ContainerWaiting.yaml) 참조하세요. - + 이 공지 조건은 데몬셋에 5분 이상 파일이 없는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sDaemonsetSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET daemonsetName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DaemonsetPodsMissing.yaml) 참조하세요. - + 이 공지 조건은 배포에 5분 이상의 기간 동안 파드가 누락된 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sDeploymentSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet deploymentName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET deploymentName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/DeploymentPodsMissing.yaml) 참조하세요. @@ -131,7 +173,7 @@ translationType: machine id="etcd-utilization-high" title={<> Etcd - 파일 기술자 활용도가 높습니다 + 파일 설명자 활용도가 높습니다 (공지 조건) } > 이 공지 조건은 `Etcd` 파일 설명자 사용량이 5분 이상 90%를 초과할 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. @@ -139,7 +181,8 @@ translationType: machine ```sql FROM K8sEtcdSample SELECT max(processFdsUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET displayName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdFileDescriptors.yaml) 참조하세요. @@ -149,7 +192,7 @@ translationType: machine id="etcd-no-leader" title={<> Etcd - 리더가 없다 + 리더가 없다 (공지조건) } > 이 공지 조건은 `Etcd` 파일 설명자가 1분 이상 리더가 없는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. @@ -157,37 +200,42 @@ translationType: machine ```sql FROM K8sEtcdSample SELECT min(etcdServerHasLeader) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet displayName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET displayName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/EtcdHasNoLeader.yaml) 참조하세요. - + 이 공지 조건은 수평 파드 자동 확장기의 현재 복제본이 원하는 복제본보다 5분 이상 낮은 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sHpaSample SELECT latest(desiredReplicas - currentReplicas) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET displayName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMissingReplicas.yaml) 참조하세요. - + 이 공지 조건은 수평 파드 자동 스케일러가 5개의 복제본을 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sHpaSample SELECT latest(maxReplicas - currentReplicas) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet displayName, namespaceName, clusterName + WHERE clusterName in ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET displayName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/HPAMaxReplicas.yaml) 참조하세요. - + 이 공지 조건은 작업이 실패 상태를 보고할 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql @@ -199,121 +247,144 @@ translationType: machine 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/JobFailed.yaml) 참조하세요. - + 이 공지 조건은 지우스페이스 내 5개 이상의 패드가 5분 이상 실패할 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sPodSample SELECT uniqueCount(podName) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') and status = 'Failed' facet namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + AND status = 'Failed' + FACET namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodsFailingNamespace.yaml) 참조하세요. - + 이 공지 조건은 평균 노드 할당 CPU 사용률이 5분 이상 90%를 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sNodeSample SELECT average(allocatableCpuCoresUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableCPUUtil.yaml) 참조하세요. - + 이 공지 조건은 평균 노드 할당 가능 메모리 사용률이 5분 이상 90%를 초과하는 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sNodeSample SELECT average(allocatableMemoryUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighAllocatableMemUtil.yaml) 참조하세요. - + 이 공지 조건은 노드를 5분간 사용할 수 없을 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sNodeSample SELECT latest(condition.Ready) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeIsNotReady.yaml) 참조하세요. - + 이 공지 조건은 노드가 예정되지 않은 것으로 표시되면 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sNodeSample SELECT latest(unschedulable) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeUnschedulable.yaml) 참조하세요. - + 이 공지 조건은 노드의 실행 중인 패드가 노드 패드 용량의 90%를 5분 이상 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sPodSample, K8sNodeSample - SELECT ceil(filter(uniqueCount(podName) - WHERE status = 'Running') / latest(capacityPods) * 100) as 'Pod Capacity %' where nodeName != '' and nodeName is not null and clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + SELECT ceil + (filter + ( + uniqueCount(podName), + WHERE status = 'Running' + ) / latest(capacityPods) * 100 + ) AS 'Pod Capacity %' + WHERE nodeName != '' AND nodeName IS NOT NULL + AND clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodePodCapacity.yaml) 참조하세요. - + 이 공지 조건은 평균 노드 루트 파일 시스템 용량 사용률이 5분 이상 90%를 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sNodeSample SELECT average(fsCapacityUtilization) - WHERE clusterName in ('YOUR_CLUSTER_NAME') facet nodeName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + FACET nodeName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/NodeHighFSCapacityUtil.yaml) 참조하세요. - + 이 공지 조건은 지속형 볼륨이 5분 이상 실패 또는 보류 상태일 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sPersistentVolumeSample SELECT uniqueCount(volumeName) - WHERE statusPhase in ('Failed','Pending') and clusterName in ('YOUR_CLUSTER_NAME') facet volumeName, clusterName + WHERE statusPhase IN ('Failed','Pending') + AND clusterName IN ('YOUR_CLUSTER_NAME') + FACET volumeName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PersistentVolumeErrors.yaml) 참조하세요. - + 이 공지 조건은 5분 이상 파드를 예약할 수 없을 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sPodSample SELECT latest(isScheduled) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET podName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotScheduled.yaml) 참조하세요. - + 이 공지 조건은 파드를 5분 이상 사용할 수 없을 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql FROM K8sPodSample SELECT latest(isReady) - WHERE status not in ('Failed', 'Succeeded') where clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet podName, namespaceName, clusterName + WHERE status NOT IN ('Failed', 'Succeeded') + AND clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET podName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/PodNotReady.yaml) 참조하세요. @@ -323,7 +394,7 @@ translationType: machine id="statefulset-missing-pods" title={<> statefulset - 파드가 없습니다 + is 누락됨 Padd (공지 조건) } > 이 공지 조건은 `statefulset` 에 5분 이상 파드가 누락된 경우 공지를 생성합니다. 다음 쿼리를 실행합니다. @@ -331,7 +402,9 @@ translationType: machine ```sql FROM K8sStatefulsetSample SELECT latest(podsMissing) - WHERE clusterName in ('YOUR_CLUSTER_NAME') and namespaceName in ('YOUR_NAMESPACE_NAME') facet daemonsetName, namespaceName, clusterName + WHERE clusterName IN ('YOUR_CLUSTER_NAME') + AND namespaceName IN ('YOUR_NAMESPACE_NAME') + FACET daemonsetName, namespaceName, clusterName ``` 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/kubernetes/StatefulsetPodsMissing.yaml) 참조하세요. @@ -343,7 +416,11 @@ translationType: machine 이는 권장되는 Google Kubernetes 엔진 공지 사항의 기본 세트입니다. 다음을 추가합니다. - + + 이 대시보드에는 일반적인 사용 사례에 대한 Google Kubernetes 데이터를 즉시 시각화하는 데 도움이 되는 차트와 시각화가 포함되어 있습니다. + + + 이 공지 조건은 노드의 CPU 사용률이 최소 15분 동안 90%를 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql @@ -355,7 +432,7 @@ translationType: machine 자세한 내용은 [GitHub 설정 파일을](https://github.com/newrelic/newrelic-quickstarts/blob/main/alert-policies/google-kubernetes-engine/HighCPU.yml) 참조하세요. - + 이 공지 조건은 노드의 메모리 사용량이 전체 용량의 85%를 초과할 때 공지를 생성합니다. 다음 쿼리를 실행합니다. ```sql diff --git a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx index 3940bff7c6f..fecabddf396 100644 --- a/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx +++ b/src/i18n/content/kr/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/find-use-your-kubernetes-data.mdx @@ -315,6 +315,10 @@ translationType: machine + + `InternalK8sCompositeSample` 뉴렐릭이 생성하는 이벤트이며 [쿠버네티스 클러스터 Explorer](/docs/kubernetes-pixie/kubernetes-integration/understand-use-data/kubernetes-cluster-explorer/#cluster-explorer-use) 에게는 매우 중요합니다. 이 이벤트가 없으면 UI에서 Kubernetes 데이터를 볼 수 없습니다. 표에 나열된 모든 이벤트는 청구 가능하지만 `InternalK8sCompositeSample` 은 청구 불가능한 이벤트입니다. 자세한 내용은 [데이터 수집: 청구 및 규칙을](/docs/accounts/accounts-billing/new-relic-one-pricing-billing/data-ingest-billing/) 참조하세요. + + ### APM 모니터링 애플리케이션의 Kubernetes 메타데이터 [#apm-custom-attributes] [Kubernetes에 연결하면](/docs/kubernetes-pixie/kubernetes-integration/advanced-configuration/link-apm-applications-kubernetes/) 다음과 같은 속성이 귀하의 특수 데이터는 물론이고 내보내고 싶은 데이터에 추가됩니다. diff --git a/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx b/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx index 0bf920aeda0..41e23694f50 100644 --- a/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx +++ b/src/i18n/content/kr/docs/new-relic-solutions/get-started/networks.mdx @@ -21,7 +21,7 @@ API 클라이언트 또는 에이전트가 뉴렐릭과 통신하는 데 사용 ## TLS 암호화 [#tls] -고객의 데이터 보안을 보장하고 [FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) 및 기타 [데이터 암호화](/docs/security/new-relic-security/compliance/data-encryption) 표준을 준수하려면 모든 도메인에 대한 모든 인바운드 연결에 전송 계층 보안(TLS) 1.2 이상이 필요합니다. 보다 자세한 내용은 [TLS 1.2에 대한 지원 포럼 게시물](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023)을 참조하십시오. +고객의 데이터 보안을 보장하고 [FedRAMP](https://marketplace.fedramp.gov/#/product/new-relic?sort=productName&productNameSearch=new%20relic) 및 기타 [데이터 암호화](/docs/security/new-relic-security/compliance/data-encryption) 표준을 준수하기 위해 모든 도메인에 대한 모든 인바운드 연결에는 TLS(전송 계층 보안) 1.2가 필요합니다. 자세한 내용은 [TLS 1.2에 대한 지원 포럼 게시물을](https://forum.newrelic.com/s/hubtopic/aAX8W0000008dM6WAI/tls-1011-has-been-disabled-for-all-inbound-connections-on-feb-2nd-2023) 참조하세요. 요구 및 지원되는 프로토콜 버전에 대한 향후 업데이트는 [뉴렐릭의 지원 포럼에서`Security Notifications` 태그를](https://discuss.newrelic.com/t/security-notifications/45862) 따르십시오. diff --git a/src/i18n/content/kr/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx b/src/i18n/content/kr/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx index 3a9022dcdeb..a71481fd173 100644 --- a/src/i18n/content/kr/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx +++ b/src/i18n/content/kr/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources.mdx @@ -27,7 +27,7 @@ OpenTelemetry 사용 시 지원되는 뉴웰릭 엔터티 유형에 대해 설 서비스 엔터티는 OpenTelemetry [서비스](https://opentelemetry.io/docs/specs/semconv/resource/#service) 를 설명하는 자원 의미론적 규칙을 준수하여 합성됩니다. -OpenTelemetry를 사용하여 서비스 엔터티를 모니터링하려면 [설명서와 예제를](/docs/opentelemetry/get-started/opentelemetry-set-up-your-app) 참조하세요. +OpenTelemetry를 사용하여 서비스 엔터티를 모니터링하는 방법에 대한 [설명서와 예시를](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) 참조하세요. #### 필수 속성 [#service-required-attributes] diff --git a/src/i18n/content/kr/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx b/src/i18n/content/kr/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx index 7266dc4fde6..4454e212d2b 100644 --- a/src/i18n/content/kr/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx +++ b/src/i18n/content/kr/docs/opentelemetry/get-started/collector-infra-monitoring/opentelemetry-collector-infra-intro.mdx @@ -28,4 +28,8 @@ translationType: machine ## OpenTelemetry APM과 인프라 상호 연결 [#infrastructure-correlation] -다음 예에서는 수집기를 사용하여 [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) 와 Insight 데이터를 연관시키는 방법을 보여줍니다. 일반적인 패턴은 OTLP를 통해 데이터를 뉴럴릭으로 내보내기 전에 리소스 속성 형태의 추가 환경 컨텍스트로 APM 텔레메트리를 감지하고 강화하는 프로세서로 수집기를 구성하는 것입니다. 뉴렐릭은 이 상관 데이터를 감지하고 리소스를 APM 통해 과 관측 엔터티 [간의](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources) 관계를 구성합니다. \ No newline at end of file +다음 예에서는 수집기를 사용하여 [APM OpenTelemetry](/docs/opentelemetry/get-started/apm-monitoring/opentelemetry-apm-intro) 와 Insight 데이터를 연관시키는 방법을 보여줍니다. + +* [호스트 리포지터리 예시](https://github.com/newrelic/newrelic-opentelemetry-examples/tree/main/other-examples/collector/host-monitoring) + +일반적인 패턴은 OTLP를 통해 데이터를 뉴럴릭으로 내보내기 전에 리소스 속성 형태의 추가 환경 컨텍스트로 APM 텔레메트리를 감지하고 강화하는 프로세서로 수집기를 구성하는 것입니다. 뉴렐릭은 이 상관 데이터를 감지하고 리소스를 APM 통해 과 관측 엔터티 [간의](/docs/opentelemetry/best-practices/opentelemetry-best-practices-resources) 관계를 구성합니다. \ No newline at end of file diff --git a/src/i18n/content/kr/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx b/src/i18n/content/kr/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx index 370b0659db3..587ebacdb4a 100644 --- a/src/i18n/content/kr/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx +++ b/src/i18n/content/kr/docs/query-your-data/explore-query-data/dashboards/filter-new-relic-one-dashboards-facets.mdx @@ -31,26 +31,18 @@ translationType: machine UI의 기존 대시보드에 대해 다음 패싯이 포함된 NRQL 쿼리를 생성한다고 가정해 보겠습니다. -facetfiltering01bis.png +facetfiltering01bis.png
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: `FACET` 절을 포함하고 [차트 유형 요구 사항을](#requirements) 충족하는 쿼리의 경우 해당 속성을 설정하여 간편한 대시보드 필터로 사용할 수 있습니다. 현재 있는 대시보드를 필터링하거나 선택한 관련 대시보드를 필터링하도록 속성을 설정할 수 있습니다. + **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Dashboards**: `FACET` 절을 포함하고 [차트 유형 요구 사항을](#requirements) 충족하는 쿼리의 경우 해당 속성을 간단한 대시보드 필터로 사용하도록 설정할 수 있습니다. 현재 있는 대시보드를 필터링하거나, 선택한 관련 대시보드를 필터링하도록 속성을 설정할 수 있습니다.
-**현재 대시보드 필터링** 을 선택하면 해당 차트가 사용 가능한 `userAgentName` 속성으로 현재 대시보드를 필터링하는 데 사용됩니다. 다음은 해당 대시보드를 필터링하기 위해 해당 속성 중 하나를 선택하는 보기입니다. 선택한 속성이 상단의 검색 표시줄에 필터로 나타납니다. +**Filter the current dashboard** 선택하면 해당 차트는 사용 가능한 `userAgentName` 속성에 따라 현재 대시보드를 필터링하는 데 사용됩니다. 대시보드를 필터링하기 위해 해당 속성 중 하나를 선택하는 방법은 다음과 같습니다. 선택한 속성이 상단 검색창에 필터로 표시됩니다. -facetfiltering02.png +facetfiltering02.png
- **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) > Dashboards**: 패싯 필터링을 위해 설정한 속성을 선택하면 현재 대시보드를 필터링합니다. + **[one.newrelic.com > All capabilities](https://one.newrelic.com/all-capabilities) &gt; Dashboards**: 패싯 필터링에 설정한 속성을 선택하면 현재 대시보드가 필터링됩니다.
이 기능에 대한 자세한 내용은 [패싯 필터링에 대한 지원 포럼 게시물을](https://discuss.newrelic.com/t/facet-linking-in-new-relic-one-now-you-can-use-facets-to-filter-your-new-relic-one-dashboards/82289) 참조하십시오. @@ -59,31 +51,29 @@ UI의 기존 대시보드에 대해 다음 패싯이 포함된 NRQL 쿼리를 [`FACET CASES`](/docs/query-your-data/nrql-new-relic-query-language/get-started/nrql-syntax-clauses-functions#sel-facet-cases) 은 조건에 따라 패싯을 그룹화할 수 있는 NRQL 함수입니다. 동일한 측면에서 여러 사례를 지원합니다. -일부 데이터를 쿼리하고 대시보드 또는 보고서에 대한 니모닉 범주에 응답을 입력한다고 가정해 보겠습니다. 이 구문을 사용하면 트랜잭션 기간을 기반으로 쿼리하고 결과를 ACCEPTABLE 및 UNACCEPTABLE의 두 가지 범주로 분류할 수 있습니다. 이것은 대시보드를 사람이 더 읽기 쉽고 실행 가능하게 만드는 데 정말 유용할 수 있습니다. +예를 들어, 일부 데이터를 쿼리하여 대시보드나 보고서에 대한 니모닉 카테고리로 응답을 분류하고 싶다고 가정해 보겠습니다. 이 구문을 사용하면 기간을 기준으로 쿼리를 실행하고 결과를 *허용* 및 *허용 불가의* 두 가지 범주로 분류할 수 있습니다. 이는 대시보드를 사람이 더 읽기 쉽고 활용하기 쉽게 만드는 데 매우 유용할 수 있습니다. -``` -SELECT filter(count(*), WHERE duration > 1) as 'UNACCEPTABLE', filter(count(*), -WHERE duration <=1) as 'ACCEPTABLE' -FROM Transaction FACET appName LIMIT 5 since 5 minutes ago +```sql +SELECT filter(count(*), WHERE duration > 1) AS 'UNACCEPTABLE', + filter(count(*), WHERE duration <=1) AS 'ACCEPTABLE' +FROM Transaction FACET appName LIMIT 5 SINCE 5 minutes ago ``` -facet_cases_01.png +facet_cases_01.png FACET CASES를 사용하면 여러 복잡한 조건을 보다 효율적으로 사용하여 사용자 정의 패싯 세트를 생성할 수 있습니다. 이전 예를 바탕으로 기간 데이터에서 오류를 제외하고 세 번째 범주에 추가하는 복합 조건을 포함하려고 한다고 가정해 보겠습니다. -``` +```sql SELECT count(*) -FROM Transaction FACET CASES (where duration > 1 and error is NULL as 'UNACCEPTABLE', where duration <= 1 and error is NULL as 'ACCEPTABLE', where error is not NULL as 'ERROR') since 5 minutes ago +FROM Transaction FACET CASES +( + WHERE duration > 1 AND error IS NULL AS 'UNACCEPTABLE', + WHERE duration <= 1 AND error IS NULL AS 'ACCEPTABLE', + WHERE error IS NOT NULL AS 'ERROR' +) +SINCE 5 minutes ago ``` -facet_cases_02.png +facet_cases_02.png -그런 다음 패싯 연결을 사용하여 해당 패싯별로 대시보드를 필터링할 수 있습니다. +그런 다음 패싯 연결을 사용하여 해당 패싯별로 대시보드를 필터링할 수 있습니다. \ No newline at end of file diff --git a/src/i18n/content/pt/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx b/src/i18n/content/pt/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx index 132f776d820..1c2f2f8bb9b 100644 --- a/src/i18n/content/pt/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx +++ b/src/i18n/content/pt/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts.mdx @@ -35,11 +35,7 @@ Quando você se inscreve inicialmente no New Relic, sua organização tem alguma Quer controlar como o usuário acessa New Relic? Gerencie o domínio de autenticação [aqui](/docs/accounts/accounts-billing/new-relic-one-user-management/authentication-domains-saml-sso-scim-more/).
-New Relic user mgmt groups UI - default group assignments +New Relic user mgmt groups UI - default group assignments
Uma visualização da [interface**Access management** ](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-ui-and-tasks#where), mostrando como nossos grupos padrão (**Admin** e **User**) recebem acesso a funções, contas e configurações administrativas. @@ -47,11 +43,7 @@ Quando você se inscreve inicialmente no New Relic, sua organização tem alguma Aqui está um diagrama que mostra como funciona o acesso ao grupo e como eles se relacionam com a organização mais ampla: -New Relic user management diagram +New Relic user management diagram
Um diagrama que mostra como os grupos dão ao usuário desse grupo acesso a funções e contas. @@ -75,29 +67,8 @@ usuário e grupos estão localizados em um [domínio de autenticação](/docs/ac Temos dois grupos de usuários padrão: -* - **User** - - - : um usuário neste grupo pode usar e configurar nosso recurso de observabilidade e monitoramento, mas **não pode** executar tarefas em nível de conta, como gerenciar faturamento ou gerenciar outros usuários. Ele tem acesso à função - - - [**All product admin**](#standard-roles) - - - , que concede controle sobre todas as ferramentas da plataforma de observabilidade, mas não possui [configurações de administração](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings), que concedem acesso aos recursos de gerenciamento de contas e usuários de nível superior. - -* - **Admin** - - - : tem a [função](#standard-roles) - - - [**All product admin**](#standard-roles) - - - [](#standard-roles)e, além disso, possui todas as [configurações de administração](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings) disponíveis. Como resultado, este grupo tem acesso a todos os recursos, incluindo o recurso admin de nível superior. +* **User**: um usuário neste grupo pode usar e configurar nosso recurso de observabilidade e monitoramento, mas **não pode** executar tarefas em nível de conta, como gerenciar faturamento ou gerenciar outros usuários. Ele tem acesso à função [**All product admin**](#standard-roles) , que concede controle sobre todas as ferramentas da plataforma de observabilidade, mas não possui [configurações de administração](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings), que concedem acesso aos recursos de gerenciamento de contas e usuários de nível superior. +* **Admin**: tem a [função**All product admin** ](#standard-roles)e, além disso, possui todas as [configurações de administração](/docs/accounts/accounts-billing/new-relic-one-user-management/user-management-concepts#admin-settings) disponíveis. Como resultado, este grupo tem acesso a todos os recursos, incluindo o recurso admin de nível superior. Para editar o grupo em que um usuário está, você pode acessar a interface do usuário **Access management** e editar um grupo ou acessar a interface do usuário **User management** e editar o usuário. @@ -149,7 +120,7 @@ Aqui está uma tabela com nossas funções padrão. Para entender melhor essas f - Essa função inclui todas as permissões da plataforma New Relic **except** a capacidade de gerenciar configurações, usuário e faturamento no nível da organização. É uma função de administrador no sentido de que permite a configuração do nosso recurso de plataforma (por exemplo, a capacidade de definir configurações ), mas não fornece permissões de administrador em nível de organização (essas requerem [as configurações de administração](#admin-settings)). + Essa função inclui todas as permissões da plataforma New Relic **except** a capacidade de gerenciar configurações, usuário e faturamento no nível da organização. É uma função de administrador no sentido de que permite a configuração do nosso recurso de plataforma (por exemplo, a capacidade de definir configurações ), mas não fornece permissões de administrador em nível de organização (essas requerem [as configurações de administração](#admin-settings)). Essa função é essencialmente a função **Standard user** , abaixo, com a capacidade adicional de configurar o recurso de observabilidade. @@ -167,7 +138,7 @@ Aqui está uma tabela com nossas funções padrão. Para entender melhor essas f - Fornece acesso ao nosso recurso de plataforma (por exemplo, UI do APM e UI ), mas não possui permissões para configurar esses recursos e não possui permissões de gerenciamento de usuário e de nível de organização. + Fornece acesso ao nosso recurso de plataforma (por exemplo, UI do APM e UI ), mas não possui permissões para configurar esses recursos e não possui permissões de gerenciamento de usuário e de nível de organização. Use a interface de gerenciamento de acesso para visualizar os recursos incluídos no perfil do usuário padrão em toda a plataforma. @@ -203,53 +174,16 @@ Você pode adicionar vários **Administration settings** a um grupo. As configurações incluem: -* - **Organization settings** - - - : permissões relacionadas às configurações da organização, incluindo adição de contas e alteração do nome da organização e das contas. - -* - **Authentication domain settings** - - - : Permissões relacionadas à adição e gerenciamento de usuários, incluindo configuração de domínio de autenticação e personalização de grupos e funções. As opções incluem: +* **Organization settings**: permissões relacionadas às configurações da organização, incluindo adição de contas e alteração do nome da organização e das contas. - * - **Manage** - +* **Authentication domain settings**: Permissões relacionadas à adição e gerenciamento de usuários, incluindo configuração de domínio de autenticação e personalização de grupos e funções. As opções incluem: - : Pode gerenciar todos os aspectos de autenticação de domínio, incluindo configuração de domínio e adição de usuário. + * **Manage**: Pode gerenciar todos os aspectos de autenticação de domínio, incluindo configuração de domínio e adição de usuário. + * **Read only**: pode visualizar o domínio de autenticação e as informações do usuário. + * **Add users**: pode visualizar informações do usuário e adicionar usuários à organização, mas não possui outros recursos de configuração e gerenciamento de domínio de autenticação. + * **Read users**: só é possível visualizar informações do usuário. - * - **Read only** - - - : pode visualizar o domínio de autenticação e as informações do usuário. - - * - **Add users** - - - : pode visualizar informações do usuário e adicionar usuários à organização, mas não possui outros recursos de configuração e gerenciamento de domínio de autenticação. - - * - **Read users** - - - : só é possível visualizar informações do usuário. - -* - **Billing** - - - : permite que um usuário visualize e gerencie o faturamento, o uso e a retenção de dados. Para organizações com múltiplas contas, a cobrança é agregada em - - - **reporting account** - - - (geralmente a primeira conta criada em uma organização). +* **Billing**: permite que um usuário visualize e gerencie o faturamento, o uso e a retenção de dados. Para organizações com múltiplas contas, a cobrança é agregada em **reporting account** (geralmente a primeira conta criada em uma organização). ### Admin do grupo [#group-admin] @@ -259,11 +193,6 @@ Com esse recurso, você pode dar ao usuário selecionado a capacidade de adicion Para usar a função **Group admin** , um usuário deve estar em um grupo com pelo menos uma das configurações de administrador do domínio de autenticação. -