Journalisation

La journalisation et la surveillance fonctionnent conjointement pour vous aider à comprendre et à optimiser les performances des applications, ainsi qu'à diagnostiquer les erreurs et les problèmes liés au système. Vous devez activer les journaux récapitulatifs pour tous les appels d'API et les journaux détaillés pour les échecs des appels d'API afin de pouvoir fournir les journaux d'appels d'API lorsque vous avez besoin d'une assistance technique.

Journalisation des bibliothèques clientes

Les bibliothèques clientes de l'API Google Ads incluent une journalisation intégrée. Pour en savoir plus sur la journalisation spécifique à la plate-forme, consultez la documentation de journalisation dans la bibliothèque cliente de votre choix.

Langue Guide
Java Documentation de Logging pour Java
.NET Documentation de Logging pour .NET
PHP Documentation sur Logging pour PHP
Python Documentation de Logging pour Python
Ruby Documentation Logging pour Ruby
Perl Documentation sur la journalisation pour Perl

Format du journal

Les bibliothèques clientes de l'API Google Ads génèrent un journal détaillé et un journal récapitulatif pour chaque appel d'API. Le journal détaillé contient tous les détails de l'appel d'API, tandis que le journal de résumé contient un minimum de détails sur l'appel d'API. Un exemple de chaque type de journal est affiché. Les journaux sont tronqués et mis en forme pour une meilleure lisibilité.

Journal récapitulatif

GoogleAds.SummaryRequestLogs Warning: 1 : [2023-09-15 19:58:39Z] -
Request made: Host: , Method: /google.ads.googleads.v14.services.GoogleAdsService/SearchStream,
ClientCustomerID: 5951878031, RequestID: hELhBPNlEDd8mWYcZu7b8g,
IsFault: True, FaultMessage: Status(StatusCode="InvalidArgument",
Detail="Request contains an invalid argument.")

Journal détaillé

GoogleAds.DetailedRequestLogs Verbose: 1 : [2023-11-02 21:09:36Z] -
---------------BEGIN API CALL---------------

Request
-------

Method Name: /google.ads.googleads.v14.services.GoogleAdsService/SearchStream
Host:
Headers: {
  "x-goog-api-client": "gl-dotnet/5.0.0 gapic/17.0.1 gax/4.2.0 grpc/2.46.3 gccl/3.0.1 pb/3.21.5",
  "developer-token": "REDACTED",
  "login-customer-id": "1234567890",
  "x-goog-request-params": "customer_id=4567890123"
}

{ "customerId": "4567890123", "query": "SELECT ad_group_criterion.type FROM
  ad_group_criterion WHERE ad_group.status IN(ENABLED, PAUSED) AND
  campaign.status IN(ENABLED, PAUSED) ", "summaryRowSetting": "NO_SUMMARY_ROW" }

Response
--------
Headers: {
  "date": "Thu, 02 Nov 2023 21:09:35 GMT",
  "alt-svc": "h3-29=\":443\"; ma=2592000"
}

{
  "results": [ {
    "adGroupCriterion": {
      "resourceName": "customers/4567890123/adGroupCriteria/456789456789~123456123467",
      "type": "KEYWORD"
    } }, {
    "adGroupCriterion": {
      "resourceName": "customers/4567890123/adGroupCriteria/456789456789~56789056788",
      "type": "KEYWORD"
    } } ],
    "fieldMask": "adGroupCriterion.type", "requestId": "VsJ4F00ew6s9heHvAJ-abw"
}
----------------END API CALL----------------

Que se passe-t-il si je n'utilise pas de bibliothèque cliente ?

Si vous n'utilisez pas de bibliothèque cliente, implémentez votre propre journalisation pour capturer les détails des appels d'API sortants et entrants. Vous devez enregistrer au moins la valeur de l'en-tête de réponse request-id, qui peut ensuite être partagée avec les équipes d'assistance technique si nécessaire.

Journalisation dans le cloud

De nombreux outils vous permettent de capturer les journaux et les métriques de performances de votre application. Par exemple, vous pouvez utiliser Google Cloud Logging pour enregistrer les métriques de performances dans votre projet Google Cloud. Cela permet de configurer des tableaux de bord et des alertes dans Google Cloud Monitoring afin d'utiliser les métriques journalisées.

Cloud Logging propose des bibliothèques clientes pour tous les langages de programmation des bibliothèques clientes de l'API Google Ads, à l'exception de Perl. Ainsi, dans la plupart des cas, il est possible de se connecter directement à Cloud Logging à partir de l'intégration de votre bibliothèque cliente. Pour d'autres langages, y compris Perl, Cloud Logging propose également une API REST.

Plusieurs options s'offrent à vous pour vous connecter à Cloud Logging (ou à un autre outil) à partir d'une bibliothèque cliente de l'API Google Ads. Chaque option a ses propres compromis en termes de temps de mise en œuvre, de complexité et de performances. Réfléchissez bien à ces compromis avant de décider quelle solution mettre en œuvre.

Option 1: Écrire des journaux locaux dans le cloud à partir d'un processus en arrière-plan

Vous pouvez écrire les journaux de la bibliothèque cliente dans un fichier local sur votre ordinateur en modifiant votre configuration de journalisation. Une fois les journaux générés dans un fichier local, vous pouvez configurer un daemon pour collecter les journaux et les envoyer dans le cloud.

L'une des limites de cette approche est que certaines métriques de performances ne sont pas capturées par défaut. Les journaux de la bibliothèque cliente incluent les détails des objets de requête et de réponse. Par conséquent, les métriques de latence ne seront pas incluses, sauf si des modifications supplémentaires sont apportées pour les consigner.

Option 2: Exécuter l'application sur Compute Engine et installer l'agent Ops

Si votre application s'exécute sur Compute Engine, vous pouvez envoyer vos journaux à Google Cloud Logging en installant l'agent Ops. L'agent Ops peut être configuré pour envoyer les journaux de votre application à Cloud Logging, en plus des métriques et journaux envoyés par défaut.

Si votre application s'exécute déjà dans un environnement Google Cloud ou si vous envisagez de la migrer vers Google Cloud, il s'agit d'une excellente option.

Option 3: Implémenter la journalisation dans le code de votre application

Vous pouvez vous connecter directement à partir du code de l'application de l'une des deux manières suivantes:

  1. Intégrez des calculs de métriques et des instructions de journalisation dans chaque emplacement applicable de votre code. Cette option est plus réalisable pour les codebases plus petits, pour lesquels le champ d'application et les coûts de maintenance d'une telle modification seraient minimes.

  2. Implémenter une interface de journalisation Si la logique d'application peut être extraite de sorte que différents éléments de l'application héritent de la même classe de base, la logique de journalisation peut être mise en œuvre dans cette classe de base. Cette option est généralement préférable à l'incorporation d'instructions de journalisation dans l'ensemble du code de l'application, car elle est plus facile à gérer et à faire évoluer. Pour les codebases plus importants, la gestion et l'évolutivité de cette solution sont d'autant plus pertinentes.

L'une des limites de cette approche est que les journaux de requêtes et de réponses complets ne sont pas disponibles à partir du code d'application. Les objets de requête et de réponse complets sont accessibles à partir d'intercepteurs gRPC. C'est ainsi que la journalisation intégrée de la bibliothèque cliente obtient les journaux de requêtes et de réponses. En cas d'erreur, des informations supplémentaires peuvent être disponibles dans l'objet d'exception, mais moins de détails sont disponibles pour les réponses réussies dans la logique d'application. Par exemple, dans la plupart des cas, l'ID d'une requête réussie n'est pas accessible à partir des objets de réponse de l'API Google Ads.

Option 4: Implémenter un intercepteur de journalisation gRPC personnalisé

gRPC est compatible avec les intercepteurs unaires et en flux continu qui peuvent accéder aux objets de requête et de réponse lors de leur transmission entre le client et le serveur. Les bibliothèques clientes de l'API Google Ads utilisent des intercepteurs gRPC pour offrir une compatibilité de journalisation intégrée. De même, vous pouvez mettre en œuvre un intercepteur gRPC personnalisé pour accéder aux objets de requête et de réponse, extraire des informations à des fins de journalisation et de surveillance, et écrire ces données à l'emplacement de votre choix.

Contrairement à certaines des autres solutions présentées ici, la mise en œuvre d'un intercepteur gRPC personnalisé vous permet de capturer des objets de requête et de réponse à chaque requête, et d'implémenter une logique supplémentaire pour capturer les détails de la requête. Par exemple, vous pouvez calculer le temps écoulé d'une requête en implémentant la logique de temporisation des performances dans l'intercepteur personnalisé lui-même, puis consigner la métrique dans Google Cloud Logging pour la rendre disponible pour la surveillance de la latence dans Google Cloud Monitoring.

Interception personnalisée de Google Cloud Logging en Python

Pour illustrer cette solution, nous avons écrit un exemple d'intercepteur de journalisation personnalisé en Python. L'intercepteur personnalisé est créé et transmis au client de service. Il accède ensuite aux objets de requête et de réponse qui sont transmis à chaque appel de méthode de service, traite les données de ces objets et les envoie à Google Cloud Logging.

En plus des données provenant des objets de requête et de réponse, l'exemple met en œuvre une logique supplémentaire pour capturer le temps écoulé de la requête, ainsi que d'autres métadonnées utiles à des fins de surveillance, par exemple pour déterminer si la requête a abouti ou non. Pour en savoir plus sur l'utilité de ces informations, à la fois généralement pour la surveillance et en particulier lors de la combinaison de Google Cloud Logging et Google Cloud Monitoring, consultez le guide de surveillance.

# Copyright 2022 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
"""A custom gRPC Interceptor that logs requests and responses to Cloud Logging.

The custom interceptor object is passed into the get_service method of the
GoogleAdsClient. It intercepts requests and responses, parses them into a
human readable structure and logs them using the logging service instantiated
within the class (in this case, a Cloud Logging client).
"""

import logging
import time

from google.cloud import logging
from grpc import UnaryUnaryClientInterceptor, UnaryStreamClientInterceptor

from google.ads.googleads.interceptors import LoggingInterceptor, mask_message


class CloudLoggingInterceptor(LoggingInterceptor):
    """An interceptor that logs rpc request and response details to Google Cloud Logging.

    This class inherits logic from the LoggingInterceptor, which simplifies the
    implementation here. Some logic is required here in order to make the
    underlying logic work -- comments make note of this where applicable.
    NOTE: Inheriting from the LoggingInterceptor class could yield unexpected side
    effects. For example, if the LoggingInterceptor class is updated, this class would
    inherit the updated logic, which could affect its functionality. One option to avoid
    this is to inherit from the Interceptor class instead, and selectively copy whatever
    logic is needed from the LoggingInterceptor class."""

    def __init__(self, api_version):
        """Initializer for the CloudLoggingInterceptor.

        Args:
            api_version: a str of the API version of the request.
        """
        super().__init__(logger=None, api_version=api_version)
        # Instantiate the Cloud Logging client.
        logging_client = logging.Client()
        self.logger = logging_client.logger("cloud_logging")

    def log_successful_request(
        self,
        method,
        customer_id,
        metadata_json,
        request_id,
        request,
        trailing_metadata_json,
        response,
    ):
        """Handles logging of a successful request.

        Args:
            method: The method of the request.
            customer_id: The customer ID associated with the request.
            metadata_json: A JSON str of initial_metadata.
            request_id: A unique ID for the request provided in the response.
            request: An instance of a request proto message.
            trailing_metadata_json: A JSON str of trailing_metadata.
            response: A grpc.Call/grpc.Future instance.
        """
        # Retrieve and mask the RPC result from the response future.
        # This method is available from the LoggingInterceptor class.
        # Ensure self._cache is set in order for this to work.
        # The response result could contain up to 10,000 rows of data,
        # so consider truncating this value before logging it, to save
        # on data storage costs and maintain readability.
        result = self.retrieve_and_mask_result(response)

        # elapsed_ms is the approximate elapsed time of the RPC, in milliseconds.
        # There are different ways to define and measure elapsed time, so use
        # whatever approach makes sense for your monitoring purposes.
        # rpc_start and rpc_end are set in the intercept_unary_* methods below.
        elapsed_ms = (self.rpc_end - self.rpc_start) * 1000

        debug_log = {
            "method": method,
            "host": metadata_json,
            "request_id": request_id,
            "request": str(request),
            "headers": trailing_metadata_json,
            "response": str(result),
            "is_fault": False,
            "elapsed_ms": elapsed_ms,
        }
        self.logger.log_struct(debug_log, severity="DEBUG")

        info_log = {
            "customer_id": customer_id,
            "method": method,
            "request_id": request_id,
            "is_fault": False,
            # Available from the Interceptor class.
            "api_version": self._api_version,
        }
        self.logger.log_struct(info_log, severity="INFO")

    def log_failed_request(
        self,
        method,
        customer_id,
        metadata_json,
        request_id,
        request,
        trailing_metadata_json,
        response,
    ):
        """Handles logging of a failed request.

        Args:
            method: The method of the request.
            customer_id: The customer ID associated with the request.
            metadata_json: A JSON str of initial_metadata.
            request_id: A unique ID for the request provided in the response.
            request: An instance of a request proto message.
            trailing_metadata_json: A JSON str of trailing_metadata.
            response: A JSON str of the response message.
        """
        exception = self._get_error_from_response(response)
        exception_str = self._parse_exception_to_str(exception)
        fault_message = self._get_fault_message(exception)

        info_log = {
            "method": method,
            "endpoint": self.endpoint,
            "host": metadata_json,
            "request_id": request_id,
            "request": str(request),
            "headers": trailing_metadata_json,
            "exception": exception_str,
            "is_fault": True,
        }
        self.logger.log_struct(info_log, severity="INFO")

        error_log = {
            "method": method,
            "endpoint": self.endpoint,
            "request_id": request_id,
            "customer_id": customer_id,
            "is_fault": True,
            "fault_message": fault_message,
        }
        self.logger.log_struct(error_log, severity="ERROR")

    def intercept_unary_unary(self, continuation, client_call_details, request):
        """Intercepts and logs API interactions.

        Overrides abstract method defined in grpc.UnaryUnaryClientInterceptor.

        Args:
            continuation: a function to continue the request process.
            client_call_details: a grpc._interceptor._ClientCallDetails
                instance containing request metadata.
            request: a SearchGoogleAdsRequest or SearchGoogleAdsStreamRequest
                message class instance.

        Returns:
            A grpc.Call/grpc.Future instance representing a service response.
        """
        # Set the rpc_end value to current time when RPC completes.
        def update_rpc_end(response_future):
            self.rpc_end = time.perf_counter()

        # Capture precise clock time to later calculate approximate elapsed
        # time of the RPC.
        self.rpc_start = time.perf_counter()

        # The below call is REQUIRED.
        response = continuation(client_call_details, request)

        response.add_done_callback(update_rpc_end)

        self.log_request(client_call_details, request, response)

        # The below return is REQUIRED.
        return response

    def intercept_unary_stream(
        self, continuation, client_call_details, request
    ):
        """Intercepts and logs API interactions for Unary-Stream requests.

        Overrides abstract method defined in grpc.UnaryStreamClientInterceptor.

        Args:
            continuation: a function to continue the request process.
            client_call_details: a grpc._interceptor._ClientCallDetails
                instance containing request metadata.
            request: a SearchGoogleAdsRequest or SearchGoogleAdsStreamRequest
                message class instance.

        Returns:
            A grpc.Call/grpc.Future instance representing a service response.
        """

        def on_rpc_complete(response_future):
            self.rpc_end = time.perf_counter()
            self.log_request(client_call_details, request, response_future)

        # Capture precise clock time to later calculate approximate elapsed
        # time of the RPC.
        self.rpc_start = time.perf_counter()

        # The below call is REQUIRED.
        response = continuation(client_call_details, request)

        # Set self._cache to the cache on the response wrapper in order to
        # access the streaming logs. This is REQUIRED in order to log streaming
        # requests.
        self._cache = response.get_cache()

        response.add_done_callback(on_rpc_complete)

        # The below return is REQUIRED.
        return response