Journalisation

La journalisation et la surveillance s'associent pour vous aider à comprendre et à optimiser les performances des applications, ainsi qu'à diagnostiquer les erreurs et les problèmes liés au système. Après avoir lu ce guide, consultez le guide Monitoring pour connaître les bonnes pratiques de surveillance de votre application, y compris les métriques spécifiques à consigner à des fins de surveillance.

Journalisation de la bibliothèque cliente

Les bibliothèques clientes de l'API Google Ads intègrent une fonctionnalité de journalisation. Pour en savoir plus sur la journalisation spécifique à la plate-forme, consultez la documentation de journalisation dans la bibliothèque cliente de votre choix.

Journalisation dans le cloud

De nombreux outils vous permettent de capturer les journaux et les métriques de performances de votre application. Par exemple, vous pouvez utiliser Google Cloud Logging pour consigner les métriques de performances dans votre projet Google Cloud. Vous pouvez ainsi configurer des tableaux de bord et des alertes dans Google Cloud Monitoring pour exploiter les métriques journalisées.

Cloud Logging propose des bibliothèques clientes pour tous les langages de bibliothèque acceptés par l'API Google Ads, à l'exception de Perl. Dans la plupart des cas, il est donc possible de se connecter à Cloud Logging directement depuis l'intégration de votre bibliothèque cliente. Pour les autres langages tels que Perl, Cloud Logging propose également une API REST.

Il existe plusieurs options pour se connecter à Cloud Logging ou à un autre outil à partir d'une bibliothèque cliente de l'API Google Ads. Chaque option implique ses propres compromis en termes de temps de mise en œuvre, de complexité et de performances. Réfléchissez bien à ces compromis avant de choisir la solution à implémenter.

Option 1: Écrire des journaux locaux dans le cloud à partir d'un processus en arrière-plan

Les journaux de la bibliothèque cliente peuvent être écrits dans un fichier local sur votre ordinateur en modifiant votre configuration de journalisation. Une fois les journaux exportés dans un fichier local, vous pouvez configurer un daemon pour les collecter et les envoyer dans le cloud.

L'une des limites de cette approche est que certaines métriques de performances ne sont pas capturées par défaut. Les journaux de la bibliothèque cliente incluent les détails des objets de requête et de réponse. Par conséquent, les métriques de latence ne seront pas incluses, sauf si des modifications supplémentaires sont également enregistrées pour les consigner.

Option 2: Exécuter l'application sur Compute Engine et installer l'agent Ops

Si votre application s'exécute sur Compute Engine, vous pouvez envoyer vos journaux à Google Cloud Logging en installant l'agent Ops. L'agent Ops peut être configuré pour envoyer les journaux de votre application à Cloud Logging, en plus des métriques et journaux envoyés par défaut.

Si votre application s'exécute déjà dans un environnement Google Cloud Platform (GCP) ou si vous envisagez de la migrer vers GCP, il s'agit d'une excellente option.

Option 3: Implémenter la journalisation dans le code de votre application

La journalisation directe à partir du code de l'application peut être effectuée de deux manières:

  1. Intégrer des calculs de métriques et des instructions de journalisation à chaque emplacement applicable dans votre code Cette option est plus envisageable pour les codebases plus petits, où le champ d'application et les coûts de maintenance d'une telle modification seraient minimes.

  2. Implémenter une interface de journalisation Si la logique d'application peut être extraite pour que différents éléments de l'application héritent de la même classe de base, la logique de journalisation peut être mise en œuvre dans cette classe de base. Cette option est généralement préférable à l'intégration d'instructions de journalisation dans le code de l'application, car elle est plus facile à gérer et à faire évoluer. Pour les codebases plus volumineux, la gestion et l'évolutivité de cette solution sont plus pertinentes.

L'une des limites de cette approche est que les journaux de requêtes et de réponses complets ne sont pas disponibles à partir du code de l'application. Les objets de requête et de réponse complets sont accessibles à partir d'intercepteurs gRPC. C'est de cette manière que la journalisation intégrée de la bibliothèque cliente obtient les journaux de requêtes et de réponses. En cas d'erreur, des informations supplémentaires peuvent être disponibles dans l'objet d'exception. Cependant, moins de détails sont disponibles pour les réponses réussies dans la logique de l'application. Par exemple, dans la plupart des cas, l'ID d'une requête réussie n'est pas accessible à partir des objets de réponse de l'API Google Ads.

Option 4: Implémenter un intercepteur de journalisation gRPC personnalisé

gRPC est compatible avec les intercepteurs unaires et en streaming qui peuvent accéder aux objets de requête et de réponse lorsqu'ils passent du client au serveur. Les bibliothèques clientes de l'API Google Ads utilisent des intercepteurs gRPC pour offrir une compatibilité intégrée de la journalisation. De même, vous pouvez implémenter un intercepteur gRPC personnalisé pour accéder aux objets de requête et de réponse, extraire des informations à des fins de journalisation et de surveillance, et écrire ces données à l'emplacement de votre choix.

Contrairement à certaines des autres solutions présentées ici, la mise en œuvre d'un intercepteur personnalisé de gRPC vous permet de capturer les objets de requête et de réponse à chaque requête, et de mettre en œuvre une logique supplémentaire pour capturer les détails de la requête. Par exemple, vous pouvez calculer le temps écoulé d'une requête en implémentant une logique de chronologie des performances dans l'intercepteur personnalisé, puis en journalisant la métrique dans Google Cloud Logging afin de la rendre disponible pour la surveillance de la latence dans Google Cloud Monitoring.

Interception personnalisée Google Cloud Logging en Python

Pour illustrer cette solution, nous avons écrit un exemple d'intercepteur de journalisation personnalisé en Python. L'intercepteur personnalisé est créé et transmis au client de service. Il accède ensuite aux objets de requête et de réponse qui transitent par chaque appel de méthode de service, traite les données de ces objets, puis les envoie à Google Cloud Logging.

Outre les données provenant des objets de requête et de réponse, l'exemple met en œuvre une logique supplémentaire pour capturer le temps écoulé de la requête, ainsi que d'autres métadonnées utiles à des fins de surveillance, telles que la réussite ou non de la requête. Pour en savoir plus sur l'utilité de ces informations, à la fois pour la surveillance, et plus particulièrement pour la combinaison de Google Cloud Logging et de Google Cloud Monitoring, consultez le guide de surveillance.

# Copyright 2022 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
"""A custom gRPC Interceptor that logs requests and responses to Cloud Logging.

The custom interceptor object is passed into the get_service method of the
GoogleAdsClient. It intercepts requests and responses, parses them into a
human readable structure and logs them using the logging service instantiated
within the class (in this case, a Cloud Logging client).
"""

import logging
import time

from google.cloud import logging
from grpc import UnaryUnaryClientInterceptor, UnaryStreamClientInterceptor

from google.ads.googleads.interceptors import LoggingInterceptor, mask_message


class CloudLoggingInterceptor(LoggingInterceptor):
    """An interceptor that logs rpc request and response details to Google Cloud Logging.

    This class inherits logic from the LoggingInterceptor, which simplifies the
    implementation here. Some logic is required here in order to make the
    underlying logic work -- comments make note of this where applicable.
    NOTE: Inheriting from the LoggingInterceptor class could yield unexpected side
    effects. For example, if the LoggingInterceptor class is updated, this class would
    inherit the updated logic, which could affect its functionality. One option to avoid
    this is to inherit from the Interceptor class instead, and selectively copy whatever
    logic is needed from the LoggingInterceptor class."""

    def __init__(self, api_version):
        """Initializer for the CloudLoggingInterceptor.

        Args:
            api_version: a str of the API version of the request.
        """
        super().__init__(logger=None, api_version=api_version)
        # Instantiate the Cloud Logging client.
        logging_client = logging.Client()
        self.logger = logging_client.logger("cloud_logging")

    def log_successful_request(
        self,
        method,
        customer_id,
        metadata_json,
        request_id,
        request,
        trailing_metadata_json,
        response,
    ):
        """Handles logging of a successful request.

        Args:
            method: The method of the request.
            customer_id: The customer ID associated with the request.
            metadata_json: A JSON str of initial_metadata.
            request_id: A unique ID for the request provided in the response.
            request: An instance of a request proto message.
            trailing_metadata_json: A JSON str of trailing_metadata.
            response: A grpc.Call/grpc.Future instance.
        """
        # Retrieve and mask the RPC result from the response future.
        # This method is available from the LoggingInterceptor class.
        # Ensure self._cache is set in order for this to work.
        # The response result could contain up to 10,000 rows of data,
        # so consider truncating this value before logging it, to save
        # on data storage costs and maintain readability.
        result = self.retrieve_and_mask_result(response)

        # elapsed_ms is the approximate elapsed time of the RPC, in milliseconds.
        # There are different ways to define and measure elapsed time, so use
        # whatever approach makes sense for your monitoring purposes.
        # rpc_start and rpc_end are set in the intercept_unary_* methods below.
        elapsed_ms = (self.rpc_end - self.rpc_start) * 1000

        debug_log = {
            "method": method,
            "host": metadata_json,
            "request_id": request_id,
            "request": str(request),
            "headers": trailing_metadata_json,
            "response": str(result),
            "is_fault": False,
            "elapsed_ms": elapsed_ms,
        }
        self.logger.log_struct(debug_log, severity="DEBUG")

        info_log = {
            "customer_id": customer_id,
            "method": method,
            "request_id": request_id,
            "is_fault": False,
            # Available from the Interceptor class.
            "api_version": self._api_version,
        }
        self.logger.log_struct(info_log, severity="INFO")

    def log_failed_request(
        self,
        method,
        customer_id,
        metadata_json,
        request_id,
        request,
        trailing_metadata_json,
        response,
    ):
        """Handles logging of a failed request.

        Args:
            method: The method of the request.
            customer_id: The customer ID associated with the request.
            metadata_json: A JSON str of initial_metadata.
            request_id: A unique ID for the request provided in the response.
            request: An instance of a request proto message.
            trailing_metadata_json: A JSON str of trailing_metadata.
            response: A JSON str of the response message.
        """
        exception = self._get_error_from_response(response)
        exception_str = self._parse_exception_to_str(exception)
        fault_message = self._get_fault_message(exception)

        info_log = {
            "method": method,
            "endpoint": self.endpoint,
            "host": metadata_json,
            "request_id": request_id,
            "request": str(request),
            "headers": trailing_metadata_json,
            "exception": exception_str,
            "is_fault": True,
        }
        self.logger.log_struct(info_log, severity="INFO")

        error_log = {
            "method": method,
            "endpoint": self.endpoint,
            "request_id": request_id,
            "customer_id": customer_id,
            "is_fault": True,
            "fault_message": fault_message,
        }
        self.logger.log_struct(error_log, severity="ERROR")

    def intercept_unary_unary(self, continuation, client_call_details, request):
        """Intercepts and logs API interactions.

        Overrides abstract method defined in grpc.UnaryUnaryClientInterceptor.

        Args:
            continuation: a function to continue the request process.
            client_call_details: a grpc._interceptor._ClientCallDetails
                instance containing request metadata.
            request: a SearchGoogleAdsRequest or SearchGoogleAdsStreamRequest
                message class instance.

        Returns:
            A grpc.Call/grpc.Future instance representing a service response.
        """
        # Set the rpc_end value to current time when RPC completes.
        def update_rpc_end(response_future):
            self.rpc_end = time.perf_counter()

        # Capture precise clock time to later calculate approximate elapsed
        # time of the RPC.
        self.rpc_start = time.perf_counter()

        # The below call is REQUIRED.
        response = continuation(client_call_details, request)

        response.add_done_callback(update_rpc_end)

        self.log_request(client_call_details, request, response)

        # The below return is REQUIRED.
        return response

    def intercept_unary_stream(
        self, continuation, client_call_details, request
    ):
        """Intercepts and logs API interactions for Unary-Stream requests.

        Overrides abstract method defined in grpc.UnaryStreamClientInterceptor.

        Args:
            continuation: a function to continue the request process.
            client_call_details: a grpc._interceptor._ClientCallDetails
                instance containing request metadata.
            request: a SearchGoogleAdsRequest or SearchGoogleAdsStreamRequest
                message class instance.

        Returns:
            A grpc.Call/grpc.Future instance representing a service response.
        """

        def on_rpc_complete(response_future):
            self.rpc_end = time.perf_counter()
            self.log_request(client_call_details, request, response_future)

        # Capture precise clock time to later calculate approximate elapsed
        # time of the RPC.
        self.rpc_start = time.perf_counter()

        # The below call is REQUIRED.
        response = continuation(client_call_details, request)

        # Set self._cache to the cache on the response wrapper in order to
        # access the streaming logs. This is REQUIRED in order to log streaming
        # requests.
        self._cache = response.get_cache()

        response.add_done_callback(on_rpc_complete)

        # The below return is REQUIRED.
        return response