Déployer le connecteur

Cette page du tutoriel Cloud Search explique comment configurer une source de données et un connecteur de contenu pour indexer des données. Pour commencer depuis le début de ce tutoriel, reportez-vous à la section Tutoriel de mise en route de Cloud Search.

Créer le connecteur

Remplacez votre répertoire de travail par le répertoire cloud-search-samples/end-to-end/connector et exécutez la commande suivante:

mvn package -DskipTests

La commande télécharge les dépendances nécessaires à la création du connecteur de contenu et compile le code.

Créer les identifiants du compte de service

Le connecteur requiert les identifiants du compte de service pour appeler les API Cloud Search. Pour créer les identifiants:

  1. Revenez à la console Google Cloud.
  2. Dans le volet de navigation de gauche, cliquez sur Identifiants. La page "Identifiants" s'affiche.
  3. Cliquez sur la liste déroulante + CRÉER DES IDENTIFIANTS, puis sélectionnez Compte de service. La page "Créer un compte de service" s'affiche.
  4. Dans le champ Nom du compte de service, saisissez "tutorial".
  5. Notez la valeur de l'ID du compte de service (juste après le nom du compte de service). Cette valeur sera utilisée ultérieurement.
  6. Cliquez sur CRÉER. La boîte de dialogue "Autorisations de compte de service (facultatif)" s'affiche.
  7. Cliquez sur CONTINUER. La boîte de dialogue "Autoriser les utilisateurs à accéder à ce compte de service (facultatif)" s'affiche.
  8. Cliquez sur OK. L'écran "Identifiants" s'affiche.
  9. Sous "Comptes de service", cliquez sur l'adresse e-mail du compte de service. La page des détails du compte de service s'affiche.
  10. Sous "Clés", cliquez sur la liste déroulante AJOUTER UNE CLÉ et sélectionnez Créer une clé. La boîte de dialogue "Créer une clé privée" s'affiche.
  11. Cliquez sur CRÉER.
  12. (Facultatif) Si la boîte de dialogue "Voulez-vous autoriser les téléchargements sur console.cloud.google.com ?" s'affiche, cliquez sur Autoriser.
  13. Un fichier de clé privée est enregistré sur votre ordinateur. Notez l'emplacement du fichier téléchargé. Ce fichier permet de configurer le connecteur de contenu afin qu'il puisse s'authentifier lorsqu'il appelle les API Google Cloud Search.

Initialiser la compatibilité tierce

Avant de pouvoir appeler d'autres API Cloud Search, vous devez initialiser la compatibilité tierce pour Google Cloud Search.

Pour initialiser la compatibilité tierce pour Cloud Search:

  1. Votre projet Cloud Search Platform contient des identifiants de compte de service. Toutefois, pour initialiser la prise en charge tierce, vous devez créer des identifiants d'application Web. Pour savoir comment créer des identifiants d'application Web, consultez la section Créer des identifiants. Une fois cette étape terminée, vous devez disposer d'un fichier contenant un ID et un code secret du client.

  2. Utilisez OAuth 2 Playground de Google pour obtenir un jeton d'accès:

    1. Cliquez sur "Settings" (Paramètres), puis cochez la case User your own auth credentials (Utiliser vos propres identifiants d'authentification).
    2. Saisissez l'ID client et le code secret du client obtenus à l'étape 1.
    3. Cliquez sur Fermer.
    4. Dans le champ "Champs d'application", saisissez https://www.googleapis.com/auth/cloud_search.settings, puis cliquez sur Autoriser. OAuth 2 Playground renvoie un code d'autorisation.
    5. Cliquez sur Exchange authorization code for tokens (Échanger le code d'autorisation contre des jetons). Un jeton est renvoyé.
  3. Pour initialiser la compatibilité tierce pour Cloud Search, utilisez la commande curl suivante. Veillez à remplacer [YOUR_ACCESS_TOKEN] par le jeton obtenu à l'étape 2.

    curl --request POST \
    'https://cloudsearch.googleapis.com/v1:initializeCustomer' \
      --header 'Authorization: Bearer [YOUR_ACCESS_TOKEN]' \
      --header 'Accept: application/json' \
      --header 'Content-Type: application/json' \
      --data '{}' \
      --compressed
    

    Si la requête aboutit, le corps de la réponse contient une instance d'operation. Exemple :

    {
    name: "operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY"
    }
    

    En cas d'échec, contactez l'assistance Cloud Search.

  4. Utilisez operations.get pour vérifier que la compatibilité tierce est initialisée:

    curl \
    'https://cloudsearch.googleapis.com/v1/operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY?key=
    [YOUR_API_KEY]' \
    --header 'Authorization: Bearer [YOUR_ACCESS_TOKEN]' \
    --header 'Accept: application/json' \
    --compressed
    

    Une fois l'initialisation tierce terminée, le champ done est défini sur true. Exemple :

    {
    name: "operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY"
    done: true
    }
    

Créer la source de données

Ensuite, créez une source de données dans la console d'administration. La source de données fournit un espace de noms pour l'indexation du contenu à l'aide du connecteur.

  1. Ouvrez la console d'administration Google.
  2. Cliquez sur l'icône Applications. La page "Administration des applications" s'affiche.
  3. Cliquez sur Google Workspace. La page "Apps Google Workspace administration" (Administration des applications Google Workspace) s'affiche.
  4. Faites défiler la page vers le bas et cliquez sur Cloud Search. La page "Paramètres de Google Workspace" s'affiche.
  5. Cliquez sur Sources de données tierces. La page "Sources de données" s'affiche.
  6. Cliquez sur le signe + jaune. La boîte de dialogue "Ajouter une source de données" s'affiche.
  7. Dans le champ Nom à afficher, saisissez "tutorial".
  8. Dans le champ Adresses e-mail du compte de service, saisissez l'adresse e-mail du compte de service que vous avez créé à la section précédente. Si vous ne connaissez pas l'adresse e-mail du compte de service, recherchez-la sur la page Comptes de service.
  9. Cliquez sur AJOUTER. La boîte de dialogue "La source de données a bien été créée" s'affiche.
  10. Cliquez sur *OK. Notez l'ID source de la nouvelle source de données. L'ID source est utilisé pour configurer le connecteur de contenu.

Générer un jeton d'accès personnel pour l'API GitHub

Le connecteur nécessite un accès authentifié à l'API GitHub pour disposer d'un quota suffisant. Pour plus de simplicité, le connecteur utilise des jetons d'accès personnels au lieu d'OAuth. Les jetons personnels permettent de s'authentifier en tant qu'utilisateur avec un ensemble limité d'autorisations semblables à OAuth.

  1. Connectez-vous à GitHub.
  2. En haut à droite, cliquez sur votre photo de profil. Un menu déroulant apparaît.
  3. Cliquez sur Paramètres.
  4. Cliquez sur Paramètres pour les développeurs.
  5. Cliquez sur Personal access tokens (Jetons d'accès personnels).
  6. Cliquez sur Generate personal access token (Générer un jeton d'accès personnel).
  7. Dans le champ Remarque, saisissez "Tutoriel Cloud Search".
  8. Vérifiez le champ d'application de public_repo.
  9. Cliquez sur Générer un jeton.
  10. Notez le jeton généré. Le connecteur l'utilise pour appeler les API GitHub et fournit un quota d'API permettant d'effectuer l'indexation.

Configurer le connecteur

Après avoir créé les identifiants et la source de données, mettez à jour la configuration du connecteur de façon à inclure les valeurs suivantes:

  1. Dans la ligne de commande, remplacez le répertoire par cloud-search-samples/end-to-end/connector/.
  2. Ouvrez le fichier sample-config.properties dans un éditeur de texte.
  3. Définissez le paramètre api.serviceAccountPrivateKeyFile sur le chemin d'accès au fichier d'identifiants de service que vous avez précédemment téléchargé.
  4. Définissez le paramètre api.sourceId sur l'ID de la source de données que vous avez créé précédemment.
  5. Définissez le paramètre github.user sur votre nom d'utilisateur GitHub.
  6. Définissez le paramètre github.token sur le jeton d'accès que vous avez créé précédemment.
  7. Enregistrez le fichier.

Mettre à jour le schéma

Le connecteur indexe le contenu structuré et non structuré. Avant d'indexer les données, vous devez mettre à jour le schéma de la source de données. Exécutez la commande suivante pour mettre à jour le schéma:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.SchemaTool \
    -Dexec.args="-Dconfig=sample-config.properties"

Exécuter le connecteur

Pour exécuter le connecteur et commencer l'indexation, exécutez la commande suivante:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.GithubConnector \
    -Dexec.args="-Dconfig=sample-config.properties"

Par défaut, le connecteur est configuré de manière à indexer un seul dépôt dans l'organisation googleworkspace. L'indexation du dépôt prend environ une minute. Après l'indexation initiale, le connecteur continue d'interroger les modifications apportées au dépôt qui doivent être répercutées dans l'index Cloud Search.

Comprendre le code

Les sections suivantes examinent la structure du connecteur.

Démarrer l'application

Le point d'entrée du connecteur est la classe GithubConnector. La méthode main instancie la classe IndexingApplication du SDK et la démarre.

GithubConnector.java
/**
 * Main entry point for the connector. Creates and starts an indexing
 * application using the {@code ListingConnector} template and the sample's
 * custom {@code Repository} implementation.
 *
 * @param args program command line arguments
 * @throws InterruptedException thrown if an abort is issued during initialization
 */
public static void main(String[] args) throws InterruptedException {
  Repository repository = new GithubRepository();
  IndexingConnector connector = new ListingConnector(repository);
  IndexingApplication application = new IndexingApplication.Builder(connector, args)
      .build();
  application.start();
}

Le ListingConnector fourni par le SDK met en œuvre une stratégie de balayage qui exploite les files d'attente Cloud Search pour suivre l'état des éléments de l'index. Il délègue à GithubRepository, mis en œuvre par l'exemple de connecteur, pour accéder au contenu de GitHub.

Parcourir les dépôts GitHub

Lors des balayages complets, la méthode getIds() est appelée pour placer dans la file d'attente des éléments pouvant nécessiter une indexation.

Le connecteur peut indexer plusieurs dépôts ou organisations. Pour réduire l'impact d'une défaillance, le système n'explore qu'un seul dépôt GitHub à la fois. Un point de contrôle est renvoyé avec les résultats du balayage contenant la liste des dépôts à indexer lors des prochains appels à getIds(). En cas d'erreur, l'indexation reprend dans le dépôt actuel au lieu de recommencer depuis le début.

GithubRepository.java
/**
 * Gets all of the existing item IDs from the data repository. While
 * multiple repositories are supported, only one repository is traversed
 * per call. The remaining repositories are saved in the checkpoint
 * are traversed on subsequent calls. This minimizes the amount of
 * data that needs to be reindex in the event of an error.
 *
 * <p>This method is called by {@link ListingConnector#traverse()} during
 * <em>full traversals</em>. Every document ID and metadata hash value in
 * the <em>repository</em> is pushed to the Cloud Search queue. Each pushed
 * document is later polled and processed in the {@link #getDoc(Item)} method.
 * <p>
 * The metadata hash values are pushed to aid document change detection. The
 * queue sets the document status depending on the hash comparison. If the
 * pushed ID doesn't yet exist in Cloud Search, the document's status is
 * set to <em>new</em>. If the ID exists but has a mismatched hash value,
 * its status is set to <em>modified</em>. If the ID exists and matches
 * the hash value, its status is unchanged.
 *
 * <p>In every case, the pushed content hash value is only used for
 * comparison. The hash value is only set in the queue during an
 * update (see {@link #getDoc(Item)}).
 *
 * @param checkpoint value defined and maintained by this connector
 * @return this is typically a {@link PushItems} instance
 */
@Override
public CheckpointCloseableIterable<ApiOperation> getIds(byte[] checkpoint)
    throws RepositoryException {
  List<String> repositories;
  // Decode the checkpoint if present to get the list of remaining
  // repositories to index.
  if (checkpoint != null) {
    try {
      FullTraversalCheckpoint decodedCheckpoint = FullTraversalCheckpoint
          .fromBytes(checkpoint);
      repositories = decodedCheckpoint.getRemainingRepositories();
    } catch (IOException e) {
      throw new RepositoryException.Builder()
          .setErrorMessage("Unable to deserialize checkpoint")
          .setCause(e)
          .build();
    }
  } else {
    // No previous checkpoint, scan for repositories to index
    // based on the connector configuration.
    try {
      repositories = scanRepositories();
    } catch (IOException e) {
      throw toRepositoryError(e, Optional.of("Unable to scan repositories"));
    }
  }

  if (repositories.isEmpty()) {
    // Nothing left to index. Reset the checkpoint to null so the
    // next full traversal starts from the beginning
    Collection<ApiOperation> empty = Collections.emptyList();
    return new CheckpointCloseableIterableImpl.Builder<>(empty)
        .setCheckpoint((byte[]) null)
        .setHasMore(false)
        .build();
  }

  // Still have more repositories to index. Pop the next repository to
  // index off the list. The remaining repositories make up the next
  // checkpoint.
  String repositoryToIndex = repositories.get(0);
  repositories = repositories.subList(1, repositories.size());

  try {
    log.info(() -> String.format("Traversing repository %s", repositoryToIndex));
    Collection<ApiOperation> items = collectRepositoryItems(repositoryToIndex);
    FullTraversalCheckpoint newCheckpoint = new FullTraversalCheckpoint(repositories);
    return new CheckpointCloseableIterableImpl.Builder<>(items)
        .setHasMore(true)
        .setCheckpoint(newCheckpoint.toBytes())
        .build();
  } catch (IOException e) {
    String errorMessage = String.format("Unable to traverse repo: %s",
        repositoryToIndex);
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

La méthode collectRepositoryItems() gère le balayage d'un seul dépôt GitHub. Cette méthode renvoie une collection de ApiOperations représentant les éléments à ajouter à la file d'attente. Les éléments sont envoyés en tant que noms de ressources associés à une valeur de hachage représentant l'état actuel de l'élément.

La valeur de hachage est utilisée lors des balayages ultérieurs des dépôts GitHub. Cette valeur permet de déterminer facilement si le contenu a été modifié sans qu'il soit nécessaire d'importer du contenu supplémentaire. Le connecteur met aveuglément tous les éléments en file d'attente. Si l'élément est nouveau ou si la valeur de hachage a changé, il peut être interrogé dans la file d'attente. Dans le cas contraire, l'élément est considéré comme non modifié.

GithubRepository.java
/**
 * Fetch IDs to  push in to the queue for all items in the repository.
 * Currently captures issues & content in the master branch.
 *
 * @param name Name of repository to index
 * @return Items to push into the queue for later indexing
 * @throws IOException if error reading issues
 */
private Collection<ApiOperation> collectRepositoryItems(String name)
    throws IOException {
  List<ApiOperation> operations = new ArrayList<>();
  GHRepository repo = github.getRepository(name);

  // Add the repository as an item to be indexed
  String metadataHash = repo.getUpdatedAt().toString();
  String resourceName = repo.getHtmlUrl().getPath();
  PushItem repositoryPushItem = new PushItem()
      .setMetadataHash(metadataHash);
  PushItems items = new PushItems.Builder()
      .addPushItem(resourceName, repositoryPushItem)
      .build();

  operations.add(items);
  // Add issues/pull requests & files
  operations.add(collectIssues(repo));
  operations.add(collectContent(repo));
  return operations;
}

Traitement de la file d'attente

Une fois le balayage complet terminé, le connecteur commence à interroger la file d'attente à la recherche d'éléments à indexer. La méthode getDoc() est appelée pour chaque élément extrait de la file d'attente. Cette méthode lit l'élément à partir de GitHub et le convertit dans la représentation appropriée pour l'indexation.

Comme le connecteur s'exécute sur des données actives pouvant être modifiées à tout moment, getDoc() vérifie également que l'élément de la file d'attente est toujours valide et supprime de l'index tous les éléments qui n'existent plus.

GithubRepository.java
/**
 * Gets a single data repository item and indexes it if required.
 *
 * <p>This method is called by the {@link ListingConnector} during a poll
 * of the Cloud Search queue. Each queued item is processed
 * individually depending on its state in the data repository.
 *
 * @param item the data repository item to retrieve
 * @return the item's state determines which type of
 * {@link ApiOperation} is returned:
 * {@link RepositoryDoc}, {@link DeleteItem}, or {@link PushItem}
 */
@Override
public ApiOperation getDoc(Item item) throws RepositoryException {
  log.info(() -> String.format("Processing item: %s ", item.getName()));
  Object githubObject;
  try {
    // Retrieve the item from GitHub
    githubObject = getGithubObject(item.getName());
    if (githubObject instanceof GHRepository) {
      return indexItem((GHRepository) githubObject, item);
    } else if (githubObject instanceof GHPullRequest) {
      return indexItem((GHPullRequest) githubObject, item);
    } else if (githubObject instanceof GHIssue) {
      return indexItem((GHIssue) githubObject, item);
    } else if (githubObject instanceof GHContent) {
      return indexItem((GHContent) githubObject, item);
    } else {
      String errorMessage = String.format("Unexpected item received: %s",
          item.getName());
      throw new RepositoryException.Builder()
          .setErrorMessage(errorMessage)
          .setErrorType(RepositoryException.ErrorType.UNKNOWN)
          .build();
    }
  } catch (FileNotFoundException e) {
    log.info(() -> String.format("Deleting item: %s ", item.getName()));
    return ApiOperations.deleteItem(item.getName());
  } catch (IOException e) {
    String errorMessage = String.format("Unable to retrieve item: %s",
        item.getName());
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

Pour chacun des objets GitHub indexés par le connecteur, la méthode indexItem() correspondante gère la création de la représentation de l'élément pour Cloud Search. Par exemple, pour créer la représentation des éléments de contenu:

GithubRepository.java
/**
 * Build the ApiOperation to index a content item (file).
 *
 * @param content      Content item to index
 * @param previousItem Previous item state in the index
 * @return ApiOperation (RepositoryDoc if indexing,  PushItem if not modified)
 * @throws IOException if unable to create operation
 */
private ApiOperation indexItem(GHContent content, Item previousItem)
    throws IOException {
  String metadataHash = content.getSha();

  // If previously indexed and unchanged, just requeue as unmodified
  if (canSkipIndexing(previousItem, metadataHash)) {
    return notModified(previousItem.getName());
  }

  String resourceName = new URL(content.getHtmlUrl()).getPath();
  FieldOrValue<String> title = FieldOrValue.withValue(content.getName());
  FieldOrValue<String> url = FieldOrValue.withValue(content.getHtmlUrl());

  String containerName = content.getOwner().getHtmlUrl().getPath();
  String programmingLanguage = FileExtensions.getLanguageForFile(content.getName());

  // Structured data based on the schema
  Multimap<String, Object> structuredData = ArrayListMultimap.create();
  structuredData.put("organization", content.getOwner().getOwnerName());
  structuredData.put("repository", content.getOwner().getName());
  structuredData.put("path", content.getPath());
  structuredData.put("language", programmingLanguage);

  Item item = IndexingItemBuilder.fromConfiguration(resourceName)
      .setTitle(title)
      .setContainerName(containerName)
      .setSourceRepositoryUrl(url)
      .setItemType(IndexingItemBuilder.ItemType.CONTAINER_ITEM)
      .setObjectType("file")
      .setValues(structuredData)
      .setVersion(Longs.toByteArray(System.currentTimeMillis()))
      .setHash(content.getSha())
      .build();

  // Index the file content too
  String mimeType = FileTypeMap.getDefaultFileTypeMap()
      .getContentType(content.getName());
  AbstractInputStreamContent fileContent = new InputStreamContent(
      mimeType, content.read())
      .setLength(content.getSize())
      .setCloseInputStream(true);
  return new RepositoryDoc.Builder()
      .setItem(item)
      .setContent(fileContent, IndexingService.ContentFormat.RAW)
      .setRequestMode(IndexingService.RequestMode.SYNCHRONOUS)
      .build();
}

Déployez ensuite l'interface de recherche.

Précédent Suivant