Implementar el conector

En esta página del tutorial de Cloud Search se muestra cómo configurar una fuente de datos y un conector de contenido para indexar datos. Si quieres empezar desde el principio, consulta el tutorial de introducción de Cloud Search.

Descargar e instalar el SDK Content Connector

Si quieres instalar el SDK Content Connector, deberás tener Maven en el ordenador. Sigue este procedimiento para instalarlo:

  1. Descarga el SDK Content Connector.

  2. Desde la línea de comandos, descomprime el archivo de descarga. Se creará un directorio del SDK Content Connector.

  3. En ese directorio, usa los comandos siguientes para instalar los distintos componentes del SDK:

mvn org.apache.maven.plugins:maven-install-plugin:3.0.0-M1::install-file -DpomFile=parent/pom.xml -Dpackaging=pom -Dfile=parent/pom.xml

mvn org.apache.maven.plugins:maven-install-plugin:3.0.0-M1::install-file -Dfile=lib/google-api-services-cloudsearch-v1-rev0-1.23.0.jar

mvn org.apache.maven.plugins:maven-install-plugin:3.0.0-M1::install-file -Dfile=lib/google-cloudsearch-connector-sdk-v1-0.0.2.jar

mvn org.apache.maven.plugins:maven-install-plugin:3.0.0-M1::install-file -Dfile=google-cloudsearch-indexing-connector-sdk-v1-0.0.2.jar

Compilar el conector

Cambia tu directorio de trabajo a cloud-search-samples/end-to-end/connector y ejecuta este comando:

mvn package -DskipTests

El comando descarga las dependencias necesarias para crear el conector de contenido y compila el código.

Crear las credenciales del conector

El conector necesita las credenciales de la cuenta de servicio para hacer llamadas a las API de Cloud Search. Para crear las credenciales:

  1. En la consola de desarrollo, ve a la página Crear clave de cuenta de servicio.

    Ir a la página Crear clave de cuenta de servicio

  2. En Cuenta de servicio, selecciona Nueva cuenta de servicio (New Service Account) para crear una cuenta.
  3. En Nombre de cuenta de servicio, introduce tutorial.
  4. Anota el valor de ID de cuenta de servicio. Lo necesitarás más adelante.
  5. Deja los demás campos como aparecen.
  6. Haz clic en Crear.
  7. Haz clic en Crear sin rol.

Anota la ubicación del archivo que se ha descargado. Se utilizará para configurar el conector de contenido de modo que pueda autenticarse al hacer llamadas a las API de Cloud Search.

Crear la fuente de datos

A continuación, en la consola de administración, crea una fuente de datos, que proporcionará un espacio de nombres para que el conector indexe el contenido.

  1. En la consola de administración, ve a la página Fuentes de datos de terceros.

    Ir a la página Fuentes de datos de terceros

  2. Haz clic en el botón + para crear una fuente de datos.
  3. En el campo Nombre visible, introduce tutorial.
  4. En Direcciones de correo electrónico de la cuenta de servicio, introduce la dirección que has creado en la sección anterior. Si no la conoces, búscala en la página Cuentas de servicio.
  5. Haz clic en Añadir para crear la fuente de datos.

Anota el ID de la fuente de datos que acabas de crear. Se utilizará para configurar el conector de contenido.

Crear un token de acceso personal para la API de GitHub

El conector requiere acceso autenticado a la API de GitHub para tener una cuota suficiente. Para simplificar la tarea, el conector utiliza tokens de acceso personales en lugar de OAuth. Los tokens personales permiten la autenticación como usuario con un conjunto limitado de permisos similares a OAuth.

  1. Inicia sesión en GitHub para crear un token.

    Ir a la página New personal access token (Nuevo token de acceso personal)

  2. En el campo Token description (Descripción del token), introduce Cloud Search tutorial.
  3. Selecciona el alcance public_repo.
  4. Haz clic en Create token (Crear token).

Anota el token que se ha generado. El conector lo utilizará para hacer una llamada a las API de GitHub y proporcionará una cuota de API para realizar la indexación.

Configurar el conector

Una vez que hayas creado las credenciales y la fuente de datos, actualiza la configuración del conector para incluir estos valores:

  1. Abre el archivo sample-config.properties con un editor de texto.
  2. Define el parámetro api.serviceAccountPrivateKeyFile en la ruta del archivo de las credenciales que has descargado anteriormente.
  3. Define el parámetro api.sourceId en el ID de la fuente de datos que has creado.
  4. Define el parámetro github.user en tu ID de usuario de GitHub.
  5. Define el parámetro github.token en el token de acceso que has creado anteriormente.
  6. Guarda el archivo.

Actualizar el esquema

El conector indexa contenido estructurado y no estructurado. Antes de indexar los datos, debes actualizar el esquema de la fuente de datos. Para ello, ejecuta el siguiente comando:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.SchemaTool \
    -Dexec.args="-Dconfig=sample-config.properties"

Ejecutar el conector

Para ejecutar el conector y comenzar la indexación, utiliza este comando:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.GithubConnector \
    -Dexec.args="-Dconfig=sample-config.properties"

Con la configuración predeterminada del conector, se indexa solo un repositorio en la organización gsuitedevs. La indexación del repositorio tarda aproximadamente un minuto. Deja que el conector se ejecute en segundo plano.

Comprender el código

En las demás secciones se examinará cómo se crea el conector.

Iniciar la aplicación

El punto de entrada al conector es la clase GithubConnector. El método main crea una instancia de IndexingApplication del SDK y lo inicia.

GithubConnector.java
/**
 * Main entry point for the connector. Creates and starts an indexing
 * application using the {@code ListingConnector} template and the sample's
 * custom {@code Repository} implementation.
 *
 * @param args program command line arguments
 * @throws InterruptedException thrown if an abort is issued during initialization
 */
public static void main(String[] args) throws InterruptedException {
  Repository repository = new GithubRepository();
  IndexingConnector connector = new ListingConnector(repository);
  IndexingApplication application = new IndexingApplication.Builder(connector, args)
      .build();
  application.start();
}

El elemento ListingConnector proporcionado por el SDK implementa una estrategia de barrido que utiliza las colas de Cloud Search para hacer un seguimiento del estado de los elementos del índice. Delega en GithubRepository, implementado por el conector de muestra, para acceder al contenido desde GitHub.

Barrido de los repositorios de GitHub

En los barridos completos, se realiza una llamada al método getIds() para enviar los elementos que puede que necesiten indexarse en la cola.

El conector puede indexar varios repositorios u organizaciones. Para minimizar los efectos de un posible fallo, se hace un barrido de un repositorio de GitHub cada vez. A continuación, se devuelve un punto de control con los resultados del barrido, que contiene la lista de repositorios que se indexarán en las siguientes llamadas a getIds(). Si se produce un error, la indexación se reanudará en el repositorio actual en lugar de comenzar desde el principio.

GithubRepository.java
/**
 * Gets all of the existing item IDs from the data repository. While
 * multiple repositories are supported, only one repository is traversed
 * per call. The remaining repositories are saved in the checkpoint
 * are traversed on subsequent calls. This minimizes the amount of
 * data that needs to be reindex in the event of an error.
 *
 * <p>This method is called by {@link ListingConnector#traverse()} during
 * <em>full traversals</em>. Every document ID and metadata hash value in
 * the <em>repository</em> is pushed to the Cloud Search queue. Each pushed
 * document is later polled and processed in the {@link #getDoc(Item)} method.
 * <p>
 * The metadata hash values are pushed to aid document change detection. The
 * queue sets the document status depending on the hash comparison. If the
 * pushed ID doesn't yet exist in Cloud Search, the document's status is
 * set to <em>new</em>. If the ID exists but has a mismatched hash value,
 * its status is set to <em>modified</em>. If the ID exists and matches
 * the hash value, its status is unchanged.
 *
 * <p>In every case, the pushed content hash value is only used for
 * comparison. The hash value is only set in the queue during an
 * update (see {@link #getDoc(Item)}).
 *
 * @param checkpoint value defined and maintained by this connector
 * @return this is typically a {@link PushItems} instance
 */
@Override
public CheckpointCloseableIterable<ApiOperation> getIds(byte[] checkpoint)
    throws RepositoryException {
  List<String> repositories;
  // Decode the checkpoint if present to get the list of remaining
  // repositories to index.
  if (checkpoint != null) {
    try {
      FullTraversalCheckpoint decodedCheckpoint = FullTraversalCheckpoint
          .fromBytes(checkpoint);
      repositories = decodedCheckpoint.getRemainingRepositories();
    } catch (IOException e) {
      throw new RepositoryException.Builder()
          .setErrorMessage("Unable to deserialize checkpoint")
          .setCause(e)
          .build();
    }
  } else {
    // No previous checkpoint, scan for repositories to index
    // based on the connector configuration.
    try {
      repositories = scanRepositories();
    } catch (IOException e) {
      throw toRepositoryError(e, Optional.of("Unable to scan repositories"));
    }
  }

  if (repositories.isEmpty()) {
    // Nothing left to index. Reset the checkpoint to null so the
    // next full traversal starts from the beginning
    Collection<ApiOperation> empty = Collections.emptyList();
    return new CheckpointCloseableIterableImpl.Builder<>(empty)
        .setCheckpoint((byte[]) null)
        .setHasMore(false)
        .build();
  }

  // Still have more repositories to index. Pop the next repository to
  // index off the list. The remaining repositories make up the next
  // checkpoint.
  String repositoryToIndex = repositories.get(0);
  repositories = repositories.subList(1, repositories.size());

  try {
    log.info(() -> String.format("Traversing repository %s", repositoryToIndex));
    Collection<ApiOperation> items = collectRepositoryItems(repositoryToIndex);
    FullTraversalCheckpoint newCheckpoint = new FullTraversalCheckpoint(repositories);
    return new CheckpointCloseableIterableImpl.Builder<>(items)
        .setHasMore(true)
        .setCheckpoint(newCheckpoint.toBytes())
        .build();
  } catch (IOException e) {
    String errorMessage = String.format("Unable to traverse repo: %s",
        repositoryToIndex);
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

El método collectRepositoryItems() gestiona el barrido de un solo repositorio de GitHub. Este método devuelve una colección de ApiOperations que muestra los elementos que se envían a la cola con un nombre de recurso y un valor de hash que representa el estado actual del elemento.

El valor de hash se utilizará en barridos posteriores de los repositorios de GitHub. Proporcionará una prueba ligera para determinar si el contenido ha cambiado sin tener que subir más contenido. El conector pone todos los elementos en cola de forma indiscriminada. Si el elemento es nuevo o el valor de hash ha cambiado, estará disponible en la cola para su consulta. De lo contrario, el elemento se considerará no modificado.

GithubRepository.java
/**
 * Fetch IDs to  push in to the queue for all items in the repository.
 * Currently captures issues & content in the master branch.
 *
 * @param name Name of repository to index
 * @return Items to push into the queue for later indexing
 * @throws IOException if error reading issues
 */
private Collection<ApiOperation> collectRepositoryItems(String name)
    throws IOException {
  List<ApiOperation> operations = new ArrayList<>();
  GHRepository repo = github.getRepository(name);

  // Add the repository as an item to be indexed
  String metadataHash = repo.getUpdatedAt().toString();
  String resourceName = repo.getHtmlUrl().getPath();
  PushItem repositoryPushItem = new PushItem()
      .setMetadataHash(metadataHash);
  PushItems items = new PushItems.Builder()
      .addPushItem(resourceName, repositoryPushItem)
      .build();

  operations.add(items);
  // Add issues/pull requests & files
  operations.add(collectIssues(repo));
  operations.add(collectContent(repo));
  return operations;
}

Procesar la cola

Una vez que haya finalizado el barrido completo, el conector empieza a buscar en la cola los elementos que deben indexarse. Se realiza una llamada al método getDoc() por cada elemento extraído de la cola. Este método lee el elemento de GitHub y lo convierte en la representación adecuada para realizar la indexación.

Como el conector se ejecuta con datos en tiempo real que pueden cambiar en cualquier momento, getDoc() también verifica que el elemento en la cola sigue siendo válido y elimina cualquier elemento del índice que ya no exista.

GithubRepository.java
/**
 * Gets a single data repository item and indexes it if required.
 *
 * <p>This method is called by the {@link ListingConnector} during a poll
 * of the Cloud Search queue. Each queued item is processed
 * individually depending on its state in the data repository.
 *
 * @param item the data repository item to retrieve
 * @return the item's state determines which type of
 * {@link ApiOperation} is returned:
 * {@link RepositoryDoc}, {@link DeleteItem}, or {@link PushItem}
 */
@Override
public ApiOperation getDoc(Item item) throws RepositoryException {
  log.info(() -> String.format("Processing item: %s ", item.getName()));
  Object githubObject;
  try {
    // Retrieve the item from GitHub
    githubObject = getGithubObject(item.getName());
    if (githubObject instanceof GHRepository) {
      return indexItem((GHRepository) githubObject, item);
    } else if (githubObject instanceof GHPullRequest) {
      return indexItem((GHPullRequest) githubObject, item);
    } else if (githubObject instanceof GHIssue) {
      return indexItem((GHIssue) githubObject, item);
    } else if (githubObject instanceof GHContent) {
      return indexItem((GHContent) githubObject, item);
    } else {
      String errorMessage = String.format("Unexpected item received: %s",
          item.getName());
      throw new RepositoryException.Builder()
          .setErrorMessage(errorMessage)
          .setErrorType(RepositoryException.ErrorType.UNKNOWN)
          .build();
    }
  } catch (FileNotFoundException e) {
    log.info(() -> String.format("Deleting item: %s ", item.getName()));
    return ApiOperations.deleteItem(item.getName());
  } catch (IOException e) {
    String errorMessage = String.format("Unable to retrieve item: %s",
        item.getName());
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

Con cada objeto de GitHub que el conector indexe, el método indexItem() correspondiente gestionará cómo crear la representación del elemento en Cloud Search. Por ejemplo, para generar la representación de elementos de contenido:

GithubRepository.java
/**
 * Build the ApiOperation to index a content item (file).
 *
 * @param content      Content item to index
 * @param previousItem Previous item state in the index
 * @return ApiOperation (RepositoryDoc if indexing,  PushItem if not modified)
 * @throws IOException if unable to create operation
 */
private ApiOperation indexItem(GHContent content, Item previousItem)
    throws IOException {
  String metadataHash = content.getSha();

  // If previously indexed and unchanged, just requeue as unmodified
  if (canSkipIndexing(previousItem, metadataHash)) {
    return notModified(previousItem.getName());
  }

  String resourceName = new URL(content.getHtmlUrl()).getPath();
  FieldOrValue<String> title = FieldOrValue.withValue(content.getName());
  FieldOrValue<String> url = FieldOrValue.withValue(content.getHtmlUrl());

  String containerName = content.getOwner().getHtmlUrl().getPath();
  String programmingLanguage = FileExtensions.getLanguageForFile(content.getName());

  // Structured data based on the schema
  Multimap<String, Object> structuredData = ArrayListMultimap.create();
  structuredData.put("organization", content.getOwner().getOwnerName());
  structuredData.put("repository", content.getOwner().getName());
  structuredData.put("path", content.getPath());
  structuredData.put("language", programmingLanguage);

  Item item = IndexingItemBuilder.fromConfiguration(resourceName)
      .setTitle(title)
      .setContainerName(containerName)
      .setSourceRepositoryUrl(url)
      .setItemType(IndexingItemBuilder.ItemType.CONTAINER_ITEM)
      .setObjectType("file")
      .setValues(structuredData)
      .setVersion(Longs.toByteArray(System.currentTimeMillis()))
      .setHash(content.getSha())
      .build();

  // Index the file content too
  String mimeType = FileTypeMap.getDefaultFileTypeMap()
      .getContentType(content.getName());
  AbstractInputStreamContent fileContent = new InputStreamContent(
      mimeType, content.read())
      .setLength(content.getSize())
      .setCloseInputStream(true);
  return new RepositoryDoc.Builder()
      .setItem(item)
      .setContent(fileContent, IndexingService.ContentFormat.RAW)
      .setRequestMode(IndexingService.RequestMode.SYNCHRONOUS)
      .build();
}

A continuación, implementa la interfaz de búsqueda.

Anterior Siguiente