Connector bereitstellen

In diesem Teil des Cloud Search-Tutorials lernen Sie, wie Sie eine Datenquelle und einen Inhaltsconnector einrichten, um Daten zu indexieren. Das erste Modul des Tutorials finden Sie unter Einführung in Google Cloud Search.

Content Connector SDK herunterladen und installieren

Für das Content Connector SDK wird Maven benötigt. Falls noch nicht vorhanden, installieren Sie dieses Tool und gehen Sie dann so vor:

  1. Laden Sie das Content Connector SDK herunter.

  2. Entpacken Sie die heruntergeladene Zip-Datei über die Kommandozeile. Es wird ein Verzeichnis für das Content Connector SDK erstellt.

  3. Verwenden Sie im Verzeichnis für das Content Connector SDK die folgenden Befehle, um es vollständig zu installieren:

mvn org.apache.maven.plugins:maven-install-plugin:3.0.0-M1::install-file -DpomFile=parent/pom.xml -Dpackaging=pom -Dfile=parent/pom.xml

mvn org.apache.maven.plugins:maven-install-plugin:3.0.0-M1::install-file -Dfile=lib/google-api-services-cloudsearch-v1-rev0-1.23.0.jar

mvn org.apache.maven.plugins:maven-install-plugin:3.0.0-M1::install-file -Dfile=lib/google-cloudsearch-connector-sdk-v1-0.0.2.jar

mvn org.apache.maven.plugins:maven-install-plugin:3.0.0-M1::install-file -Dfile=google-cloudsearch-indexing-connector-sdk-v1-0.0.2.jar

Connector erstellen

Ändern Sie Ihr Arbeitsverzeichnis zu cloud-search-samples/end-to-end/connector und führen Sie den folgenden Befehl aus:

mvn package -DskipTests

Mit diesem Befehl werden die Abhängigkeiten heruntergeladen, die benötigt werden, um den Inhaltsconnector zu erstellen, und der Code wird kompiliert.

Anmeldedaten für den Connector erstellen

Damit Cloud Search APIs vom Connector aufgerufen werden können, sind Anmeldedaten für das Dienstkonto erforderlich. Diese werden folgendermaßen erstellt:

  1. Gehen Sie in der Entwicklerkonsole zur Seite "Dienstkontoschlüssel erstellen" oder klicken Sie auf folgenden Link:

    Seite "Schlüssel für Dienstkonto erstellen" aufrufen

  2. Wählen Sie unter Dienstkonto den Eintrag New Service Account aus, um ein neues Konto zu erstellen.
  3. Geben Sie tutorial als Name des Dienstkontos ein.
  4. Notieren Sie sich den Eintrag im Feld Dienstkonto-ID. Sie benötigen ihn später.
  5. Übernehmen Sie die anderen Felder unverändert.
  6. Klicken Sie auf Erstellen.
  7. Klicken Sie auf Ohne Rolle erstellen.

Notieren Sie sich den Speicherort der heruntergeladenen Datei. Sie wird benötigt, um den Inhaltsconnector für die Selbstauthentifizierung beim Aufrufen der Cloud Search APIs zu konfigurieren.

Datenquelle erstellen

Als Nächstes erstellen Sie in der Admin-Konsole eine Datenquelle. Sie stellt einen Namespace für die Datenindexierung durch den Connector bereit.

  1. Gehen Sie in der Admin-Konsole zur Seite "Datenquellen von Drittanbietern" oder klicken Sie auf den folgenden Link:

    Seite "Datenquellen von Drittanbietern" aufrufen

  2. Klicken Sie auf +, um eine Datenquelle zu erstellen.
  3. Geben Sie tutorial als Anzeigename an.
  4. Geben Sie unter E-Mail-Adressen des Dienstkontos die E-Mail-Adresse des zuvor erstellen Dienstkontos ein. Sie finden die Adresse bei Bedarf auf der Seite Dienstkonten.
  5. Klicken Sie auf Hinzufügen, um die Datenquelle zu erstellen.

Notieren Sie sich die Quellen-ID der neu erstellten Datenquelle. Sie wird benötigt, um den Inhaltsconnector zu konfigurieren.

Persönliches Zugriffstoken für die GitHub API erstellen

Für ein ausreichendes Kontingent des Connectors wird authentifizierter Zugriff auf die GitHub API benötigt. Der Einfachheit halber werden für den Connector persönliche Zugriffstokens anstelle von OAuth verwendet. Diese ermöglichen die Authentifizierung als Nutzer mit einer begrenzten Zahl an Berechtigungen, ähnlich wie bei OAuth.

  1. Melden Sie sich über folgenden Link in GitHub an, um ein Token zu erstellen:

    New personal access token (Neues persönliches Zugriffstoken)

  2. Geben Sie im Feld Token description (Beschreibung des Tokens) Cloud Search tutorial ein.
  3. Wählen Sie den Bereich public_repo.
  4. Klicken Sie auf Create token (Token erstellen).

Notieren Sie sich das erstellte Token. Es wird vom Connector verwendet, um die GitHub APIs aufzurufen, und stellt ein API-Kontingent für die Indexierung zur Verfügung.

Connector konfigurieren

Nachdem Sie die Anmeldedaten und die Datenquelle erstellt haben, aktualisieren Sie die Konfiguration des Connectors mit den folgenden Werten:

  1. Öffnen Sie die Datei sample-config.properties in einem Texteditor.
  2. Geben Sie als Wert für den Parameter api.serviceAccountPrivateKeyFile den Dateipfad der Anmeldedaten ein, die Sie vorher heruntergeladen haben.
  3. Geben Sie als Wert für den Parameter api.sourceId die ID der erstellten Datenquelle ein.
  4. Geben Sie als Wert für den Parameter github.user die GitHub Nutzer-ID ein.
  5. Geben Sie als Wert für den Parameter github.token das zuvor erstellte Zugriffstoken ein.
  6. Speichern Sie die Datei.

Schema aktualisieren

Sowohl strukturierter als auch unstrukturierter Inhalt kann vom Connector indexiert werden. Davor muss jedoch das Schema für die Datenquelle aktualisiert werden. Führen Sie dazu den folgenden Befehl aus:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.SchemaTool \
    -Dexec.args="-Dconfig=sample-config.properties"

Connector ausführen

Mit folgendem Befehl starten Sie den Connector und beginnen mit der Indexierung:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.GithubConnector \
    -Dexec.args="-Dconfig=sample-config.properties"

In der Standardkonfiguration wird vom Connector ein einzelnes Repository in der Organisation gsuitedevs indexiert. Dies dauert etwa eine Minute. Lassen Sie den Connector im Hintergrund laufen.

Den Code verstehen

In den verbleibenden Abschnitten erfahren Sie, wie der Connector aufgebaut ist.

Anwendung starten

Der Einstiegspunkt für den Connector ist die Klasse GithubConnector. Die Klasse IndexingApplication des SDK wird von der Methode main instanziiert und gestartet.

GithubConnector.java
/**
 * Main entry point for the connector. Creates and starts an indexing
 * application using the {@code ListingConnector} template and the sample's
 * custom {@code Repository} implementation.
 *
 * @param args program command line arguments
 * @throws InterruptedException thrown if an abort is issued during initialization
 */
public static void main(String[] args) throws InterruptedException {
  Repository repository = new GithubRepository();
  IndexingConnector connector = new ListingConnector(repository);
  IndexingApplication application = new IndexingApplication.Builder(connector, args)
      .build();
  application.start();
}

Mit dem vom SDK bereitgestellten ListingConnector wird eine Durchlaufstrategie implementiert, bei der Cloud Search-Warteschlangen verwendet werden, um den Status von Elementen im Index nachzuverfolgen. Er delegiert außerdem an den vom Beispielconnector implementierten GithubRepository, um Zugriff auf Inhalte in GitHub zu gewähren.

GitHub-Repositories durchlaufen

Bei Durchläufen mit vollständiger Indexierung (Full Traversal) wird die Methode getIds() aufgerufen, um zu indexierende Elemente in die Warteschlange zu verschieben.

Mit dem Connector können mehrere Repositories oder Organisationen indexiert werden. Es finden jedoch nie mehrere Durchläufe gleichzeitig statt, um das Risiko von Fehlern zu minimieren. Ein Prüfpunkt wird zurückgegeben, bei dem in den Ergebnissen des Durchlaufs die Liste mit Repositories enthalten ist, die durch weitere Aufrufe von getIds() indexiert werden sollen. Wenn ein Fehler auftritt, wird die Indexierung im aktuellen Repository fortgesetzt, anstatt noch einmal von vorne zu beginnen.

GithubRepository.java
/**
 * Gets all of the existing item IDs from the data repository. While
 * multiple repositories are supported, only one repository is traversed
 * per call. The remaining repositories are saved in the checkpoint
 * are traversed on subsequent calls. This minimizes the amount of
 * data that needs to be reindex in the event of an error.
 *
 * <p>This method is called by {@link ListingConnector#traverse()} during
 * <em>full traversals</em>. Every document ID and metadata hash value in
 * the <em>repository</em> is pushed to the Cloud Search queue. Each pushed
 * document is later polled and processed in the {@link #getDoc(Item)} method.
 * <p>
 * The metadata hash values are pushed to aid document change detection. The
 * queue sets the document status depending on the hash comparison. If the
 * pushed ID doesn't yet exist in Cloud Search, the document's status is
 * set to <em>new</em>. If the ID exists but has a mismatched hash value,
 * its status is set to <em>modified</em>. If the ID exists and matches
 * the hash value, its status is unchanged.
 *
 * <p>In every case, the pushed content hash value is only used for
 * comparison. The hash value is only set in the queue during an
 * update (see {@link #getDoc(Item)}).
 *
 * @param checkpoint value defined and maintained by this connector
 * @return this is typically a {@link PushItems} instance
 */
@Override
public CheckpointCloseableIterable<ApiOperation> getIds(byte[] checkpoint)
    throws RepositoryException {
  List<String> repositories;
  // Decode the checkpoint if present to get the list of remaining
  // repositories to index.
  if (checkpoint != null) {
    try {
      FullTraversalCheckpoint decodedCheckpoint = FullTraversalCheckpoint
          .fromBytes(checkpoint);
      repositories = decodedCheckpoint.getRemainingRepositories();
    } catch (IOException e) {
      throw new RepositoryException.Builder()
          .setErrorMessage("Unable to deserialize checkpoint")
          .setCause(e)
          .build();
    }
  } else {
    // No previous checkpoint, scan for repositories to index
    // based on the connector configuration.
    try {
      repositories = scanRepositories();
    } catch (IOException e) {
      throw toRepositoryError(e, Optional.of("Unable to scan repositories"));
    }
  }

  if (repositories.isEmpty()) {
    // Nothing left to index. Reset the checkpoint to null so the
    // next full traversal starts from the beginning
    Collection<ApiOperation> empty = Collections.emptyList();
    return new CheckpointCloseableIterableImpl.Builder<>(empty)
        .setCheckpoint((byte[]) null)
        .setHasMore(false)
        .build();
  }

  // Still have more repositories to index. Pop the next repository to
  // index off the list. The remaining repositories make up the next
  // checkpoint.
  String repositoryToIndex = repositories.get(0);
  repositories = repositories.subList(1, repositories.size());

  try {
    log.info(() -> String.format("Traversing repository %s", repositoryToIndex));
    Collection<ApiOperation> items = collectRepositoryItems(repositoryToIndex);
    FullTraversalCheckpoint newCheckpoint = new FullTraversalCheckpoint(repositories);
    return new CheckpointCloseableIterableImpl.Builder<>(items)
        .setHasMore(true)
        .setCheckpoint(newCheckpoint.toBytes())
        .build();
  } catch (IOException e) {
    String errorMessage = String.format("Unable to traverse repo: %s",
        repositoryToIndex);
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

Wenn ein einzelnes GitHub-Repository durchlaufen wird, kommt die Methode collectRepositoryItems() zum Einsatz. Bei dieser wird eine Sammlung von ApiOperations zurückgegeben, die die Elemente darstellt, die in die Warteschlange verschoben werden. Elemente werden als Ressourcenname und als Hashwert verschoben. Der Hashwert repräsentiert den aktuellen Status des Elements.

Er wird für die nachfolgenden Durchläufe in den GitHub-Repositories verwendet. So können Sie überprüfen, ob sich der Inhalt geändert hat, ohne dass zusätzlicher Inhalt hochgeladen werden muss. Alle Elemente werden vom Connector blindlings in die Warteschlange verschoben. Wenn ein Element neu ist oder sich der Hashwert geändert hat, wird es in der Warteschlange für Abfragen verfügbar gemacht. Andernfalls gilt das Element als unverändert.

GithubRepository.java
/**
 * Fetch IDs to  push in to the queue for all items in the repository.
 * Currently captures issues & content in the master branch.
 *
 * @param name Name of repository to index
 * @return Items to push into the queue for later indexing
 * @throws IOException if error reading issues
 */
private Collection<ApiOperation> collectRepositoryItems(String name)
    throws IOException {
  List<ApiOperation> operations = new ArrayList<>();
  GHRepository repo = github.getRepository(name);

  // Add the repository as an item to be indexed
  String metadataHash = repo.getUpdatedAt().toString();
  String resourceName = repo.getHtmlUrl().getPath();
  PushItem repositoryPushItem = new PushItem()
      .setMetadataHash(metadataHash);
  PushItems items = new PushItems.Builder()
      .addPushItem(resourceName, repositoryPushItem)
      .build();

  operations.add(items);
  // Add issues/pull requests & files
  operations.add(collectIssues(repo));
  operations.add(collectContent(repo));
  return operations;
}

Warteschlangenverarbeitung

Nach dem vollständigen Durchlauf werden vom Connector Elemente in der Warteschlange abgefragt, die indexiert werden müssen. Für jedes Element, das aus der Warteschlange genommen wird, wird die Methode getDoc() aufgerufen. Das Element wird durch sie aus GitHub ausgelesen und in die für die Indexierung geeignete Darstellung konvertiert.

Da der Connector für Livedaten ausgeführt wird, die sich jederzeit ändern können, wird von getDoc() auch überprüft, ob die Elemente in der Warteschlange noch gültig sind. Nicht mehr bestehende Elemente werden aus dem Index gelöscht.

GithubRepository.java
/**
 * Gets a single data repository item and indexes it if required.
 *
 * <p>This method is called by the {@link ListingConnector} during a poll
 * of the Cloud Search queue. Each queued item is processed
 * individually depending on its state in the data repository.
 *
 * @param item the data repository item to retrieve
 * @return the item's state determines which type of
 * {@link ApiOperation} is returned:
 * {@link RepositoryDoc}, {@link DeleteItem}, or {@link PushItem}
 */
@Override
public ApiOperation getDoc(Item item) throws RepositoryException {
  log.info(() -> String.format("Processing item: %s ", item.getName()));
  Object githubObject;
  try {
    // Retrieve the item from GitHub
    githubObject = getGithubObject(item.getName());
    if (githubObject instanceof GHRepository) {
      return indexItem((GHRepository) githubObject, item);
    } else if (githubObject instanceof GHPullRequest) {
      return indexItem((GHPullRequest) githubObject, item);
    } else if (githubObject instanceof GHIssue) {
      return indexItem((GHIssue) githubObject, item);
    } else if (githubObject instanceof GHContent) {
      return indexItem((GHContent) githubObject, item);
    } else {
      String errorMessage = String.format("Unexpected item received: %s",
          item.getName());
      throw new RepositoryException.Builder()
          .setErrorMessage(errorMessage)
          .setErrorType(RepositoryException.ErrorType.UNKNOWN)
          .build();
    }
  } catch (FileNotFoundException e) {
    log.info(() -> String.format("Deleting item: %s ", item.getName()));
    return ApiOperations.deleteItem(item.getName());
  } catch (IOException e) {
    String errorMessage = String.format("Unable to retrieve item: %s",
        item.getName());
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

Wie die einzelnen vom Connector indexierten GitHub-Elemente in Cloud Search dargestellt werden, ist durch die zugehörige Methode indexItem() festgelegt. Für die Darstellung von Inhaltselementen sieht der Code z. B. so aus:

GithubRepository.java
/**
 * Build the ApiOperation to index a content item (file).
 *
 * @param content      Content item to index
 * @param previousItem Previous item state in the index
 * @return ApiOperation (RepositoryDoc if indexing,  PushItem if not modified)
 * @throws IOException if unable to create operation
 */
private ApiOperation indexItem(GHContent content, Item previousItem)
    throws IOException {
  String metadataHash = content.getSha();

  // If previously indexed and unchanged, just requeue as unmodified
  if (canSkipIndexing(previousItem, metadataHash)) {
    return notModified(previousItem.getName());
  }

  String resourceName = new URL(content.getHtmlUrl()).getPath();
  FieldOrValue<String> title = FieldOrValue.withValue(content.getName());
  FieldOrValue<String> url = FieldOrValue.withValue(content.getHtmlUrl());

  String containerName = content.getOwner().getHtmlUrl().getPath();
  String programmingLanguage = FileExtensions.getLanguageForFile(content.getName());

  // Structured data based on the schema
  Multimap<String, Object> structuredData = ArrayListMultimap.create();
  structuredData.put("organization", content.getOwner().getOwnerName());
  structuredData.put("repository", content.getOwner().getName());
  structuredData.put("path", content.getPath());
  structuredData.put("language", programmingLanguage);

  Item item = IndexingItemBuilder.fromConfiguration(resourceName)
      .setTitle(title)
      .setContainerName(containerName)
      .setSourceRepositoryUrl(url)
      .setItemType(IndexingItemBuilder.ItemType.CONTAINER_ITEM)
      .setObjectType("file")
      .setValues(structuredData)
      .setVersion(Longs.toByteArray(System.currentTimeMillis()))
      .setHash(content.getSha())
      .build();

  // Index the file content too
  String mimeType = FileTypeMap.getDefaultFileTypeMap()
      .getContentType(content.getName());
  AbstractInputStreamContent fileContent = new InputStreamContent(
      mimeType, content.read())
      .setLength(content.getSize())
      .setCloseInputStream(true);
  return new RepositoryDoc.Builder()
      .setItem(item)
      .setContent(fileContent, IndexingService.ContentFormat.RAW)
      .setRequestMode(IndexingService.RequestMode.SYNCHRONOUS)
      .build();
}

Im nächsten Schritt stellen Sie die Suchoberfläche bereit.

Zurück Weiter