Déployer le connecteur

Cette page du tutoriel de Cloud Search montre comment configurer une source de données et un connecteur de contenu en vue d'indexer les données. Pour commencer ce guide depuis le début, reportez-vous au tutoriel de mise en route de Cloud Search.

Créer le connecteur

Remplacez votre répertoire de travail par le répertoire cloud-search-samples/end-to-end/connector et exécutez cette commande:

mvn package -DskipTests

Cette commande télécharge les dépendances requises pour la construction du connecteur de contenu et compile le code.

Créer les identifiants du compte de service

Le connecteur requiert les identifiants du compte de service pour appeler les API Cloud Search. Pour créer les identifiants:

  1. Revenez à la console Google Cloud.
  2. Dans le volet de navigation de gauche, cliquez sur Identifiants. La page "Identifiants" s'affiche.
  3. Cliquez sur la liste déroulante + CRÉER DES IDENTIFIANTS, puis sélectionnez Compte de service. La page "Créer un compte de service" s'affiche.
  4. Dans le champ Nom du compte de service, saisissez "tutoriel".
  5. Notez la valeur de l'ID du compte de service (juste après le nom du compte de service). Cette valeur sera utilisée ultérieurement.
  6. Cliquez sur CRÉER. La boîte de dialogue "Autorisations de compte de service (facultatif)" s'affiche.
  7. Cliquez sur CONTINUER. La boîte de dialogue "Autoriser les utilisateurs à accéder à ce compte de service (facultatif)" s'affiche.
  8. Cliquez sur OK. L'écran "Identifiants" s'affiche.
  9. Sous "Comptes de service", cliquez sur l'adresse e-mail du compte de service. La page "Détails du compte de service" s'affiche.
  10. Sous "Clés", cliquez sur la liste déroulante AJOUTER UNE CLÉ et sélectionnez Créer une clé. La boîte de dialogue "Créer une clé privée" s'affiche.
  11. Cliquez sur CRÉER.
  12. (Facultatif) Si le message "Voulez-vous autoriser les téléchargements sur console.cloud.google.com ?" s'affiche, cliquez sur Autoriser.
  13. Un fichier de clé privée est enregistré sur votre ordinateur. Notez son emplacement. Ce fichier vous permet de configurer le connecteur de contenu de sorte qu'il puisse s'authentifier lors des appels aux API Google Cloud Search.

Initialiser la compatibilité tierce

Avant de pouvoir appeler d'autres API Cloud Search, vous devez initialiser la compatibilité tierce pour Google Cloud Search.

Pour initialiser la compatibilité tierce avec Cloud Search:

  1. Votre projet Cloud Search Platform contient les identifiants du compte de service. Toutefois, dans le but d'initialiser la compatibilité tierce, vous devez créer des identifiants d'application Web. Pour savoir comment créer des identifiants d'application Web, consultez l'article Créer des identifiants. Une fois cette étape terminée, vous devez disposer d'un fichier d'ID client et de code secret du client.

  2. Utilisez OAuth 2 Playground de Google pour obtenir un jeton d'accès:

    1. Cliquez sur le bouton des paramètres, puis cochez la case Use your own auth credentials (Utiliser vos propres identifiants d'autorisation).
    2. Saisissez l'ID client et le code secret du client de l'étape 1.
    3. Cliquez sur Fermer.
    4. Dans le champ "Champs d'application", saisissez https://www.googleapis.com/auth/cloud_search.settings, puis cliquez sur le bouton Authorize (Autoriser). OAuth 2 Playground renvoie un code d'autorisation.
    5. Cliquez sur Exchange authorization code for tokens (Échanger le code d'autorisation contre des jetons). Un jeton est renvoyé.
  3. Pour initialiser la compatibilité tierce avec Cloud Search, utilisez la commande curl suivante. Veillez à remplacer [YOUR_ACCESS_TOKEN] par le jeton obtenu à l'étape 2.

    curl --request POST \
    'https://cloudsearch.googleapis.com/v1:initializeCustomer' \
      --header 'Authorization: Bearer [YOUR_ACCESS_TOKEN]' \
      --header 'Accept: application/json' \
      --header 'Content-Type: application/json' \
      --data '{}' \
      --compressed
    

    Si la requête aboutit, le corps de la réponse contient une instance d'operation. Exemple :

    {
    name: "operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY"
    }
    

    Si la requête échoue, contactez l'assistance Cloud Search.

  4. Utilisez operations.get pour vérifier que la compatibilité tierce est initialisée:

    curl \
    'https://cloudsearch.googleapis.com/v1/operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY?key=
    [YOUR_API_KEY]' \
    --header 'Authorization: Bearer [YOUR_ACCESS_TOKEN]' \
    --header 'Accept: application/json' \
    --compressed
    

    Lorsque la compatibilité tierce est activée, le champ done est défini sur true. Exemple :

    {
    name: "operations/customers/01b3fqdm/lro/AOIL6eBv7fEfiZ_hUSpm8KQDt1Mnd6dj5Ru3MXf-jri4xK6Pyb2-Lwfn8vQKg74pgxlxjrY"
    done: true
    }
    

Créer la source de données

Créez ensuite une source de données dans la console d'administration. La source de données fournit un espace de noms pour l'indexation du contenu par le connecteur.

  1. Ouvrez la console d'administration Google.
  2. Cliquez sur l'icône Applications. La page "Administration des applications" s'affiche.
  3. Cliquez sur Google Workspace. La page "Apps Google Workspace administration" (Administration des applications Google Workspace) s'affiche.
  4. Faites défiler la page et cliquez sur Cloud Search. La page "Settings for Google Workspace" (Paramètres de Google Workspace) s'affiche.
  5. Cliquez sur Sources de données tierces. La page "Sources de données" s'affiche.
  6. Cliquez sur le signe + jaune. La boîte de dialogue d'ajout d'une source de données s'affiche.
  7. Dans le champ Nom à afficher, saisissez "tutoriel".
  8. Dans le champ Adresses e-mail du compte de service, saisissez l'adresse e-mail du compte de service que vous avez créé à la section précédente. Si vous ne connaissez pas cette adresse, recherchez-la sur la page Comptes de service.
  9. Cliquez sur AJOUTER. La boîte de dialogue "Votre source de données a bien été créée" s'affiche.
  10. Cliquez sur *OK. Notez l'ID source de la source de données nouvellement créée. Il vous permettra de configurer le connecteur de contenu.

Générer un jeton d'accès personnel pour l'API GitHub

Le connecteur requiert un accès authentifié à l'API GitHub afin de disposer d'un quota suffisant. Pour plus de simplicité, le connecteur utilise des jetons d'accès personnels plutôt que l'authentification OAuth. Les jetons personnels permettent de s'authentifier en tant qu'utilisateur avec un ensemble limité d'autorisations semblables à OAuth.

  1. Connectez-vous à GitHub.
  2. En haut à droite, cliquez sur votre photo de profil. Un menu déroulant apparaît.
  3. Cliquez sur Paramètres.
  4. Cliquez sur Paramètres pour les développeurs.
  5. Cliquez sur Personal access tokens (Jetons d'accès personnels).
  6. Cliquez sur Generate personal access token (Générer un jeton d'accès personnel).
  7. Dans le champ Note, saisissez "Tutoriel Cloud Search".
  8. Cochez le champ d'application public_repo.
  9. Cliquez sur Générer un jeton.
  10. Notez le jeton généré. Le connecteur appellera les API GitHub avec ce jeton qui fournit le quota d'API nécessaire pour réaliser l'indexation.

Configurer le connecteur

Une fois les identifiants et la source de données créés, modifiez la configuration du connecteur pour y inclure les valeurs suivantes:

  1. Depuis la ligne de commande, remplacez le répertoire par cloud-search-samples/end-to-end/connector/.
  2. Ouvrez le fichier sample-config.properties avec un éditeur de texte.
  3. Définissez le paramètre api.serviceAccountPrivateKeyFile sur le chemin d'accès au fichier des identifiants de service que vous avez précédemment téléchargé.
  4. Définissez le paramètre api.sourceId sur l'ID de la source de données que vous avez précédemment créé.
  5. Définissez le paramètre github.user sur votre nom d'utilisateur GitHub.
  6. Définissez le paramètre github.token sur le jeton d'accès que vous avez précédemment créé.
  7. Enregistrez le fichier.

Mettre à jour le schéma

Le connecteur indexe les contenus structurés et non structurés. Avant d'indexer les données, vous devez mettre à jour le schéma pour la source de données. Mettez à jour le schéma avec la commande suivante:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.SchemaTool \
    -Dexec.args="-Dconfig=sample-config.properties"

Exécuter le connecteur

Pour exécuter le connecteur et commencer l'indexation, exécutez la commande suivante:

mvn exec:java -Dexec.mainClass=com.google.cloudsearch.tutorial.GithubConnector \
    -Dexec.args="-Dconfig=sample-config.properties"

Par défaut, le connecteur est configuré de manière à indexer un seul dépôt dans l'organisation googleworkspace. L'indexation du dépôt prend environ 1 minute. Après l'indexation initiale, le connecteur continue à interroger le dépôt à la recherche des modifications à répercuter dans l'index Cloud Search.

Comprendre le code

Les sections qui suivent examinent la construction du connecteur.

Démarrer l'application

Le point d'entrée du connecteur est la classe GithubConnector. La méthode main instancie l'application IndexingApplication du SDK et la démarre.

GithubConnector.java
/**
 * Main entry point for the connector. Creates and starts an indexing
 * application using the {@code ListingConnector} template and the sample's
 * custom {@code Repository} implementation.
 *
 * @param args program command line arguments
 * @throws InterruptedException thrown if an abort is issued during initialization
 */
public static void main(String[] args) throws InterruptedException {
  Repository repository = new GithubRepository();
  IndexingConnector connector = new ListingConnector(repository);
  IndexingApplication application = new IndexingApplication.Builder(connector, args)
      .build();
  application.start();
}

Le ListingConnector fourni par le SDK met en œuvre une stratégie de balayage qui exploite les files d'attente Cloud Search pour suivre l'état des éléments de l'index. Il opère une délégation à GithubRepository, mise en œuvre par l'exemple de connecteur, pour accéder au contenu de GitHub.

Balayer les dépôts GitHub

Au cours des balayages complets, la méthode getIds() est appelée pour ajouter à la file d'attente des éléments pouvant nécessiter une indexation.

Le connecteur peut indexer plusieurs dépôts ou organisations. Pour minimiser l'impact d'une défaillance, le connecteur ne balaye qu'un dépôt GitHub à la fois. Un point de contrôle est renvoyé avec les résultats du balayage contenant la liste des dépôts à indexer lors des prochains appels à getIds(). Si une erreur se produit, l'indexation reprend depuis le dépôt actuel au lieu de recommencer depuis le début.

GithubRepository.java
/**
 * Gets all of the existing item IDs from the data repository. While
 * multiple repositories are supported, only one repository is traversed
 * per call. The remaining repositories are saved in the checkpoint
 * are traversed on subsequent calls. This minimizes the amount of
 * data that needs to be reindex in the event of an error.
 *
 * <p>This method is called by {@link ListingConnector#traverse()} during
 * <em>full traversals</em>. Every document ID and metadata hash value in
 * the <em>repository</em> is pushed to the Cloud Search queue. Each pushed
 * document is later polled and processed in the {@link #getDoc(Item)} method.
 * <p>
 * The metadata hash values are pushed to aid document change detection. The
 * queue sets the document status depending on the hash comparison. If the
 * pushed ID doesn't yet exist in Cloud Search, the document's status is
 * set to <em>new</em>. If the ID exists but has a mismatched hash value,
 * its status is set to <em>modified</em>. If the ID exists and matches
 * the hash value, its status is unchanged.
 *
 * <p>In every case, the pushed content hash value is only used for
 * comparison. The hash value is only set in the queue during an
 * update (see {@link #getDoc(Item)}).
 *
 * @param checkpoint value defined and maintained by this connector
 * @return this is typically a {@link PushItems} instance
 */
@Override
public CheckpointCloseableIterable<ApiOperation> getIds(byte[] checkpoint)
    throws RepositoryException {
  List<String> repositories;
  // Decode the checkpoint if present to get the list of remaining
  // repositories to index.
  if (checkpoint != null) {
    try {
      FullTraversalCheckpoint decodedCheckpoint = FullTraversalCheckpoint
          .fromBytes(checkpoint);
      repositories = decodedCheckpoint.getRemainingRepositories();
    } catch (IOException e) {
      throw new RepositoryException.Builder()
          .setErrorMessage("Unable to deserialize checkpoint")
          .setCause(e)
          .build();
    }
  } else {
    // No previous checkpoint, scan for repositories to index
    // based on the connector configuration.
    try {
      repositories = scanRepositories();
    } catch (IOException e) {
      throw toRepositoryError(e, Optional.of("Unable to scan repositories"));
    }
  }

  if (repositories.isEmpty()) {
    // Nothing left to index. Reset the checkpoint to null so the
    // next full traversal starts from the beginning
    Collection<ApiOperation> empty = Collections.emptyList();
    return new CheckpointCloseableIterableImpl.Builder<>(empty)
        .setCheckpoint((byte[]) null)
        .setHasMore(false)
        .build();
  }

  // Still have more repositories to index. Pop the next repository to
  // index off the list. The remaining repositories make up the next
  // checkpoint.
  String repositoryToIndex = repositories.get(0);
  repositories = repositories.subList(1, repositories.size());

  try {
    log.info(() -> String.format("Traversing repository %s", repositoryToIndex));
    Collection<ApiOperation> items = collectRepositoryItems(repositoryToIndex);
    FullTraversalCheckpoint newCheckpoint = new FullTraversalCheckpoint(repositories);
    return new CheckpointCloseableIterableImpl.Builder<>(items)
        .setHasMore(true)
        .setCheckpoint(newCheckpoint.toBytes())
        .build();
  } catch (IOException e) {
    String errorMessage = String.format("Unable to traverse repo: %s",
        repositoryToIndex);
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

La méthode collectRepositoryItems() gère le balayage d'un seul dépôt GitHub. Cette méthode renvoie une collection d'ApiOperations représentant les éléments à ajouter à la file d'attente. Les éléments sont transmis en tant que nom de ressource et valeur de hachage représentant l'état actuel de l'élément.

La valeur de hachage est utilisée lors des balayages ultérieurs des dépôts GitHub. Cette valeur permet de déterminer facilement si le contenu a été modifié sans avoir à importer de contenu supplémentaire. Le connecteur met en file d'attente tous les éléments, sans distinction. Si l'élément est nouveau ou si sa valeur de hachage a changé, il est mis à disposition pour interrogation dans la file d'attente. Sinon, l'élément est considéré comme inchangé.

GithubRepository.java
/**
 * Fetch IDs to  push in to the queue for all items in the repository.
 * Currently captures issues & content in the master branch.
 *
 * @param name Name of repository to index
 * @return Items to push into the queue for later indexing
 * @throws IOException if error reading issues
 */
private Collection<ApiOperation> collectRepositoryItems(String name)
    throws IOException {
  List<ApiOperation> operations = new ArrayList<>();
  GHRepository repo = github.getRepository(name);

  // Add the repository as an item to be indexed
  String metadataHash = repo.getUpdatedAt().toString();
  String resourceName = repo.getHtmlUrl().getPath();
  PushItem repositoryPushItem = new PushItem()
      .setMetadataHash(metadataHash);
  PushItems items = new PushItems.Builder()
      .addPushItem(resourceName, repositoryPushItem)
      .build();

  operations.add(items);
  // Add issues/pull requests & files
  operations.add(collectIssues(repo));
  operations.add(collectContent(repo));
  return operations;
}

Traiter la file d'attente

Une fois le balayage complet terminé, le connecteur commence à interroger la file d'attente à la recherche d'éléments à indexer. La méthode getDoc() est appelée pour chaque élément extrait de la file d'attente. Cette méthode lit l'élément à partir de GitHub et le convertit en une représentation appropriée pour l'indexation.

Comme le connecteur s'exécute sur des données en ligne susceptibles d'être modifiées à tout moment, getDoc() vérifie également que l'élément de la file d'attente est toujours valide et supprime de l'index tout élément qui n'existe plus.

GithubRepository.java
/**
 * Gets a single data repository item and indexes it if required.
 *
 * <p>This method is called by the {@link ListingConnector} during a poll
 * of the Cloud Search queue. Each queued item is processed
 * individually depending on its state in the data repository.
 *
 * @param item the data repository item to retrieve
 * @return the item's state determines which type of
 * {@link ApiOperation} is returned:
 * {@link RepositoryDoc}, {@link DeleteItem}, or {@link PushItem}
 */
@Override
public ApiOperation getDoc(Item item) throws RepositoryException {
  log.info(() -> String.format("Processing item: %s ", item.getName()));
  Object githubObject;
  try {
    // Retrieve the item from GitHub
    githubObject = getGithubObject(item.getName());
    if (githubObject instanceof GHRepository) {
      return indexItem((GHRepository) githubObject, item);
    } else if (githubObject instanceof GHPullRequest) {
      return indexItem((GHPullRequest) githubObject, item);
    } else if (githubObject instanceof GHIssue) {
      return indexItem((GHIssue) githubObject, item);
    } else if (githubObject instanceof GHContent) {
      return indexItem((GHContent) githubObject, item);
    } else {
      String errorMessage = String.format("Unexpected item received: %s",
          item.getName());
      throw new RepositoryException.Builder()
          .setErrorMessage(errorMessage)
          .setErrorType(RepositoryException.ErrorType.UNKNOWN)
          .build();
    }
  } catch (FileNotFoundException e) {
    log.info(() -> String.format("Deleting item: %s ", item.getName()));
    return ApiOperations.deleteItem(item.getName());
  } catch (IOException e) {
    String errorMessage = String.format("Unable to retrieve item: %s",
        item.getName());
    throw toRepositoryError(e, Optional.of(errorMessage));
  }
}

Pour chacun des objets GitHub indexés par le connecteur, la méthode indexItem() correspondante crée la représentation de l'élément pour Cloud Search. Par exemple, pour créer la représentation des éléments de contenu:

GithubRepository.java
/**
 * Build the ApiOperation to index a content item (file).
 *
 * @param content      Content item to index
 * @param previousItem Previous item state in the index
 * @return ApiOperation (RepositoryDoc if indexing,  PushItem if not modified)
 * @throws IOException if unable to create operation
 */
private ApiOperation indexItem(GHContent content, Item previousItem)
    throws IOException {
  String metadataHash = content.getSha();

  // If previously indexed and unchanged, just requeue as unmodified
  if (canSkipIndexing(previousItem, metadataHash)) {
    return notModified(previousItem.getName());
  }

  String resourceName = new URL(content.getHtmlUrl()).getPath();
  FieldOrValue<String> title = FieldOrValue.withValue(content.getName());
  FieldOrValue<String> url = FieldOrValue.withValue(content.getHtmlUrl());

  String containerName = content.getOwner().getHtmlUrl().getPath();
  String programmingLanguage = FileExtensions.getLanguageForFile(content.getName());

  // Structured data based on the schema
  Multimap<String, Object> structuredData = ArrayListMultimap.create();
  structuredData.put("organization", content.getOwner().getOwnerName());
  structuredData.put("repository", content.getOwner().getName());
  structuredData.put("path", content.getPath());
  structuredData.put("language", programmingLanguage);

  Item item = IndexingItemBuilder.fromConfiguration(resourceName)
      .setTitle(title)
      .setContainerName(containerName)
      .setSourceRepositoryUrl(url)
      .setItemType(IndexingItemBuilder.ItemType.CONTAINER_ITEM)
      .setObjectType("file")
      .setValues(structuredData)
      .setVersion(Longs.toByteArray(System.currentTimeMillis()))
      .setHash(content.getSha())
      .build();

  // Index the file content too
  String mimeType = FileTypeMap.getDefaultFileTypeMap()
      .getContentType(content.getName());
  AbstractInputStreamContent fileContent = new InputStreamContent(
      mimeType, content.read())
      .setLength(content.getSize())
      .setCloseInputStream(true);
  return new RepositoryDoc.Builder()
      .setItem(item)
      .setContent(fileContent, IndexingService.ContentFormat.RAW)
      .setRequestMode(IndexingService.RequestMode.SYNCHRONOUS)
      .build();
}

Déployez ensuite l'interface de recherche.

Précédent Suivant