Lorsque vous contactez votre représentant commercial ou votre contact d'assistance pour configurer l'accès à Data Transfer V2.0, vous recevez le nom d'un bucket. Vous devrez fournir à votre contact commercial un groupe Google qui vous permettra de contrôler l'accès à vos fichiers de données dans Google Cloud Storage.
Vous pouvez choisir d'accéder à vos données à l'aide d'un utilitaire ou écrire votre propre code.
Accéder aux données à l'aide de gsutil
L'outil gsutil est une application de ligne de commande écrite en Python qui vous permet d'accéder à vos données sans avoir à coder. Par exemple, vous pouvez utiliser gsutil dans un script ou un fichier de commandes par lot au lieu de créer des applications personnalisées.
Pour commencer à utiliser gsutil, consultez la documentation gsutil. L'outil vous demandera vos identifiants la première fois que vous l'utiliserez, puis les stockera pour une utilisation ultérieure.
Exemples gsutil
Vous pouvez lister tous vos fichiers à l'aide de gsutil comme suit :
gsutil ls gs://[bucket_name]/[object name/file name]
gsutil utilise une grande partie de la même syntaxe que UNIX, y compris l'astérisque (*) comme caractère générique. Vous pouvez donc lister tous les fichiers NetworkImpression :
gsutil ls gs://[bucket_name]/dcm_account6837_impression_*
Il est également facile de télécharger un fichier :
gsutil cp gs://[bucket_name]/dcm_account6837_impression_2015120100.log.gz
Vous pouvez copier vos fichiers depuis les buckets Google DT dispersés vers votre propre bucket GCS de l'API Google à l'aide d'un script shell Unix. Deux options s'offrent à vous :
Dans gsutil, si vous utilisez un système Unix, exécutez la commande suivante pour tous vos buckets tous les jours :
$ day=$(date --date="1 days ago" +"%m-%d-%Y") $ gsutil -m cp gs://{<dcmhashid_A>,<dcmhashid_B>,etc.}/*$day*.log.gz gs://<client_bucket>/
Vous pouvez également utiliser un fichier bash, mais la solution est un peu plus complexe :
#!/bin/bash set -x buckets={dfa_-hasid_A dfa_-hashid_B,...} #include all hash ids day=$(date --date="1 days ago" +"%m-%d-%Y") for b in ${buckets[@]}; do / gsutil -m cp gs://$b/*$day*.log.gz gs://
/ / done
Accéder aux données de manière programmatique
Google Cloud Storage propose des API et des exemples pour de nombreux langages de programmation qui vous permettent d'accéder à vos données de manière programmatique. Vous trouverez ci-dessous les étapes spécifiques à Transfert de données v2.0 que vous devez suivre pour créer une intégration fonctionnelle.
Obtenir un compte de service
Pour commencer à utiliser le transfert de données version 2.0, vous devez d'abord utiliser l'outil de configuration. Celui-ci vous guide pour créer un projet dans la console Google APIs et activer l'API.
Pour configurer un compte de service, procédez comme suit :
- Cliquez sur Créer des identifiants > Clé de compte de service.
- Choisissez de télécharger ou non la clé publique/privée du compte de service sous forme de fichier P12 standard ou de fichier JSON pouvant être chargé par une bibliothèque cliente d'API Google.
Votre nouvelle paire de clés publique et privée est générée et téléchargée sur votre ordinateur. Il s'agit de la seule copie de cette clé. Il vous incombe de la stocker en toute sécurité.
Veillez à laisser cette fenêtre ouverte, car vous aurez besoin de l'adresse e-mail du compte de service à l'étape suivante.
Ajouter un compte de service à votre groupe
- Accéder au groupe Google
- Cliquez sur "Mes groupes", puis sélectionnez le groupe que vous utilisez pour gérer l'accès à votre bucket Cloud Storage DT V2.0.
- Cliquez sur "Gérer".
- Ne cliquez pas sur "Inviter des membres" !
- Cliquez sur "Ajouter des membres directement".
- Copiez l'adresse e-mail du compte de service de l'étape précédente dans la zone des membres.
- Sélectionnez "Aucun e-mail".
- Cliquez sur le bouton "Ajouter".
J'ai cliqué sur "Inviter des membres" par erreur
Champ d'application
Tous les niveaux d'accès transmis à Cloud Storage doivent être en lecture seule.
Par exemple, lorsque vous utilisez la bibliothèque cliente Java, le champ d'application à utiliser est le suivant :
StorageScopes.DEVSTORAGE_READ_ONLY