Abgleich der von Nutzern bereitgestellten Daten

Beim Abgleich der von Nutzern bereitgestellten Daten (user-provided data matching, UPDM) werden selbst erhobene Daten zu einem bestimmten Nutzer, etwa Informationen von Websites, aus Apps oder aus Geschäften, mit den Aktivitäten genau dieses angemeldeten Nutzers in allen Google-Anzeigendaten zusammengeführt, einschließlich der von Google selbst erhobenen und verwalteten Daten. Dazu gehören auch Daten, die über Produkte der Google Marketing Platform (GMP) gekauft wurden, z. B. YouTube-Daten, die über Display & Video 360 gekauft wurden. Andere GMP-Produkte, die nicht zu Google gehören und nicht von Google betrieben werden, werden nicht unterstützt.

Damit von Nutzern bereitgestellte Daten abgeglichen werden können, muss das Anzeigenereignis mit einem angemeldeten Nutzer in Google-Anzeigendaten verknüpft sein.

In diesem Dokument wird die Funktion zum Abgleich von von Nutzern bereitgestellten Daten beschrieben. Außerdem finden Sie hier eine Anleitung zur Einrichtung und Verwendung.

Tab „Verbindungen“ – Übersicht

Um wertvolle Informationen zu erhalten, müssen oft Daten aus mehreren Quellen zusammengeführt werden. Die Entwicklung einer eigenen Lösung für dieses Datenpipeline-Problem erfordert einen erheblichen Zeit- und Entwicklungsaufwand. Auf der Seite „Verbindungen“ im Ads Data Hub können Sie Ihre Anzeigendaten in BigQuery importieren, transformieren und abgleichen. Dazu wird Ihnen eine schrittweise Anleitung angezeigt. So können Sie die Daten in Ihren Ads Data Hub-Abfragen oder in anderen Produkten verwenden, die Daten aus BigQuery abrufen. Wenn Sie selbst erhobene Daten für Ihre Abfragen verwenden, können Sie Kunden noch mehr bieten. Außerdem sind Sie dann besser auf branchenweite Änderungen beim Anzeigen-Tracking vorbereitet.

Die Seite „Verbindungen“ enthält Tools, mit denen Sie personenidentifizierbare Informationen (PII) verschlüsseln und auf datenschutzfreundliche Weise mit Partnern teilen können. Nachdem Sie ausgewählt haben, welche Spalten personenbezogene Daten enthalten, werden diese in Ads Data Hub verschlüsselt. So können Ihre selbst erhobenen Daten nur von Personen exportiert oder gelesen werden, die dazu berechtigt sind. Es kann schwierig sein, zu wissen, welche selbst erhobenen Daten für Ihren Analyse- oder Aktivierungsfall erforderlich sind. Daher bietet Ads Data Hub eine umfassende Liste vordefinierter Anwendungsfälle und führt Sie durch den gesamten Prozess zum Extrahieren, Transformieren und Laden Ihrer Daten. Sie können mehrere Arten von Verbindungen erstellen. In diesem Dokument wird davon ausgegangen, dass Sie die Seite „Verbindungen“ für die Übereinstimmung von von Nutzern bereitgestellten Daten verwenden.

Unterstützte Quellen für selbst erhobene Daten

Sie können Daten aus den folgenden Datenquellen importieren:

  • BigQuery
  • Cloud Storage
  • Secure FTP (sFTP)
  • Snowflake
  • MySQL
  • PostgreSQL
  • Amazon Redshift
  • Amazon S3

Da der Abgleich der von Nutzern bereitgestellten Daten nur für Nutzer verfügbar ist, die in Inventar angemeldet sind, das Google gehört und von Google betrieben wird, ist er von der bevorstehenden Einstellung von Drittanbieter-Cookies nicht betroffen. Da sie widerstandsfähiger gegen branchenbezogene Änderungen sind als Drittanbieterdaten, können sie umfassendere Informationen liefern, was zu mehr Kundeninteraktionen führen kann.

Wichtige Begriffe

  • Verbindung zu von Nutzern bereitgestellten Daten:Sie können eine Verbindung zu von Nutzern bereitgestellten Daten einrichten, um Daten zu importieren und abzugleichen, Datenimporte zu planen, Daten zu transformieren und Ihre Anzeigendaten mithilfe einer Nutzer-ID abzugleichen. Das Anzeigenereignis muss mit einem angemeldeten Nutzer in Google-Anzeigendaten verknüpft sein. Erfordert mehrere Google Cloud-Projekte.
  • Verbindung zu selbst erhobenen Daten:Richten Sie eine Verbindung zu selbst erhobenen Daten als Tool zur Datenvorbereitung ein, um Datenimporte zu planen und Daten ohne die erweiterten Funktionen des Abgleichs der von Nutzern bereitgestellten Daten zu transformieren. Für diese Art von Verbindung ist nur ein Google Cloud-Projekt erforderlich.
  • Datenquelle:Ein verknüpftes Produkt, eine importierte Datei oder eine Drittanbieterintegration, z. B. BigQuery.
  • Ziel:Ein Anwendungsfall, in der Regel ein Google-Produkt oder eine entsprechende Funktion, für das bzw. die importierte Daten verwendet werden, z. B. der Abgleich der von Nutzern bereitgestellten Daten in Ads Data Hub.
  • Verwaltungsprojekt: Das Google Cloud-Projekt, das Ihre eigenen Werbedaten im Rohformat enthält.
  • Ausgabe-Dataset:Das BigQuery-Dataset, in das Ads Data Hub schreibt. Standardmäßig ist dies ein Dataset in Ihrem Verwaltungsprojekt. Wie Sie es in ein anderes Google Cloud-Projekt ändern, erfahren Sie unter Dienstkonten konfigurieren.

Ablauf

  1. Datenaufnahme und -abgleich einrichten
    • Sie gewähren den Dienstkonten in Ihrem Verwaltungsprojekt die erforderlichen Berechtigungen. Weitere Informationen finden Sie unter Datenaufnahme einrichten.
  2. Aufnahme und Abgleich selbst erhobener Daten
    • Sie formatieren Ihre selbst erhobenen Daten und laden sie in Ihr BigQuery-Dataset hoch. Die einfachste Einrichtung ist über Ihr Administratorprojekt möglich. Sie können jedoch jedes BigQuery-Dataset verwenden, dessen Inhaber Sie sind.
    • Sie initiieren eine Anfrage zum Abgleich von Daten, indem Sie eine Verbindung herstellen und einen Importzeitplan festlegen.
    • Google führt Daten aus Ihrem Projekt mit Google-eigenen Daten zusammen, die die Nutzer-ID von Google und gehashte von Nutzern bereitgestellte Daten enthalten, um Abgleichstabellen zu erstellen und zu aktualisieren.
    • Weitere Informationen finden Sie unter Selbst erhobene Daten aufnehmen.
  3. Laufende Abfragen in Ads Data Hub, die auf abgeglichenen Daten basieren
    • Sie führen Abfragen auf die Match-Tables aus, genau wie Sie normale Abfragen in Ads Data Hub ausführen. Weitere Informationen finden Sie unter Abgeglichene Daten abfragen.

Informationen zu den Datenschutzanforderungen

Erhebung von Kundendaten

Wenn Sie den Abgleich der von Nutzern bereitgestellten Daten verwenden, müssen Sie selbst erhobene Daten hochladen. Das können Daten sein, die Sie auf Ihren Websites, in Ihren Apps oder in Ihren Geschäften erhoben haben, oder Daten, die Kunden direkt mit Ihnen geteilt haben.

Die folgenden Anforderungen müssen erfüllt sein:

  • Legen Sie in Ihrer Datenschutzerklärung offen, dass Sie Kundendaten an Dritte weitergeben, damit sie Dienstleistungen in Ihrem Auftrag erbringen können. Holen Sie außerdem, soweit gesetzlich erforderlich, die Einwilligung des entsprechenden Kunden für die Weitergabe der Daten ein.
  • Laden Sie Kundendaten nur über APIs oder Schnittstellen hoch, die von Google zugelassen sind.
  • Halten Sie alle anwendbaren Gesetze und Bestimmungen ein, darunter auch Selbstregulierungs- und Branchenkodizes.

Einholen der Einwilligung für selbst erhobene Daten bestätigen

Damit Sie Ihre selbst erhobenen Daten in Ads Data Hub nutzen können, müssen Sie bestätigen, dass Sie die entsprechende Einwilligung zur Weitergabe von Daten von Endnutzern im EWR an Google gemäß der Richtlinie zur Einwilligung der Nutzer in der EU und den Ads Data Hub-Richtlinien eingeholt haben. Die Bestätigung ist für jedes Ads Data Hub-Konto und bei jedem Upload neuer selbst erhobener Daten erforderlich. Jeder Nutzer kann die Bestätigung für das gesamte Konto abgeben.

Hinweis: Für UPDM-Abfragen gelten dieselben Regeln für Google-Dienst-Abfragen wie für Analyseabfragen. So sind z. B. keine dienstübergreifenden Abfragen für Nutzer im EWR möglich, wenn Sie eine Match-Table erstellen.

Informationen dazu, wie Sie in Ads Data Hub bestätigen, dass Sie die Einwilligung eingeholt haben, finden Sie unter Einwilligungsanforderungen für den Europäischen Wirtschaftsraum.

Datengröße

Aus Datenschutzgründen gelten für die Abgleiche von von Nutzern bereitgestellten Daten die folgenden Anforderungen an die Datengröße:

  • Sie müssen mindestens 1.000 Einträge in Ihre Nutzerliste hochladen.
  • Jede erfolgreiche Aktualisierung Ihrer Abgleichstabelle muss eine Mindestanzahl neu abgeglichener Nutzer umfassen. Dieses Verhalten ähnelt Unterschiedsüberprüfungen.
  • Ihre Liste darf die maximale Anzahl von Einträgen nicht überschreiten. Informationen zum maximalen Datenlimit erhalten Sie von Ihrem Google-Ansprechpartner.

Datenaufnahme einrichten

Bevor Sie beginnen, müssen Sie Ihr Ads Data Hub-Konto so konfigurieren, dass Datenverbindungen erstellt werden können. So legen Sie die Pipeline für die Datenabgleiche fest. Sie müssen diese Schritte nur einmal ausführen.

Klicken Sie auf der Seite Verbindungen auf Einrichtung starten, um den Einrichtungsassistenten für das Konto in der UPDM-Aktivierungsphase zu öffnen.

Gehen Sie zu Verbindungen.

Welche Berechtigungen werden für BigQuery und Cloud Storage gewährt?

Wenn Sie UPDM für die Verwendung mit BigQuery oder Cloud Storage einrichten, finden Sie in dieser Referenz Informationen zu den Berechtigungen, die den Ads Data Hub-Dienstkonten gewährt werden.

BigQuery

Data Fusion-Dienstkonto
Zweck Mit dem Data Fusion-Dienstkonto wird eine Liste von Datenquellenfeldern in Ads Data Hub angezeigt.
Format service-some-number@gcp-sa-datafusion.iam.gserviceaccount.com
Erforderlicher Zugriff
BigQuery Data Viewer
roles/bigquery.dataViewer
für bestimmte Datasets in Datenquellen- und Ziel-Projekten
Storage Admin
roles/storage.admin
für das Projekt Datenquelle oder einen speziellen Speicher-Bucket
Dataproc-Dienstkonto
Zweck Das Dataproc-Dienstkonto ist für das Ausführen der Datenpipelines im Hintergrund zuständig.
Format some-number-compute@developer.gserviceaccount.com
Erforderlicher Zugriff
BigQuery Data Viewer
roles/bigquery.dataViewer
für bestimmte Datasets in Datenquellen- und Ziel-Projekten
BigQuery Data Editor
roles/bigquery.dataEditor
für bestimmte Datasets im Projekt Ziel
BigQuery Job User
roles/bigquery.jobUser
sowohl für Datenquellen als auch für Zielprojekte
Storage Admin
roles/storage.admin
sowohl für Datenquellen als auch Zielprojekte oder einen speziellen Speicher-Bucket
UPDM-Dienstkonto
Zweck Das UPDM-Dienstkonto wird zum Ausführen des Abgleichjobs verwendet.
Format service-some-number@gcp-sa-adsdataconnector.iam.gserviceaccount.com
Erforderlicher Zugriff
BigQuery Data Viewer
roles/bigquery.dataViewer
für das Zielprojekt
BigQuery Job User
roles/bigquery.jobUser
für das Zielprojekt

Cloud Storage

Data Fusion-Dienstkonto
Zweck Mit dem Data Fusion-Dienstkonto wird eine Liste von Datenquellenfeldern in Ads Data Hub angezeigt.
Format service-some-number@gcp-sa-datafusion.iam.gserviceaccount.com
Erforderlicher Zugriff
Storage Object Viewer
roles/storage.objectViewer
für bestimmte Speicher-Buckets im Projekt Datenquelle
BigQuery Data Viewer
roles/bigquery.dataViewer
für das Projekt Datenquelle oder einen speziellen Speicher-Bucket
Storage Admin
roles/storage.admin
für das Projekt Datenquelle oder einen speziellen Speicher-Bucket
Dataproc-Dienstkonto
Zweck Das Dataproc-Dienstkonto ist für das Ausführen der Datenpipelines im Hintergrund zuständig.
Format some-number-compute@developer.gserviceaccount.com
Erforderlicher Zugriff
Storage Admin
roles/storage.admin
sowohl für Datenquellen als auch Zielprojekte oder einen speziellen Speicher-Bucket
BigQuery Job User
roles/bigquery.jobUser
für das Zielprojekt
UPDM-Dienstkonto
Zweck Das UPDM-Dienstkonto wird zum Ausführen des Abgleichjobs verwendet.
Format service-some-number@gcp-sa-adsdataconnector.iam.gserviceaccount.com
Erforderlicher Zugriff
BigQuery Data Viewer
roles/bigquery.dataViewer
für das Zielprojekt
BigQuery Job User
roles/bigquery.jobUser
für das Zielprojekt

Sonstige Datenquellen

Nicht erforderlich für andere Datenquellen

Selbst erhobene Daten aufnehmen und abgleichen

Daten für die Eingabe formatieren

Damit Ihre Daten richtig abgeglichen werden können, müssen sie diese Formatierungsanforderungen erfüllen:

  • Sofern in den folgenden Eingabefeldbeschreibungen angegeben, müssen Sie die Daten mit SHA256-Hash-Technologie hochladen.
  • Eingabefelder müssen als Strings formatiert sein. Wenn Sie beispielsweise die SHA256-Hash-Funktion von BigQuery mit der Base16-Codierungsfunktion (TO_HEX) verwenden, verwenden Sie die folgende Transformation: TO_HEX(SHA256(user_data)).
  • UPDM unterstützt sowohl die Base16- als auch die Base64-Codierung. Die Codierung Ihrer selbst erhobenen Daten muss mit der Dekodierung übereinstimmen, die in Ihrer Ads Data Hub-Abfrage verwendet wird. Wenn Sie die Codierung Ihrer selbst erhobenen Daten ändern, müssen Sie Ihre Ads Data Hub-Abfrage so aktualisieren, dass sie von derselben Basis decodiert wird. In den folgenden Beispielen wird die Base16-Codierung verwendet.

Nutzer-ID

  • Nur Text
  • Hash-Technologie: Keine

E-Mail

  • Vor- und nachangestellte Leerzeichen entfernen
  • Alle Zeichen kleinschreiben
  • Geben Sie einen Domainnamen für alle E-Mail-Adressen an, z. B. gmail.com oder hotmail.de.
  • Entfernen Sie Akzente, z. B. ändern Sie è, é, ê oder ë in e.
  • Entfernen Sie alle Punkte (.) vor dem Domainnamen in gmail.com- und googlemail.com-E-Mail-Adressen.
  • Hash-Technologie: Base16-codierte SHA256

Gültig:TO_HEX(SHA256("jeffersonloveshiking@gmail.com"))

Ungültig:TO_HEX(SHA256("JéffersonLôvesHiking@gmail.com"))

Telefon

  • Leerzeichen entfernen
  • Formatieren Sie die Nummer im E.164-Format. Beispiel für die USA: +14155552671, Beispiel für das Vereinigte Königreich: +442071838750
  • Entfernen Sie alle Sonderzeichen vor dem Ländercode, mit Ausnahme des „+“.
  • Hash-Technologie: Base16-codierte SHA256

Gültig:TO_HEX(SHA256("+18005550101"))

Ungültig:TO_HEX(SHA256("(800) 555-0101"))

Vorname

  • Leerzeichen entfernen
  • Alle Zeichen kleinschreiben
  • Entfernen Sie alle Präfixe, z. B. Herr, Frau, Dr.
  • Entfernen Sie keine Akzente, z. B. è, é, ê oder ë.
  • Hash-Technologie: Base16-codierte SHA256

Gültig:TO_HEX(SHA256("daní"))

Ungültig:TO_HEX(SHA256("Daní"))

Nachname

  • Leerzeichen entfernen
  • Alle Zeichen kleinschreiben
  • Entfernen Sie alle Suffixe, z. B. Jr., Sr., 2nd, 3rd, II, III, PHD, MD
  • Entfernen Sie keine Akzente, z. B. è, é, ê oder ë.
  • Hash-Technologie: Base16-codierte SHA256

Gültig:TO_HEX(SHA256("delacruz"))

Ungültig:TO_HEX(SHA256("de la Cruz, Jr."))

Land

  • Geben Sie den Ländercode auch dann an, wenn Ihre gesamten Kundendaten aus demselben Land stammen.
  • Länderdaten nicht hashen
  • Verwenden Sie Ländercodes gemäß ISO 3166-1 alpha-2.
  • Hash-Technologie: Keine

Gültig:US

Ungültig:United States of America oder USA

Postleitzahl

  • Postleitzahlen nicht hashen
  • Sowohl US-amerikanische als auch internationale Postleitzahlen sind zulässig
  • Für die USA:
    • Fünfstellige Codes sind zulässig, z. B. 94043.
    • Fünf Ziffern, gefolgt von einer vierstelligen Erweiterung, sind ebenfalls zulässig, z. B. 94043-1351 oder 940431351.
  • Für alle anderen Länder:
    • Keine Formatierung erforderlich (keine Umwandlung in Kleinbuchstaben, keine Entfernung von Leerzeichen und Sonderzeichen)
    • Lassen Sie Postleitzahlerweiterungen weg.
  • Hash-Technologie: Keine

Hash-Bestätigung und Datencodierung

Mit den folgenden Hash-Validierungsscripts können Sie prüfen, ob Ihre Daten richtig formatiert sind.

JavaScript

Base16

/**
 * @fileoverview Provides the hashing algorithm for User-Provided Data Match, as
 * well as some valid hashes of sample data for testing.
*/

async function hash(token) {
  // Removes leading or trailing spaces and converts all characters to lowercase.
  const formattedToken = token.trim().toLowerCase();
  // Hashes the formatted string using the SHA-256 hashing algorithm.
  const hashArrayBuffer = await crypto.subtle.digest(
      'SHA-256', (new TextEncoder()).encode(formattedToken));
  // Converts the hash buffer to a hexadecimal string.
  return Array.from(new Uint8Array(hashArrayBuffer))
      .map((b) => b.toString(16).padStart(2, '0'))
      .join('');
}

function main() {
  // Expected hash for test@gmail.com:
  // 87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674
  hash('test@gmail.com').then(result => console.log(result));

  // Expected hash for +18005551212:
  // 61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44
  hash('+18005551212').then(result => console.log(result));

  // Expected hash for John:
  // 96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a
  hash('John').then(result => console.log(result));

  // Expected hash for Doe:
  // 799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f
  hash('Doe').then(result => console.log(result));
}

main()

Base64

/**
 * @fileoverview Provides the hashing algorithm, as well as some valid hashes of
 * sample data for testing.
*/

async function hash(token) {
  // Removes leading or trailing spaces and converts all characters to lowercase.
  const formattedToken = token.trim().toLowerCase();
  // Hashes the formatted string using the SHA-256 hashing algorithm.
  const hashBuffer = await crypto.subtle.digest(
      'SHA-256', (new TextEncoder()).encode(formattedToken));
  // Converts the hash buffer to a base64-encoded string and returns it.
  const base64Str = btoa(String.fromCharCode(...new Uint8Array(hashBuffer)));
  return base64Str;
}

function main() {
  // Expected hash for test@gmail.com:
  // h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
  hash('test@gmail.com').then(result => console.log(result));

  // Expected hash for +18005551212:
  // YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
  hash('+18005551212').then(result => console.log(result));

  // Expected hash for John: ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
  hash('John').then(result => console.log(result));

  // Expected hash for Doe: eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
  hash('Doe').then(result => console.log(result));
}

main()

Python

Base16

"""Provides the hashing algorithm, as well as some valid hashes of sample data for testing.

Supports: Python 2, Python 3

Sample hashes:

  - Email 'test@gmail.com': 87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674
  - Phone '+18005551212':   61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44
  - First name 'John':      96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a
  - Last name 'Doe':        799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f
"""

import base64
import hashlib

def updm_hash(token):
# Generates a SHA-256 hash of the input token after normalization.
  return hashlib.sha256(token.strip().lower().encode('utf-8')).hexdigest()

def print_updm_hash(token):
# Prints the SHA-256 hash and the original token.
  print('Hash: "{}"\t(Token: {})'.format(updm_hash(token), token))

def main():
# Hashes and prints sample tokens.
  print_updm_hash('test@gmail.com')
  print_updm_hash('+18005551212')
  print_updm_hash('John')
  print_updm_hash('Doe')

if __name__ == '__main__':
  main()

Base64

"""Provides the hashing algorithm, as well as some valid hashes of sample data for testing.

Supports: Python 2, Python 3

Sample hashes:

  - Email 'test@gmail.com': h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
  - Phone '+18005551212':   YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
  - First name 'John':      ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
  - Last name 'Doe':        eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
"""

import base64
import hashlib

def hash(token):
# Generates a base64-encoded SHA-256 hash of a normalized input string.
  return base64.b64encode(
      hashlib.sha256(
          token.strip().lower().encode('utf-8')).digest()).decode('utf-8')

def print_hash(token, expected=None):
# Computes and displays the hash of a token, with optional validation.
  hashed = hash(token)

  if expected is not None and hashed != expected:
    print(
        'ERROR: Incorrect hash for token "{}". Expected "{}", got "{}"'.format(
            token, expected, hashed))
    return

  print('Hash: "{}"\t(Token: {})'.format(hashed, token))

def main():
# Tests the hash function with sample tokens and expected results.
  print_hash(
      'test@gmail.com', expected='h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=')
  print_hash(
      '+18005551212', expected='YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=')
  print_hash('John', expected='ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=')
  print_hash('Doe', expected='eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=')

if __name__ == '__main__':
  main()

Ok

Base16

/*
Provides the hashing algorithm, as well as some valid hashes of sample data for testing.

Sample hashes:

  - Email 'test@gmail.com': 87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674
  - Phone '+18005551212':   61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44
  - First name 'John':      96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a
  - Last name 'Doe':        799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f
*/
package main

import (
  "crypto/sha256"
  "fmt"
  "strings"
)

// Hash hashes an email, phone, first name, or last name into the correct format.
func Hash(token string) string {
  formatted := strings.TrimSpace(strings.ToLower(token))
  hashed := sha256.Sum256([]byte(formatted))
  encoded := fmt.Sprintf("%x", hashed[:])
  return encoded
}

// PrintHash prints the hash for a token.
func PrintHash(token string) {
  fmt.Printf("Hash: \"%s\"\t(Token: %s)\n", Hash(token), token)

}

func main() {
  PrintHash("test@gmail.com")
  PrintHash("+18005551212")
  PrintHash("John")
  PrintHash("Doe")
}

Base64

/*
Provides the hashing algorithm, as well as some valid hashes of sample data for testing.

Sample hashes:

  - Email 'test@gmail.com': h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
  - Phone '+18005551212':   YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
  - First name 'John':      ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
  - Last name 'Doe':        eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
*/
package main

import (
  "crypto/sha256"
  "encoding/base64"
  "fmt"
  "strings"
)

// Hash hashes an email, phone, first name, or last name into the correct format.
func Hash(token string) string {
  formatted := strings.TrimSpace(strings.ToLower(token))
  hashed := sha256.Sum256([]byte(formatted))
  encoded := base64.StdEncoding.EncodeToString(hashed[:])
  return encoded
}

// PrintHash prints the hash for a token.
func PrintHash(token string) {
  fmt.Printf("Hash: \"%s\"\t(Token: %s)\n", Hash(token), token)

}

func main() {
  PrintHash("test@gmail.com")
  PrintHash("+18005551212")
  PrintHash("John")
  PrintHash("Doe")
}

Java

Base16

package updm.hashing;

import static java.nio.charset.StandardCharsets.UTF_8;

import com.google.common.base.Ascii;
import com.google.common.hash.Hashing;

/**
 * Example of the UPDM hashing algorithm using hex-encoded SHA-256.
*
* <p>This uses the Guava Hashing to generate the hash: https://github.com/google/guava
*
* <p>Sample valid hashes:
*
* <ul>
*   <li>Email "test@gmail.com": "87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674"
*   <li>Phone "+18005551212": "61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44"
*   <li>First name "John": "96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a"
*   <li>Last name "Doe": "799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f"
* </ul>
*/
public final class HashExample {

  private HashExample() {}

  public static String hash(String token) {
    // Normalizes and hashes the input token.
    String formattedToken = Ascii.toLowerCase(token).strip();
    return Hashing.sha256().hashString(formattedToken, UTF_8).toString();
  }

  public static void printHash(String token) {
    // Calculates and prints the token's hash.
    System.out.printf("Hash: \"%s\"\t(Token: %s)\n", hash(token), token);
  }

  public static void main(String[] args) {
    // Executes hash calculations and prints results for sample tokens.
    printHash("test@gmail.com");
    printHash("+18005551212");
    printHash("John");
    printHash("Doe");
  }
}

Base64

package updm.hashing;

import static java.nio.charset.StandardCharsets.UTF_8;

import java.security.MessageDigest;
import java.security.NoSuchAlgorithmException;
import java.util.Base64;

/**
* Example of the hashing algorithm.
*
* <p>Sample hashes:
*
* <ul>
*   <li>Email 'test@gmail.com': h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
*   <li>Phone '+18005551212': YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
*   <li>First name 'John': ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
*   <li>Last name 'Doe': eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
* </ul>
*/
public final class HashExample {

private HashExample() {}

public static String hash(String token) {
  // Normalizes and hashes the input token using SHA-256 and Base64 encoding.
  String formattedToken = token.toLowerCase().strip();

  byte[] hash;
  try {
    hash = MessageDigest.getInstance("SHA-256").digest(formattedToken.getBytes(UTF_8));
  } catch (NoSuchAlgorithmException e) {
    throw new IllegalStateException("SHA-256 not supported", e);
  }

  return Base64.getEncoder().encodeToString(hash);
}

public static void printHash(String token) {
  // Calculates and prints the hash for the given token.
  System.out.printf("Hash: \"%s\"\t(Token: %s)\n", hash(token), token);
}

public static void main(String[] args) {
  // Executes hash calculations and prints results for sample tokens.
  printHash("test@gmail.com");
  printHash("+18005551212");
  printHash("John");
  printHash("Doe");
}
}

SQL

Base16

/*
Provides the hashing algorithm, as well as some valid hashes of sample data for testing.

The following code uses Google Standard SQL and can be run on BigQuery to generate match tables from unhashed data.

Sample hashes:

  - Email 'test@gmail.com': 87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674
  - Phone '+18005551212':   61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44
  - First name 'John':      96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a
  - Last name 'Doe':        799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f

The unhashed input table schema is assumed to be:

- Column name: UserID, Type: String
- Column name: Email, Type: String
- Column name: Phone, Type: String
- Column name: FirstName, Type: String
- Column name: LastName, Type: String
- Column name: PostalCode, Type: String
- Column name: CountryCode, Type: String
*/

-- Creates a new table with hashed versions of specified columns from the input table.
CREATE TABLE `your_project_name.your_dataset_name.output_hashed_table_name`
AS
SELECT
  UserID,
  TO_HEX(SHA256(LOWER(Email))) AS Email,
  TO_HEX(SHA256(Phone)) AS Phone,
  TO_HEX(SHA256(LOWER(FirstName))) AS FirstName,
  TO_HEX(SHA256(LOWER(LastName))) AS LastName,
  PostalCode,
  CountryCode,
FROM
  `your_project_name.your_dataset_name.input_unhashed_table_name`;

Base64

/*
Provides the hashing algorithm, as well as some valid hashes of sample data for testing.

The following code uses Google Standard SQL and can be run on BigQuery to generate match tables from unhashed data.

Sample hashes:

  - Email 'test@gmail.com': h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
  - Phone '+18005551212':   YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
  - First name 'John':      ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
  - Last name 'Doe':        eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=

The unhashed input table schema is assumed to be:

- Column name: UserID, Type: String
- Column name: Email, Type: String
- Column name: Phone, Type: String
- Column name: FirstName, Type: String
- Column name: LastName, Type: String
- Column name: PostalCode, Type: String
- Column name: CountryCode, Type: String
*/

-- Creates a new table with Base64-encoded SHA-256 hashes of specified columns.
CREATE TABLE `your_project_name.your_dataset_name.output_hashed_table_name`
AS
SELECT
  UserID,
  TO_BASE64(SHA256(LOWER(Email))) AS Email,
  TO_BASE64(SHA256(Phone)) AS Phone,
  TO_BASE64(SHA256(LOWER(FirstName))) AS FirstName,
  TO_BASE64(SHA256(LOWER(LastName))) AS LastName,
  PostalCode,
  CountryCode,
FROM
  `your_project_name.your_dataset_name.input_unhashed_table_name`;

JOIN-Schlüssel

Einige Kombinationen von von Nutzern bereitgestellten Daten sind aussagekräftiger als andere. Im Folgenden finden Sie eine Liste verschiedener Kombinationen von von Nutzern bereitgestellten Daten, sortiert nach relativer Stärke. Wenn Sie eine Adresse verwenden, müssen Sie Folgendes angeben: Vorname, Nachname, Land und Postleitzahl.

  1. E-Mail-Adresse, Telefonnummer, Adresse (stärkste)
  2. Telefonnummer, Adresse
  3. E-Mail-Adresse, Adresse
  4. E-Mail, Telefon
  5. Adresse
  6. Telefon
  7. E-Mail (schlechteste Methode)

Match-Table erstellen

  1. Klicken Sie auf Verbindungen > Verbindung erstellen > Abgleich von von Nutzern bereitgestellten Daten.
  2. Wählen Sie eine Datenquelle aus und klicken Sie auf Verbinden.
  3. Authenticate, if prompted, then click Next:

    BigQuery

    Klicken Sie auf „Übernehmen“, um Zugriff auf BigQuery zu gewähren.

    Cloud Storage

    Klicken Sie auf „Übernehmen“, um Zugriff auf Cloud Storage zu gewähren.

    MySQL

    Geben Sie den Speicherort, den Port, den Nutzernamen und das Passwort Ihrer MySQL-Datenbank ein.

    S3

    Geben Sie Ihren geheimen Zugriffsschlüssel für Amazon S3 ein.

    PostgreSQL

    Geben Sie den Speicherort, den Port, den Nutzernamen, das Passwort und die Datenbank Ihrer PostgreSQL-Datenbank ein.

    Redshift

    Geben Sie den Speicherort Ihrer Redshift-Datenbank, den Port, den Nutzernamen, das Passwort und die Datenbank ein.

    SFTP

    Geben Sie den Speicherort Ihres SFTP-Servers, Ihren Nutzernamen und Ihr Passwort ein.

    Snowflake

    Geben Sie Ihre Snowflake-Konto-ID, Ihren Nutzernamen und Ihr Passwort ein.

  4. Konfigurieren Sie die Datenquelle und klicken Sie dann auf Weiter:

    BigQuery

    Wählen Sie die BigQuery-Tabelle aus, die Sie importieren möchten.

    Cloud Storage

    Geben Sie den gsutil-Pfad ein, z. B. gs://my-bucket/folder/, und wählen Sie die Formatierung der Datei aus.

    Wenn Sie diese Ressource zum ersten Mal verbinden, wird eine Benachrichtigung angezeigt. Klicken Sie auf „Übernehmen“, um Zugriff zu gewähren, und dann auf „Weiter“. Hinweis: Sie benötigen eine Rolle mit der Berechtigung zum Delegieren von storage.buckets.setIamPolicy für den entsprechenden Bucket.

    MySQL

    Wählen Sie die gewünschte MySQL-Datenbank und ‑Tabelle aus.

    S3

    Geben Sie den URI zu der Datei ein, die Sie hochladen möchten. Er muss relativ zur Hostadresse sein.

    PostgreSQL

    Geben Sie den Namen des PostgreSQL-Schemas und der Tabelle (oder Ansicht) ein.

    Redshift

    Geben Sie den Namen des Redshift-Schemas und der Redshift-Tabelle (oder ‑Ansicht) ein. Standardmäßig verwendet Redshift Datenbank-URLs, die wie in diesem Beispiel strukturiert sind: cluster-identifier.account-number.aws-region.redshift.amazonaws.com .

    SFTP

    Geben Sie den Dateipfad und ‑namen ein, formatiert als /PATH/FILENAME.csv.

    Snowflake

    Geben Sie die gewünschte Snowflake-Datenbank sowie das Schema und die Tabelle (oder Ansicht) ein.

  5. Wählen Sie ein BigQuery-Dataset als Zwischenziel aus und klicken Sie auf Weiter. Dadurch wird sichergestellt, dass Ihre Daten richtig formatiert sind.
  6. Optional: Ändern Sie das Format Ihrer Daten. Zu den Transformationen gehören das Berechnen von Hash-Werten, die Formatierung in Klein-/Großbuchstaben und das Zusammenführen/Trennen von Feldern.
    1. Klicken Sie auf Aktion > > Transformieren.
    2. Klicken Sie im Pop-up-Fenster auf Transformation hinzufügen oder Weitere Transformation hinzufügen.
    3. Wählen Sie im Drop-down-Menü einen Transformationstyp aus und geben Sie die Anforderungen ein.
    4. Klicken Sie auf Speichern.
  7. Wählen Sie mindestens einen Join-Schlüssel aus und ordnen Sie die zu verwendenden Felder zu. In Ads Data Hub werden Felder mit identischen Namen automatisch zugeordnet. Sie sind durch ein gekennzeichnet. Nehmen Sie gegebenenfalls Änderungen vor und klicken Sie auf Weiter.
  8. So legen Sie einen Zeitplan fest:
    1. Geben Sie der Verbindung einen Namen.
    2. Legen Sie eine Häufigkeit fest, mit der Daten in den Datensatz importiert werden, den Sie im vorherigen Schritt ausgewählt haben. Bei jeder Ausführung werden die Daten in der Tabelle Ziel überschrieben.
    3. Geben Sie an, wie Kollisionen von User IDs behandelt werden sollen. Sie können auswählen, ob Sie die vorhandene Übereinstimmung beibehalten oder mit neuen Daten überschreiben möchten.
  9. Klicken Sie auf Fertig. Match-Tables können in der Regel 12 Stunden nach der Erstellung abgefragt werden.

Verbindungsdetails ansehen

Auf der Seite mit den Verbindungsdetails finden Sie Informationen zu den letzten Ausführungen und Fehlern einer bestimmten Verbindung. So rufen Sie Details zu einer bestimmten Verbindung auf:

  1. Klicken Sie auf Verbindungen.
  2. Klicken Sie auf den Namen der Verbindung, um die Details aufzurufen.
  3. Sie sehen jetzt die Details der Verbindung und die letzten Ausführungen. Für jeden werden zwei mögliche Fehlertypen angezeigt: Fehler auf Verbindungsebene (die Verbindung wurde nicht ausgeführt) und Fehler auf Zeilenebene (eine Zeile wurde nicht importiert).
    1. Der Status Fehlgeschlagen gibt an, dass die gesamte Verbindung nicht ausgeführt werden konnte (z.B. Berechtigungsproblem für das Dienstkonto). Klicken Sie auf den Fehlerstatus, um zu sehen, welche Fehler die Verbindung beeinträchtigt haben.
    2. Der Status Abgeschlossen gibt an, dass die Verbindung erfolgreich hergestellt wurde. Es können jedoch weiterhin Fehler auf Zeilenebene auftreten, die durch einen Wert ungleich Null in der Spalte „Zeilen mit Fehlern“ gekennzeichnet sind. Klicken Sie auf den Wert, um mehr über die fehlgeschlagenen Einträge zu erfahren.

Verbindung bearbeiten

Die folgenden Details können bearbeitet werden:

  • Verbindungsname
  • Planen
  • Zieltabelle
  • Feldzuordnung

Das Bearbeiten der Datenquelle wird nicht unterstützt. Wenn Sie eine Datenquelle ändern möchten, erstellen Sie eine neue Verbindung und löschen Sie die alte.

So bearbeiten Sie die Verbindungsdetails:

  1. Klicken Sie auf Verbindungen.
  2. Klicken Sie auf den Namen der Verbindung, die Sie bearbeiten möchten.
  3. Bearbeiten Sie die Details, die Sie ändern möchten:
    • Verbindungsname: Klicken Sie auf Bearbeiten, geben Sie den neuen Namen ein und drücken Sie die Eingabetaste.
    • Zeitplan: Klicken Sie auf Bearbeiten, legen Sie den neuen Zeitplan fest und klicken Sie dann auf Speichern.
    • Zieltabelle: Klicken Sie auf Bearbeiten, geben Sie den neuen Zielnamen ein und klicken Sie dann auf Speichern.
    • Feldzuordnung: Klicken Sie auf , nehmen Sie Änderungen an den Feldern vor und klicken Sie dann auf Speichern.
  4. Klicken Sie auf .

Abfrage der übereinstimmenden Daten

Match-Tables abfragen

Wenn die Match-Tables genügend Daten enthalten, um die Datenschutzprüfungen zu bestehen, können Sie Abfragen dafür ausführen.

Die ursprüngliche Tabelle für selbst erhobene Daten wird durch my_data dargestellt. Dazu gehören sowohl personenidentifizierbare Informationen als auch andere Daten. Wenn Sie die ursprüngliche Tabelle verwenden, können Sie Ihre Berichte mit mehr Statistiken verbessern, da sie im Vergleich zu einer Match-Table alle relevanten selbst erhobenen Daten enthält.

Für jede Tabelle im Ads Data Hub-Schema, die ein user_id-Feld enthält, gibt es eine entsprechende Match-Table. Beispielsweise wird für die Tabelle adh.google_ads_impressions in Ads Data Hub auch eine Match-Table mit dem Namen adh.google_ads_impressions_updm erstellt, die Ihre Nutzer-IDs enthält. Für richtlinienkonform isolierte Tabellen werden separate Match-Tables erstellt. Beispielsweise wird für die Tabelle adh.google_ads_impressions_policy_isolated_youtube in Ads Data Hub auch eine Match-Table mit dem Namen adh.google_ads_impressions_policy_isolated_youtube_updm erstellt, die Ihre Nutzer-IDs enthält.

Diese Tabellen enthalten eine Teilmenge der in den ursprünglichen Tabellen verfügbaren Nutzer, bei denen es eine Übereinstimmung mit der user_id gibt. Wenn die ursprüngliche Tabelle beispielsweise Daten für Nutzer A und Nutzer B enthält, aber nur Nutzer A abgeglichen werden kann, ist Nutzer B nicht in der Match-Table enthalten.

Die Match-Tables enthalten die zusätzliche Spalte customer_data_user_id, in der die Nutzer-ID als BYTES gespeichert wird.

Beim Erstellen von Abfragen ist es wichtig, den Feldtyp zu berücksichtigen. Für SQL-Vergleichsoperatoren ist es erforderlich, dass die zu vergleichenden Literale denselben Typ haben. Je nachdem, wie die user_id in der Tabelle mit selbst erhobenen Daten gespeichert wird, müssen Sie die Werte in der Tabelle möglicherweise codieren, bevor die Daten abgeglichen werden. Für erfolgreiche Übereinstimmungen müssen Sie den Join-Schlüssel in BYTES umwandeln:

JOIN ON
  adh.google_ads_impressions_updm.customer_data_user_id = CAST(my_data.user_id AS BYTES)

Außerdem wird bei Stringvergleichen in SQL die Groß- und Kleinschreibung berücksichtigt. Eventuell müssen Sie also Strings auf beiden Seiten des Vergleichs entsprechend codieren, damit sie richtig verglichen werden können.

Beispielabfragen

Übereinstimmende Nutzer zählen

Mit dieser Abfrage wird die Anzahl der übereinstimmenden Nutzer in Ihrer Google Ads-Impressionstabelle gezählt.

/* Count matched users in Google Ads impressions table */

SELECT COUNT(DISTINCT user_id)
FROM adh.google_ads_impressions_updm

Abgleichsrate berechnen

Nicht alle Nutzer können abgeglichen werden. So werden beispielsweise nicht angemeldete Nutzer, Kinder und Nutzer ohne Einwilligung nicht über UPDM abgeglichen. Mit dem Feld is_updm_eligible lassen sich genauere Abgleichsraten für die von Nutzern bereitgestellten Daten berechnen. Das Feld is_updm_eligible ist seit dem 1. Oktober 2024 verfügbar. Vor diesem Datum können Sie dieses Feld nicht verwenden, um Abgleichsraten zu berechnen.

/* Calculate the UPDM match rate */

CREATE TEMP TABLE total_events OPTIONS(privacy_checked_export=TRUE) AS
SELECT
  customer_id,
  COUNT(*) AS n
FROM adh.google_ads_impressions
WHERE is_updm_eligible
GROUP BY 1;

CREATE TEMP TABLE matched_events OPTIONS(privacy_checked_export=TRUE) AS
SELECT
  customer_id,
  COUNT(*) AS n
FROM adh.google_ads_impressions_updm
GROUP BY 1;

SELECT
  customer_id,
  SAFE_DIVIDE(matched_events.n, total_events.n) AS match_rate
FROM total_events
LEFT JOIN matched_events
  USING (customer_id)

Selbst erhobene Daten mit Google Ads-Daten zusammenführen

In dieser Abfrage wird gezeigt, wie Sie selbst erhobene Daten mit Google Ads-Daten zusammenführen:

/* Join first-party data with Google Ads data. The customer_data_user_id field
contains your ID as BYTES. You need to cast your join key into BYTES for
successful matches. */

SELECT
  inventory_type,
  COUNT(*) AS impressions
FROM
  adh.yt_reserve_impressions_updm AS google_data_imp
LEFT JOIN
  `my_data`
ON
  google_data_imp.customer_data_user_id = CAST(my_data.user_id AS BYTES)
GROUP BY
  inventory_type

Häufig gestellte Fragen zu UPDM

Eine Liste der häufig gestellten Fragen zu UPDM finden Sie unter Häufig gestellte Fragen zu UPDM.