Beim Abgleich der von Nutzern bereitgestellten Daten (user-provided data matching, UPDM) werden selbst erhobene Daten zu einem bestimmten Nutzer, etwa Informationen von Websites, aus Apps oder aus Geschäften, mit den Aktivitäten genau dieses angemeldeten Nutzers in allen Google-Anzeigendaten zusammengeführt, einschließlich der von Google selbst erhobenen und verwalteten Daten. Dazu gehören auch Daten, die über Produkte der Google Marketing Platform (GMP) gekauft wurden, z. B. YouTube-Daten, die über Display & Video 360 gekauft wurden. Andere GMP-Produkte, die nicht zu Google gehören und nicht von Google betrieben werden, werden nicht unterstützt.
Damit von Nutzern bereitgestellte Daten abgeglichen werden können, muss das Anzeigenereignis mit einem angemeldeten Nutzer in Google-Anzeigendaten verknüpft sein.
In diesem Dokument wird die Funktion zum Abgleich von von Nutzern bereitgestellten Daten beschrieben. Außerdem finden Sie hier eine Anleitung zur Einrichtung und Verwendung.
Tab „Verbindungen“ – Übersicht
Um wertvolle Informationen zu erhalten, müssen oft Daten aus mehreren Quellen zusammengeführt werden. Die Entwicklung einer eigenen Lösung für dieses Datenpipeline-Problem erfordert einen erheblichen Zeit- und Entwicklungsaufwand. Auf der Seite „Verbindungen“ im Ads Data Hub können Sie Ihre Anzeigendaten in BigQuery importieren, transformieren und abgleichen. Dazu wird Ihnen eine schrittweise Anleitung angezeigt. So können Sie die Daten in Ihren Ads Data Hub-Abfragen oder in anderen Produkten verwenden, die Daten aus BigQuery abrufen. Wenn Sie selbst erhobene Daten für Ihre Abfragen verwenden, können Sie Kunden noch mehr bieten. Außerdem sind Sie dann besser auf branchenweite Änderungen beim Anzeigen-Tracking vorbereitet.
Die Seite „Verbindungen“ enthält Tools, mit denen Sie personenidentifizierbare Informationen (PII) verschlüsseln und auf datenschutzfreundliche Weise mit Partnern teilen können. Nachdem Sie ausgewählt haben, welche Spalten personenbezogene Daten enthalten, werden diese in Ads Data Hub verschlüsselt. So können Ihre selbst erhobenen Daten nur von Personen exportiert oder gelesen werden, die dazu berechtigt sind. Es kann schwierig sein, zu wissen, welche selbst erhobenen Daten für Ihren Analyse- oder Aktivierungsfall erforderlich sind. Daher bietet Ads Data Hub eine umfassende Liste vordefinierter Anwendungsfälle und führt Sie durch den gesamten Prozess zum Extrahieren, Transformieren und Laden Ihrer Daten. Sie können mehrere Arten von Verbindungen erstellen. In diesem Dokument wird davon ausgegangen, dass Sie die Seite „Verbindungen“ für die Übereinstimmung von von Nutzern bereitgestellten Daten verwenden.
Unterstützte Quellen für selbst erhobene Daten
Sie können Daten aus den folgenden Datenquellen importieren:
- BigQuery
- Cloud Storage
- Secure FTP (sFTP)
- Snowflake
- MySQL
- PostgreSQL
- Amazon Redshift
- Amazon S3
Da der Abgleich der von Nutzern bereitgestellten Daten nur für Nutzer verfügbar ist, die in Inventar angemeldet sind, das Google gehört und von Google betrieben wird, ist er von der bevorstehenden Einstellung von Drittanbieter-Cookies nicht betroffen. Da sie widerstandsfähiger gegen branchenbezogene Änderungen sind als Drittanbieterdaten, können sie umfassendere Informationen liefern, was zu mehr Kundeninteraktionen führen kann.
Wichtige Begriffe
- Verbindung zu von Nutzern bereitgestellten Daten:Sie können eine Verbindung zu von Nutzern bereitgestellten Daten einrichten, um Daten zu importieren und abzugleichen, Datenimporte zu planen, Daten zu transformieren und Ihre Anzeigendaten mithilfe einer Nutzer-ID abzugleichen. Das Anzeigenereignis muss mit einem angemeldeten Nutzer in Google-Anzeigendaten verknüpft sein. Erfordert mehrere Google Cloud-Projekte.
- Verbindung zu selbst erhobenen Daten:Richten Sie eine Verbindung zu selbst erhobenen Daten als Tool zur Datenvorbereitung ein, um Datenimporte zu planen und Daten ohne die erweiterten Funktionen des Abgleichs der von Nutzern bereitgestellten Daten zu transformieren. Für diese Art von Verbindung ist nur ein Google Cloud-Projekt erforderlich.
- Datenquelle:Ein verknüpftes Produkt, eine importierte Datei oder eine Drittanbieterintegration, z. B. BigQuery.
- Ziel:Ein Anwendungsfall, in der Regel ein Google-Produkt oder eine entsprechende Funktion, für das bzw. die importierte Daten verwendet werden, z. B. der Abgleich der von Nutzern bereitgestellten Daten in Ads Data Hub.
- Verwaltungsprojekt: Das Google Cloud-Projekt, das Ihre eigenen Werbedaten im Rohformat enthält.
- Ausgabe-Dataset:Das BigQuery-Dataset, in das Ads Data Hub schreibt. Standardmäßig ist dies ein Dataset in Ihrem Verwaltungsprojekt. Wie Sie es in ein anderes Google Cloud-Projekt ändern, erfahren Sie unter Dienstkonten konfigurieren.
Ablauf
- Datenaufnahme und -abgleich einrichten
- Sie gewähren den Dienstkonten in Ihrem Verwaltungsprojekt die erforderlichen Berechtigungen. Weitere Informationen finden Sie unter Datenaufnahme einrichten.
- Aufnahme und Abgleich selbst erhobener Daten
- Sie formatieren Ihre selbst erhobenen Daten und laden sie in Ihr BigQuery-Dataset hoch. Die einfachste Einrichtung ist über Ihr Administratorprojekt möglich. Sie können jedoch jedes BigQuery-Dataset verwenden, dessen Inhaber Sie sind.
- Sie initiieren eine Anfrage zum Abgleich von Daten, indem Sie eine Verbindung herstellen und einen Importzeitplan festlegen.
- Google führt Daten aus Ihrem Projekt mit Google-eigenen Daten zusammen, die die Nutzer-ID von Google und gehashte von Nutzern bereitgestellte Daten enthalten, um Abgleichstabellen zu erstellen und zu aktualisieren.
- Weitere Informationen finden Sie unter Selbst erhobene Daten aufnehmen.
- Laufende Abfragen in Ads Data Hub, die auf abgeglichenen Daten basieren
- Sie führen Abfragen auf die Match-Tables aus, genau wie Sie normale Abfragen in Ads Data Hub ausführen. Weitere Informationen finden Sie unter Abgeglichene Daten abfragen.
Informationen zu den Datenschutzanforderungen
Erhebung von Kundendaten
Wenn Sie den Abgleich der von Nutzern bereitgestellten Daten verwenden, müssen Sie selbst erhobene Daten hochladen. Das können Daten sein, die Sie auf Ihren Websites, in Ihren Apps oder in Ihren Geschäften erhoben haben, oder Daten, die Kunden direkt mit Ihnen geteilt haben.
Die folgenden Anforderungen müssen erfüllt sein:
- Legen Sie in Ihrer Datenschutzerklärung offen, dass Sie Kundendaten an Dritte weitergeben, damit sie Dienstleistungen in Ihrem Auftrag erbringen können. Holen Sie außerdem, soweit gesetzlich erforderlich, die Einwilligung des entsprechenden Kunden für die Weitergabe der Daten ein.
- Laden Sie Kundendaten nur über APIs oder Schnittstellen hoch, die von Google zugelassen sind.
- Halten Sie alle anwendbaren Gesetze und Bestimmungen ein, darunter auch Selbstregulierungs- und Branchenkodizes.
Einholen der Einwilligung für selbst erhobene Daten bestätigen
Damit Sie Ihre selbst erhobenen Daten in Ads Data Hub nutzen können, müssen Sie bestätigen, dass Sie die entsprechende Einwilligung zur Weitergabe von Daten von Endnutzern im EWR an Google gemäß der Richtlinie zur Einwilligung der Nutzer in der EU und den Ads Data Hub-Richtlinien eingeholt haben. Die Bestätigung ist für jedes Ads Data Hub-Konto und bei jedem Upload neuer selbst erhobener Daten erforderlich. Jeder Nutzer kann die Bestätigung für das gesamte Konto abgeben.
Hinweis: Für UPDM-Abfragen gelten dieselben Regeln für Google-Dienst-Abfragen wie für Analyseabfragen. So sind z. B. keine dienstübergreifenden Abfragen für Nutzer im EWR möglich, wenn Sie eine Match-Table erstellen.
Informationen dazu, wie Sie in Ads Data Hub bestätigen, dass Sie die Einwilligung eingeholt haben, finden Sie unter Einwilligungsanforderungen für den Europäischen Wirtschaftsraum.
Datengröße
Aus Datenschutzgründen gelten für die Abgleiche von von Nutzern bereitgestellten Daten die folgenden Anforderungen an die Datengröße:
- Sie müssen mindestens 1.000 Einträge in Ihre Nutzerliste hochladen.
- Jede erfolgreiche Aktualisierung Ihrer Abgleichstabelle muss eine Mindestanzahl neu abgeglichener Nutzer umfassen. Dieses Verhalten ähnelt Unterschiedsüberprüfungen.
- Ihre Liste darf die maximale Anzahl von Einträgen nicht überschreiten. Informationen zum maximalen Datenlimit erhalten Sie von Ihrem Google-Ansprechpartner.
Datenaufnahme einrichten
Bevor Sie beginnen, müssen Sie Ihr Ads Data Hub-Konto so konfigurieren, dass Datenverbindungen erstellt werden können. So legen Sie die Pipeline für die Datenabgleiche fest. Sie müssen diese Schritte nur einmal ausführen.
Klicken Sie auf der Seite Verbindungen auf Einrichtung starten, um den Einrichtungsassistenten für das Konto in der UPDM-Aktivierungsphase zu öffnen.
Welche Berechtigungen werden für BigQuery und Cloud Storage gewährt?
Wenn Sie UPDM für die Verwendung mit BigQuery oder Cloud Storage einrichten, finden Sie in dieser Referenz Informationen zu den Berechtigungen, die den Ads Data Hub-Dienstkonten gewährt werden.
BigQuery
Data Fusion-Dienstkonto | |||||||||
Zweck | Mit dem Data Fusion-Dienstkonto wird eine Liste von Datenquellenfeldern in Ads Data Hub angezeigt. | ||||||||
Format | service-some-number@gcp-sa-datafusion.iam.gserviceaccount.com |
||||||||
Erforderlicher Zugriff |
|
||||||||
Dataproc-Dienstkonto | |||||||||
Zweck | Das Dataproc-Dienstkonto ist für das Ausführen der Datenpipelines im Hintergrund zuständig. | ||||||||
Format | some-number-compute@developer.gserviceaccount.com |
||||||||
Erforderlicher Zugriff |
|
||||||||
UPDM-Dienstkonto | |||||||||
Zweck | Das UPDM-Dienstkonto wird zum Ausführen des Abgleichjobs verwendet. | ||||||||
Format | service-some-number@gcp-sa-adsdataconnector.iam.gserviceaccount.com |
||||||||
Erforderlicher Zugriff |
|
Cloud Storage
Data Fusion-Dienstkonto | |||||||
Zweck | Mit dem Data Fusion-Dienstkonto wird eine Liste von Datenquellenfeldern in Ads Data Hub angezeigt. | ||||||
Format | service-some-number@gcp-sa-datafusion.iam.gserviceaccount.com |
||||||
Erforderlicher Zugriff |
|
||||||
Dataproc-Dienstkonto | |||||||
Zweck | Das Dataproc-Dienstkonto ist für das Ausführen der Datenpipelines im Hintergrund zuständig. | ||||||
Format | some-number-compute@developer.gserviceaccount.com |
||||||
Erforderlicher Zugriff |
|
||||||
UPDM-Dienstkonto | |||||||
Zweck | Das UPDM-Dienstkonto wird zum Ausführen des Abgleichjobs verwendet. | ||||||
Format | service-some-number@gcp-sa-adsdataconnector.iam.gserviceaccount.com |
||||||
Erforderlicher Zugriff |
|
Sonstige Datenquellen
Nicht erforderlich für andere Datenquellen
Selbst erhobene Daten aufnehmen und abgleichen
Daten für die Eingabe formatieren
Damit Ihre Daten richtig abgeglichen werden können, müssen sie diese Formatierungsanforderungen erfüllen:
- Sofern in den folgenden Eingabefeldbeschreibungen angegeben, müssen Sie die Daten mit SHA256-Hash-Technologie hochladen.
- Eingabefelder müssen als Strings formatiert sein. Wenn Sie beispielsweise die SHA256-Hash-Funktion von BigQuery mit der Base16-Codierungsfunktion (TO_HEX) verwenden, verwenden Sie die folgende Transformation:
TO_HEX(SHA256(user_data))
. - UPDM unterstützt sowohl die Base16- als auch die Base64-Codierung. Die Codierung Ihrer selbst erhobenen Daten muss mit der Dekodierung übereinstimmen, die in Ihrer Ads Data Hub-Abfrage verwendet wird. Wenn Sie die Codierung Ihrer selbst erhobenen Daten ändern, müssen Sie Ihre Ads Data Hub-Abfrage so aktualisieren, dass sie von derselben Basis decodiert wird. In den folgenden Beispielen wird die Base16-Codierung verwendet.
Nutzer-ID
- Nur Text
- Hash-Technologie: Keine
- Vor- und nachangestellte Leerzeichen entfernen
- Alle Zeichen kleinschreiben
- Geben Sie einen Domainnamen für alle E-Mail-Adressen an, z. B. gmail.com oder hotmail.de.
- Entfernen Sie Akzente, z. B. ändern Sie è, é, ê oder ë in e.
- Entfernen Sie alle Punkte (.) vor dem Domainnamen in
gmail.com
- undgooglemail.com
-E-Mail-Adressen. - Hash-Technologie: Base16-codierte SHA256
Gültig:TO_HEX(SHA256("jeffersonloveshiking@gmail.com"))
Ungültig:TO_HEX(SHA256("JéffersonLôvesHiking@gmail.com"))
Telefon
- Leerzeichen entfernen
- Formatieren Sie die Nummer im E.164-Format. Beispiel für die USA: +14155552671, Beispiel für das Vereinigte Königreich: +442071838750
- Entfernen Sie alle Sonderzeichen vor dem Ländercode, mit Ausnahme des „+“.
- Hash-Technologie: Base16-codierte SHA256
Gültig:TO_HEX(SHA256("+18005550101"))
Ungültig:TO_HEX(SHA256("(800) 555-0101"))
Vorname
- Leerzeichen entfernen
- Alle Zeichen kleinschreiben
- Entfernen Sie alle Präfixe, z. B. Herr, Frau, Dr.
- Entfernen Sie keine Akzente, z. B. è, é, ê oder ë.
- Hash-Technologie: Base16-codierte SHA256
Gültig:TO_HEX(SHA256("daní"))
Ungültig:TO_HEX(SHA256("Daní"))
Nachname
- Leerzeichen entfernen
- Alle Zeichen kleinschreiben
- Entfernen Sie alle Suffixe, z. B. Jr., Sr., 2nd, 3rd, II, III, PHD, MD
- Entfernen Sie keine Akzente, z. B. è, é, ê oder ë.
- Hash-Technologie: Base16-codierte SHA256
Gültig:TO_HEX(SHA256("delacruz"))
Ungültig:TO_HEX(SHA256("de la Cruz, Jr."))
Land
- Geben Sie den Ländercode auch dann an, wenn Ihre gesamten Kundendaten aus demselben Land stammen.
- Länderdaten nicht hashen
- Verwenden Sie Ländercodes gemäß ISO 3166-1 alpha-2.
- Hash-Technologie: Keine
Gültig:US
Ungültig:United States of America
oder USA
Postleitzahl
- Postleitzahlen nicht hashen
- Sowohl US-amerikanische als auch internationale Postleitzahlen sind zulässig
- Für die USA:
- Fünfstellige Codes sind zulässig, z. B. 94043.
- Fünf Ziffern, gefolgt von einer vierstelligen Erweiterung, sind ebenfalls zulässig, z. B. 94043-1351 oder 940431351.
- Für alle anderen Länder:
- Keine Formatierung erforderlich (keine Umwandlung in Kleinbuchstaben, keine Entfernung von Leerzeichen und Sonderzeichen)
- Lassen Sie Postleitzahlerweiterungen weg.
- Hash-Technologie: Keine
Hash-Bestätigung und Datencodierung
Mit den folgenden Hash-Validierungsscripts können Sie prüfen, ob Ihre Daten richtig formatiert sind.
JavaScript
Base16
/**
* @fileoverview Provides the hashing algorithm for User-Provided Data Match, as
* well as some valid hashes of sample data for testing.
*/
async function hash(token) {
// Removes leading or trailing spaces and converts all characters to lowercase.
const formattedToken = token.trim().toLowerCase();
// Hashes the formatted string using the SHA-256 hashing algorithm.
const hashArrayBuffer = await crypto.subtle.digest(
'SHA-256', (new TextEncoder()).encode(formattedToken));
// Converts the hash buffer to a hexadecimal string.
return Array.from(new Uint8Array(hashArrayBuffer))
.map((b) => b.toString(16).padStart(2, '0'))
.join('');
}
function main() {
// Expected hash for test@gmail.com:
// 87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674
hash('test@gmail.com').then(result => console.log(result));
// Expected hash for +18005551212:
// 61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44
hash('+18005551212').then(result => console.log(result));
// Expected hash for John:
// 96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a
hash('John').then(result => console.log(result));
// Expected hash for Doe:
// 799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f
hash('Doe').then(result => console.log(result));
}
main()
Base64
/**
* @fileoverview Provides the hashing algorithm, as well as some valid hashes of
* sample data for testing.
*/
async function hash(token) {
// Removes leading or trailing spaces and converts all characters to lowercase.
const formattedToken = token.trim().toLowerCase();
// Hashes the formatted string using the SHA-256 hashing algorithm.
const hashBuffer = await crypto.subtle.digest(
'SHA-256', (new TextEncoder()).encode(formattedToken));
// Converts the hash buffer to a base64-encoded string and returns it.
const base64Str = btoa(String.fromCharCode(...new Uint8Array(hashBuffer)));
return base64Str;
}
function main() {
// Expected hash for test@gmail.com:
// h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
hash('test@gmail.com').then(result => console.log(result));
// Expected hash for +18005551212:
// YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
hash('+18005551212').then(result => console.log(result));
// Expected hash for John: ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
hash('John').then(result => console.log(result));
// Expected hash for Doe: eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
hash('Doe').then(result => console.log(result));
}
main()
Python
Base16
"""Provides the hashing algorithm, as well as some valid hashes of sample data for testing.
Supports: Python 2, Python 3
Sample hashes:
- Email 'test@gmail.com': 87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674
- Phone '+18005551212': 61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44
- First name 'John': 96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a
- Last name 'Doe': 799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f
"""
import base64
import hashlib
def updm_hash(token):
# Generates a SHA-256 hash of the input token after normalization.
return hashlib.sha256(token.strip().lower().encode('utf-8')).hexdigest()
def print_updm_hash(token):
# Prints the SHA-256 hash and the original token.
print('Hash: "{}"\t(Token: {})'.format(updm_hash(token), token))
def main():
# Hashes and prints sample tokens.
print_updm_hash('test@gmail.com')
print_updm_hash('+18005551212')
print_updm_hash('John')
print_updm_hash('Doe')
if __name__ == '__main__':
main()
Base64
"""Provides the hashing algorithm, as well as some valid hashes of sample data for testing.
Supports: Python 2, Python 3
Sample hashes:
- Email 'test@gmail.com': h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
- Phone '+18005551212': YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
- First name 'John': ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
- Last name 'Doe': eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
"""
import base64
import hashlib
def hash(token):
# Generates a base64-encoded SHA-256 hash of a normalized input string.
return base64.b64encode(
hashlib.sha256(
token.strip().lower().encode('utf-8')).digest()).decode('utf-8')
def print_hash(token, expected=None):
# Computes and displays the hash of a token, with optional validation.
hashed = hash(token)
if expected is not None and hashed != expected:
print(
'ERROR: Incorrect hash for token "{}". Expected "{}", got "{}"'.format(
token, expected, hashed))
return
print('Hash: "{}"\t(Token: {})'.format(hashed, token))
def main():
# Tests the hash function with sample tokens and expected results.
print_hash(
'test@gmail.com', expected='h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=')
print_hash(
'+18005551212', expected='YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=')
print_hash('John', expected='ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=')
print_hash('Doe', expected='eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=')
if __name__ == '__main__':
main()
Ok
Base16
/*
Provides the hashing algorithm, as well as some valid hashes of sample data for testing.
Sample hashes:
- Email 'test@gmail.com': 87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674
- Phone '+18005551212': 61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44
- First name 'John': 96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a
- Last name 'Doe': 799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f
*/
package main
import (
"crypto/sha256"
"fmt"
"strings"
)
// Hash hashes an email, phone, first name, or last name into the correct format.
func Hash(token string) string {
formatted := strings.TrimSpace(strings.ToLower(token))
hashed := sha256.Sum256([]byte(formatted))
encoded := fmt.Sprintf("%x", hashed[:])
return encoded
}
// PrintHash prints the hash for a token.
func PrintHash(token string) {
fmt.Printf("Hash: \"%s\"\t(Token: %s)\n", Hash(token), token)
}
func main() {
PrintHash("test@gmail.com")
PrintHash("+18005551212")
PrintHash("John")
PrintHash("Doe")
}
Base64
/*
Provides the hashing algorithm, as well as some valid hashes of sample data for testing.
Sample hashes:
- Email 'test@gmail.com': h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
- Phone '+18005551212': YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
- First name 'John': ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
- Last name 'Doe': eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
*/
package main
import (
"crypto/sha256"
"encoding/base64"
"fmt"
"strings"
)
// Hash hashes an email, phone, first name, or last name into the correct format.
func Hash(token string) string {
formatted := strings.TrimSpace(strings.ToLower(token))
hashed := sha256.Sum256([]byte(formatted))
encoded := base64.StdEncoding.EncodeToString(hashed[:])
return encoded
}
// PrintHash prints the hash for a token.
func PrintHash(token string) {
fmt.Printf("Hash: \"%s\"\t(Token: %s)\n", Hash(token), token)
}
func main() {
PrintHash("test@gmail.com")
PrintHash("+18005551212")
PrintHash("John")
PrintHash("Doe")
}
Java
Base16
package updm.hashing;
import static java.nio.charset.StandardCharsets.UTF_8;
import com.google.common.base.Ascii;
import com.google.common.hash.Hashing;
/**
* Example of the UPDM hashing algorithm using hex-encoded SHA-256.
*
* <p>This uses the Guava Hashing to generate the hash: https://github.com/google/guava
*
* <p>Sample valid hashes:
*
* <ul>
* <li>Email "test@gmail.com": "87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674"
* <li>Phone "+18005551212": "61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44"
* <li>First name "John": "96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a"
* <li>Last name "Doe": "799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f"
* </ul>
*/
public final class HashExample {
private HashExample() {}
public static String hash(String token) {
// Normalizes and hashes the input token.
String formattedToken = Ascii.toLowerCase(token).strip();
return Hashing.sha256().hashString(formattedToken, UTF_8).toString();
}
public static void printHash(String token) {
// Calculates and prints the token's hash.
System.out.printf("Hash: \"%s\"\t(Token: %s)\n", hash(token), token);
}
public static void main(String[] args) {
// Executes hash calculations and prints results for sample tokens.
printHash("test@gmail.com");
printHash("+18005551212");
printHash("John");
printHash("Doe");
}
}
Base64
package updm.hashing;
import static java.nio.charset.StandardCharsets.UTF_8;
import java.security.MessageDigest;
import java.security.NoSuchAlgorithmException;
import java.util.Base64;
/**
* Example of the hashing algorithm.
*
* <p>Sample hashes:
*
* <ul>
* <li>Email 'test@gmail.com': h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
* <li>Phone '+18005551212': YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
* <li>First name 'John': ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
* <li>Last name 'Doe': eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
* </ul>
*/
public final class HashExample {
private HashExample() {}
public static String hash(String token) {
// Normalizes and hashes the input token using SHA-256 and Base64 encoding.
String formattedToken = token.toLowerCase().strip();
byte[] hash;
try {
hash = MessageDigest.getInstance("SHA-256").digest(formattedToken.getBytes(UTF_8));
} catch (NoSuchAlgorithmException e) {
throw new IllegalStateException("SHA-256 not supported", e);
}
return Base64.getEncoder().encodeToString(hash);
}
public static void printHash(String token) {
// Calculates and prints the hash for the given token.
System.out.printf("Hash: \"%s\"\t(Token: %s)\n", hash(token), token);
}
public static void main(String[] args) {
// Executes hash calculations and prints results for sample tokens.
printHash("test@gmail.com");
printHash("+18005551212");
printHash("John");
printHash("Doe");
}
}
SQL
Base16
/*
Provides the hashing algorithm, as well as some valid hashes of sample data for testing.
The following code uses Google Standard SQL and can be run on BigQuery to generate match tables from unhashed data.
Sample hashes:
- Email 'test@gmail.com': 87924606b4131a8aceeeae8868531fbb9712aaa07a5d3a756b26ce0f5d6ca674
- Phone '+18005551212': 61d9111bed3e6d9cfc1bc3b5cb35a402687c4f1546bee061a2bd444fbdd64c44
- First name 'John': 96d9632f363564cc3032521409cf22a852f2032eec099ed5967c0d000cec607a
- Last name 'Doe': 799ef92a11af918e3fb741df42934f3b568ed2d93ac1df74f1b8d41a27932a6f
The unhashed input table schema is assumed to be:
- Column name: UserID, Type: String
- Column name: Email, Type: String
- Column name: Phone, Type: String
- Column name: FirstName, Type: String
- Column name: LastName, Type: String
- Column name: PostalCode, Type: String
- Column name: CountryCode, Type: String
*/
-- Creates a new table with hashed versions of specified columns from the input table.
CREATE TABLE `your_project_name.your_dataset_name.output_hashed_table_name`
AS
SELECT
UserID,
TO_HEX(SHA256(LOWER(Email))) AS Email,
TO_HEX(SHA256(Phone)) AS Phone,
TO_HEX(SHA256(LOWER(FirstName))) AS FirstName,
TO_HEX(SHA256(LOWER(LastName))) AS LastName,
PostalCode,
CountryCode,
FROM
`your_project_name.your_dataset_name.input_unhashed_table_name`;
Base64
/*
Provides the hashing algorithm, as well as some valid hashes of sample data for testing.
The following code uses Google Standard SQL and can be run on BigQuery to generate match tables from unhashed data.
Sample hashes:
- Email 'test@gmail.com': h5JGBrQTGorO7q6IaFMfu5cSqqB6XTp1aybOD11spnQ=
- Phone '+18005551212': YdkRG+0+bZz8G8O1yzWkAmh8TxVGvuBhor1ET73WTEQ=
- First name 'John': ltljLzY1ZMwwMlIUCc8iqFLyAy7sCZ7VlnwNAAzsYHo=
- Last name 'Doe': eZ75KhGvkY4/t0HfQpNPO1aO0tk6wd908bjUGieTKm8=
The unhashed input table schema is assumed to be:
- Column name: UserID, Type: String
- Column name: Email, Type: String
- Column name: Phone, Type: String
- Column name: FirstName, Type: String
- Column name: LastName, Type: String
- Column name: PostalCode, Type: String
- Column name: CountryCode, Type: String
*/
-- Creates a new table with Base64-encoded SHA-256 hashes of specified columns.
CREATE TABLE `your_project_name.your_dataset_name.output_hashed_table_name`
AS
SELECT
UserID,
TO_BASE64(SHA256(LOWER(Email))) AS Email,
TO_BASE64(SHA256(Phone)) AS Phone,
TO_BASE64(SHA256(LOWER(FirstName))) AS FirstName,
TO_BASE64(SHA256(LOWER(LastName))) AS LastName,
PostalCode,
CountryCode,
FROM
`your_project_name.your_dataset_name.input_unhashed_table_name`;
JOIN-Schlüssel
Einige Kombinationen von von Nutzern bereitgestellten Daten sind aussagekräftiger als andere. Im Folgenden finden Sie eine Liste verschiedener Kombinationen von von Nutzern bereitgestellten Daten, sortiert nach relativer Stärke. Wenn Sie eine Adresse verwenden, müssen Sie Folgendes angeben: Vorname, Nachname, Land und Postleitzahl.
- E-Mail-Adresse, Telefonnummer, Adresse (stärkste)
- Telefonnummer, Adresse
- E-Mail-Adresse, Adresse
- E-Mail, Telefon
- Adresse
- Telefon
- E-Mail (schlechteste Methode)
Match-Table erstellen
- Klicken Sie auf Verbindungen > Verbindung erstellen > Abgleich von von Nutzern bereitgestellten Daten.
- Wählen Sie eine Datenquelle aus und klicken Sie auf Verbinden.
- Authenticate, if prompted, then click Next:
BigQuery
Klicken Sie auf „Übernehmen“, um Zugriff auf BigQuery zu gewähren.
Cloud Storage
Klicken Sie auf „Übernehmen“, um Zugriff auf Cloud Storage zu gewähren.
MySQL
Geben Sie den Speicherort, den Port, den Nutzernamen und das Passwort Ihrer MySQL-Datenbank ein.
S3
Geben Sie Ihren geheimen Zugriffsschlüssel für Amazon S3 ein.
PostgreSQL
Geben Sie den Speicherort, den Port, den Nutzernamen, das Passwort und die Datenbank Ihrer PostgreSQL-Datenbank ein.
Redshift
Geben Sie den Speicherort Ihrer Redshift-Datenbank, den Port, den Nutzernamen, das Passwort und die Datenbank ein.
SFTP
Geben Sie den Speicherort Ihres SFTP-Servers, Ihren Nutzernamen und Ihr Passwort ein.
Snowflake
Geben Sie Ihre Snowflake-Konto-ID, Ihren Nutzernamen und Ihr Passwort ein.
- Konfigurieren Sie die Datenquelle und klicken Sie dann auf Weiter:
BigQuery
Wählen Sie die BigQuery-Tabelle aus, die Sie importieren möchten.
Cloud Storage
Geben Sie den gsutil-Pfad ein, z. B.
gs://my-bucket/folder/
, und wählen Sie die Formatierung der Datei aus.Wenn Sie diese Ressource zum ersten Mal verbinden, wird eine Benachrichtigung angezeigt. Klicken Sie auf „Übernehmen“, um Zugriff zu gewähren, und dann auf „Weiter“. Hinweis: Sie benötigen eine Rolle mit der Berechtigung zum Delegieren von
storage.buckets.setIamPolicy
für den entsprechenden Bucket.MySQL
Wählen Sie die gewünschte MySQL-Datenbank und ‑Tabelle aus.
S3
Geben Sie den URI zu der Datei ein, die Sie hochladen möchten. Er muss relativ zur Hostadresse sein.
PostgreSQL
Geben Sie den Namen des PostgreSQL-Schemas und der Tabelle (oder Ansicht) ein.
Redshift
Geben Sie den Namen des Redshift-Schemas und der Redshift-Tabelle (oder ‑Ansicht) ein. Standardmäßig verwendet Redshift Datenbank-URLs, die wie in diesem Beispiel strukturiert sind:
cluster-identifier.account-number.aws-region.redshift.amazonaws.com
.SFTP
Geben Sie den Dateipfad und ‑namen ein, formatiert als
/PATH/FILENAME.csv
.Snowflake
Geben Sie die gewünschte Snowflake-Datenbank sowie das Schema und die Tabelle (oder Ansicht) ein.
- Wählen Sie ein BigQuery-Dataset als Zwischenziel aus und klicken Sie auf Weiter. Dadurch wird sichergestellt, dass Ihre Daten richtig formatiert sind.
- Optional: Ändern Sie das Format Ihrer Daten. Zu den Transformationen gehören das Berechnen von Hash-Werten, die Formatierung in Klein-/Großbuchstaben und das Zusammenführen/Trennen von Feldern.
- Klicken Sie auf Aktion > > Transformieren.
- Klicken Sie im Pop-up-Fenster auf Transformation hinzufügen oder Weitere Transformation hinzufügen.
- Wählen Sie im Drop-down-Menü einen Transformationstyp aus und geben Sie die Anforderungen ein.
- Klicken Sie auf Speichern.
- Wählen Sie mindestens einen Join-Schlüssel aus und ordnen Sie die zu verwendenden Felder zu. In Ads Data Hub werden Felder mit identischen Namen automatisch zugeordnet. Sie sind durch ein gekennzeichnet. Nehmen Sie gegebenenfalls Änderungen vor und klicken Sie auf Weiter.
- So legen Sie einen Zeitplan fest:
- Geben Sie der Verbindung einen Namen.
- Legen Sie eine Häufigkeit fest, mit der Daten in den Datensatz importiert werden, den Sie im vorherigen Schritt ausgewählt haben. Bei jeder Ausführung werden die Daten in der Tabelle Ziel überschrieben.
- Geben Sie an, wie Kollisionen von User IDs behandelt werden sollen. Sie können auswählen, ob Sie die vorhandene Übereinstimmung beibehalten oder mit neuen Daten überschreiben möchten.
- Klicken Sie auf Fertig. Match-Tables können in der Regel 12 Stunden nach der Erstellung abgefragt werden.
Verbindungsdetails ansehen
Auf der Seite mit den Verbindungsdetails finden Sie Informationen zu den letzten Ausführungen und Fehlern einer bestimmten Verbindung. So rufen Sie Details zu einer bestimmten Verbindung auf:
- Klicken Sie auf Verbindungen.
- Klicken Sie auf den Namen der Verbindung, um die Details aufzurufen.
- Sie sehen jetzt die Details der Verbindung und die letzten Ausführungen. Für jeden werden zwei mögliche Fehlertypen angezeigt: Fehler auf Verbindungsebene (die Verbindung wurde nicht ausgeführt) und Fehler auf Zeilenebene (eine Zeile wurde nicht importiert).
- Der Status Fehlgeschlagen gibt an, dass die gesamte Verbindung nicht ausgeführt werden konnte (z.B. Berechtigungsproblem für das Dienstkonto). Klicken Sie auf den Fehlerstatus, um zu sehen, welche Fehler die Verbindung beeinträchtigt haben.
- Der Status Abgeschlossen gibt an, dass die Verbindung erfolgreich hergestellt wurde. Es können jedoch weiterhin Fehler auf Zeilenebene auftreten, die durch einen Wert ungleich Null in der Spalte „Zeilen mit Fehlern“ gekennzeichnet sind. Klicken Sie auf den Wert, um mehr über die fehlgeschlagenen Einträge zu erfahren.
Verbindung bearbeiten
Die folgenden Details können bearbeitet werden:
- Verbindungsname
- Planen
- Zieltabelle
- Feldzuordnung
Das Bearbeiten der Datenquelle wird nicht unterstützt. Wenn Sie eine Datenquelle ändern möchten, erstellen Sie eine neue Verbindung und löschen Sie die alte.
So bearbeiten Sie die Verbindungsdetails:
- Klicken Sie auf Verbindungen.
- Klicken Sie auf den Namen der Verbindung, die Sie bearbeiten möchten.
- Bearbeiten Sie die Details, die Sie ändern möchten:
- Verbindungsname: Klicken Sie auf Bearbeiten, geben Sie den neuen Namen ein und drücken Sie die Eingabetaste.
- Zeitplan: Klicken Sie auf Bearbeiten, legen Sie den neuen Zeitplan fest und klicken Sie dann auf Speichern.
- Zieltabelle: Klicken Sie auf Bearbeiten, geben Sie den neuen Zielnamen ein und klicken Sie dann auf Speichern.
- Feldzuordnung: Klicken Sie auf , nehmen Sie Änderungen an den Feldern vor und klicken Sie dann auf Speichern.
- Klicken Sie auf .
Abfrage der übereinstimmenden Daten
Match-Tables abfragen
Wenn die Match-Tables genügend Daten enthalten, um die Datenschutzprüfungen zu bestehen, können Sie Abfragen dafür ausführen.
Die ursprüngliche Tabelle für selbst erhobene Daten wird durch my_data
dargestellt.
Dazu gehören sowohl personenidentifizierbare Informationen als auch andere Daten.
Wenn Sie die ursprüngliche Tabelle verwenden, können Sie Ihre Berichte mit mehr Statistiken verbessern, da sie im Vergleich zu einer Match-Table alle relevanten selbst erhobenen Daten enthält.
Für jede Tabelle im Ads Data Hub-Schema, die ein user_id
-Feld enthält, gibt es eine entsprechende Match-Table. Beispielsweise wird für die Tabelle adh.google_ads_impressions
in Ads Data Hub auch eine Match-Table mit dem Namen adh.google_ads_impressions_updm
erstellt, die Ihre Nutzer-IDs enthält.
Für richtlinienkonform isolierte Tabellen werden separate Match-Tables erstellt. Beispielsweise wird für die Tabelle adh.google_ads_impressions_policy_isolated_youtube
in Ads Data Hub auch eine Match-Table mit dem Namen adh.google_ads_impressions_policy_isolated_youtube_updm
erstellt, die Ihre Nutzer-IDs enthält.
Diese Tabellen enthalten eine Teilmenge der in den ursprünglichen Tabellen verfügbaren Nutzer, bei denen es eine Übereinstimmung mit der user_id
gibt. Wenn die ursprüngliche Tabelle beispielsweise Daten für Nutzer A und Nutzer B enthält, aber nur Nutzer A abgeglichen werden kann, ist Nutzer B nicht in der Match-Table enthalten.
Die Match-Tables enthalten die zusätzliche Spalte customer_data_user_id
, in der die Nutzer-ID als BYTES gespeichert wird.
Beim Erstellen von Abfragen ist es wichtig, den Feldtyp zu berücksichtigen. Für SQL-Vergleichsoperatoren ist es erforderlich, dass die zu vergleichenden Literale denselben Typ haben. Je nachdem, wie die user_id
in der Tabelle mit selbst erhobenen Daten gespeichert wird, müssen Sie die Werte in der Tabelle möglicherweise codieren, bevor die Daten abgeglichen werden.
Für erfolgreiche Übereinstimmungen müssen Sie den Join-Schlüssel in BYTES umwandeln:
JOIN ON
adh.google_ads_impressions_updm.customer_data_user_id = CAST(my_data.user_id AS BYTES)
Außerdem wird bei Stringvergleichen in SQL die Groß- und Kleinschreibung berücksichtigt. Eventuell müssen Sie also Strings auf beiden Seiten des Vergleichs entsprechend codieren, damit sie richtig verglichen werden können.
Beispielabfragen
Übereinstimmende Nutzer zählen
Mit dieser Abfrage wird die Anzahl der übereinstimmenden Nutzer in Ihrer Google Ads-Impressionstabelle gezählt.
/* Count matched users in Google Ads impressions table */
SELECT COUNT(DISTINCT user_id)
FROM adh.google_ads_impressions_updm
Abgleichsrate berechnen
Nicht alle Nutzer können abgeglichen werden. So werden beispielsweise nicht angemeldete Nutzer, Kinder und Nutzer ohne Einwilligung nicht über UPDM abgeglichen. Mit dem Feld is_updm_eligible
lassen sich genauere Abgleichsraten für die von Nutzern bereitgestellten Daten berechnen. Das Feld is_updm_eligible
ist seit dem 1. Oktober 2024 verfügbar. Vor diesem Datum können Sie dieses Feld nicht verwenden, um Abgleichsraten zu berechnen.
/* Calculate the UPDM match rate */
CREATE TEMP TABLE total_events OPTIONS(privacy_checked_export=TRUE) AS
SELECT
customer_id,
COUNT(*) AS n
FROM adh.google_ads_impressions
WHERE is_updm_eligible
GROUP BY 1;
CREATE TEMP TABLE matched_events OPTIONS(privacy_checked_export=TRUE) AS
SELECT
customer_id,
COUNT(*) AS n
FROM adh.google_ads_impressions_updm
GROUP BY 1;
SELECT
customer_id,
SAFE_DIVIDE(matched_events.n, total_events.n) AS match_rate
FROM total_events
LEFT JOIN matched_events
USING (customer_id)
Selbst erhobene Daten mit Google Ads-Daten zusammenführen
In dieser Abfrage wird gezeigt, wie Sie selbst erhobene Daten mit Google Ads-Daten zusammenführen:
/* Join first-party data with Google Ads data. The customer_data_user_id field
contains your ID as BYTES. You need to cast your join key into BYTES for
successful matches. */
SELECT
inventory_type,
COUNT(*) AS impressions
FROM
adh.yt_reserve_impressions_updm AS google_data_imp
LEFT JOIN
`my_data`
ON
google_data_imp.customer_data_user_id = CAST(my_data.user_id AS BYTES)
GROUP BY
inventory_type
Häufig gestellte Fragen zu UPDM
Eine Liste der häufig gestellten Fragen zu UPDM finden Sie unter Häufig gestellte Fragen zu UPDM.