개요
이 페이지에서는 tcrm_bq_to_ga
또는 tcrm_gcs_to_ga
DAG를 구성하는 방법과 데이터를 준비하는 방법을 설명합니다.
Google 애널리틱스는 세션 시간에 대한 세션 시간, 세션당 페이지수, 이탈률과 같은 웹사이트 활동과 트래픽 소스에 대한 정보를 추적하는 데 사용됩니다.
자세한 내용은 측정 프로토콜 개요를 참고하세요.
Airflow 변수 구성
새 필수 tcrm_bq_to_ga
DAG 변수 만들기
다음 표에서는 tcrm_bq_to_ga
DAG를 실행하는 데 필요한 변수를 보여줍니다. BigQuery를 데이터 소스로 사용하려는 경우에만 이러한 변수를 설정하면 됩니다.
변수 이름 | 기본값 | 변수 정보 |
---|---|---|
bq_dataset_id
|
my_dataset
|
데이터가 포함된 BigQuery 데이터 세트의 이름입니다. |
bq_table_id
|
my_table
|
데이터가 포함된 BigQuery 테이블의 이름입니다. |
ga_tracking_id |
UA-123456789-1 |
Google 애널리틱스 추적 ID |
새 필수 tcrm_gcs_to_ga
DAG 변수 만들기
다음 표에서는 tcrm_gcs_to_ga
DAG를 실행하는 데 필요한 변수를 보여줍니다. Google Cloud Storage를 데이터 소스로 사용하려는 경우에만 이러한 변수를 설정해야 합니다.
변수 이름 | 예시 값 | 변수 정보 |
---|---|---|
gcs_bucket_name |
my_bucket |
Cloud Storage 버킷 이름입니다. |
gcs_bucket_prefix
|
folder/sub_folder
|
버킷 내부의 데이터 폴더 경로입니다. |
gcs_content_type
(선택사항) |
JSON 또는 CSV .
|
Cloud Storage 콘텐츠 유형입니다. |
ga_tracking_id |
UA-123456789-1 |
Google 애널리틱스 추적 ID |
Google 애널리틱스로 전송할 데이터 준비
참고: 자세한 내용은 측정 프로토콜 API{target="_blank"}를 참고하세요.
GA로 데이터를 전송하려면 다음 3가지 옵션 중에서 선택할 수 있습니다.
BigQuery에서 SQL 테이블 형식으로
tcrm_bq_to_ga
DAG를 사용합니다.JSON 형식의
tcrm_gcs_to_ga
DAG를 사용하여 Google Cloud Storage에서{"cid": "12345.67890", "t":"event", "ec": "video", "ea": "play", "el": "holiday", "ev": "300" } {"cid": "12345.67891", "t":"event", "ec": "video", "ea": "play", "el": "holiday", "ev": "301" } {"cid": "12345.67892", "t":"event", "ec": "video", "ea": "play", "el": "holiday", "ev": "302" } {"cid": "12345.67893", "t":"event", "ec": "video", "ea": "play", "el": "holiday", "ev": "303" }
CSV 형식의
tcrm_gcs_to_ga
DAG를 사용하여 Google Cloud Storage에서cid,t,ec,ea,el,ev 12345.67890,event,video,play,holiday,300 12345.67891,event,video,play,holiday,301 12345.67892,event,video,play,holiday,302 12345.67893,event,video,play,holiday,303
DAG 실행
Airflow 콘솔의 상단 메뉴 바에서 DAGs
옵션을 클릭합니다. 왼쪽 목록에서 실행할 DAG를 찾습니다. 그런 다음 목록의 오른쪽에 있는 Play
버튼을 클릭하여 실행합니다.
DAG 로그 읽기
FAQ에서 DAG 로그 읽기를 참조하세요.