BigQuery-Client-Bibliothek "google-cloud-bigquery"
Ich werde schreiben, wie man den Wrapper pandas-gbq
benutzt.
Installieren des Google Cloud SDK ~ Initialisieren
Erstellen Sie ein Projekt mit Google Cloud SDK
Erstellen Sie ein Dienstkonto / einen Dienstkontoschlüssel, damit Sie von Python aus auf GCS zugreifen können.
gcloud iam service-Konten erstellen den Namen des Dienstkontos\
--display-Name Anzeigename des Dienstkontos\
gcloud projects get-iam-policy mypj-id
# bindings:
# - members:
# - user:[email protected]
# role: roles/owner
# etag: BwWeTrntoao=
# version: 1
Gewähren Sie BigQuery-Administratorrechte
gcloud projects add-iam-policy-verbindliche Projekt-ID\
--member serviceAccount:Name des [email protected] \
--role roles/bigquery.admin
https://cloud.google.com/iam/docs/understanding-roles?hl=ja#predefined_roles
gcloud projects get-iam-policy mypj-id
# bindings:
# - members:
# - user:[email protected]
# role: roles/owner
# - members:
# - serviceAccount:[email protected]
# role: roles/bigquery.admin
# etag: BwWeTz6vIBY=
# version: 1
$ gcloud iam service-accounts keys create ./anata_no_key.json \
--iam-Kontodienst [email protected]
.
├── anata_no_key.json
└── working/
└── main.py
Installieren Sie "google-cloud-bigquery" mit pip
$ pip install google-cloud-bigquery
main.py
import os
from google.cloud import bigquery
from IPython.display import display
#Holen Sie sich das Verzeichnis Ihrer eigenen Datei
cwd = os.path.dirname(os.path.abspath(__file__))
#In Umgebungsvariable setzen
key_path = '{}/../credentials.json'.format(cwd)
os.environ['GOOGLE_APPLICATION_CREDENTIALS'] = key_path
project_id = 'project_id'
dataset_id = 'dataset_id'
table_id = 'table_id'
client = bigquery.Client(project=project_id)
sql = f"""
select col1, col2, col3
from {dataset_id}.{table_id}
limit 100
"""
df = client.query(sql).to_dataframe()
display(df)
Installiere pandas-gbq
mit pip
$ pip install pandas-gbq
import pandas as pd
#Laden aus BigQuery im DataFrame-Format
project_id = 'project_id'
dataset_id = 'dataset_id'
table_id = 'table_id'
query = f"""
SELECT *
FROM {dataset_id}.{table_id}
LIMIT 10
"""
# dialect='standard'Verwenden Sie Standard-SQL in
df = pd.read_gbq(query, project_id, dialect='standard')
display(df)
import pandas as pd
#Importieren Sie DataFrame in BigQuery
df = pd.read_csv('path/to/dir/file.csv')
dataset_id = 'dataset_id'
table_id = 'table_id'
df.to_gbq(f'{dataset_id}.{table_id}')
Recommended Posts