タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

bigqueryとS3に関するmichael-unltdのブックマーク (3)

  • クエリ結果を Amazon S3 にエクスポートする  |  BigQuery  |  Google Cloud

    フィードバックを送信 コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 クエリ結果を Amazon S3 にエクスポートする このドキュメントでは、BigLake テーブルに対して実行されたクエリの結果を Amazon Simple Storage Service(Amazon S3)バケットにエクスポートする方法について説明します。 BigQuery と Amazon S3 間のデータフローについては、データをエクスポートする際のデータフローをご覧ください。 制限事項 Amazon S3 と Blob Storage に基づく BigLake テーブルに適用される制限事項の全リストについては、制限事項をご覧ください。 始める前に 以下のリソースがあることを確認してください。 Amazon S3 バケットにアクセスするための接続。 Amazon S3 Big

    クエリ結果を Amazon S3 にエクスポートする  |  BigQuery  |  Google Cloud
  • Cloud WorkflowsでBigQuery Transfer Serviceを実行する | DevelopersIO

    はじめに データアナリティクス事業部のkobayashiです。 前回GoogleCloudのWorkflowsでGCSにあるCSVファイルをBigQueryにロードする処理を行ってみました。今回は前回同様にBigQueryにロードする処理を試してみたいと思いますが、ソースはAmazon S3にあるCSVファイルとしBigQuery Data Transfer Serviceをオンデマンドで登録してWorkflowsで実行してみたいと思います。 BigQuery Data Transfer Service とは  |  Google Cloud ワークフロー  |  Google Cloud BigQuery Data Transfer ServiceとWorkflows BigQuery Data Transfer Serviceは様々なデータソースからBigQueryへデータを登録する

    Cloud WorkflowsでBigQuery Transfer Serviceを実行する | DevelopersIO
    michael-unltd
    michael-unltd 2023/07/07
    “BigQuery Data Transfer ServiceでS3にあるCSVファイルをBigQueryにロードする転送ジョブを作成し、そのジョブをWorkflowsから実行してみました。”
  • S3 から BigQuery へ簡単にデータをロードする仕組み

    S3 から BigQuery へ簡単にデータをロードする仕組み AWS x GCP で最適なシステムを作ろう! こんにちは。データエンジニアリンググループの川崎です。まだここにない出会いを求めて、日々コードを書いています。 この記事では、 S3 から BigQuery へデータをロードするときに使っている汎用的な仕組みについて紹介したいと思います。 なぜそんな仕組みが必要なの? 弊社では、日時のバックアップや外部の協働者とのデータの受け渡しのために AWS の S3 をよく使っています。 一方でデータの分析には Redshift や BigQuery を使っています。 そのため受け取ったデータを分析するには適宜ロードする必要があるのですが、そのロードの方法がバラバラだったため、いくつか管理上の問題がありました。 データを取り込む手法がバラバラでメンテナンスしづらい S3 のファイルを Bi

    S3 から BigQuery へ簡単にデータをロードする仕組み
  • 1