Google Cloud Data Fusion でRedshift のデータを扱う方法:CData JDBC Driver

宮本航太
宮本航太
プロダクトスペシャリスト
CData JDBC ドライバを使って、Google Cloud Data fusion で Redshift のデータ をBigQuery にETL。



Google Cloud Data Fusion は、ノーコードでデータ連携の設定が可能な言わば GCP の ETL ツール(サービス)です。たくさんのコネクタや変換・分析機能がデフォルトで用意されているため、さまざまなデータソースを色々な組み合わせで扱うことが可能なようです。 また JDBC を扱うこともできるため、この記事では、CData JDBC Driver for Redshift のデータ を使って、Redshift のデータ データをCloud Data Fusion でGoogle BigQuery にノーコードでパイプラインします。

Cloud Data Fusion の準備

まずはCloud Data Fusion のインスタンスを作成します。

  1. Data Fusion のトップ画面にある「CREATE INSTANCE」からインスタンスを作成します。
  2. 作成されたインスタンス名を先ほどの画面でクリックすると以下の画面に遷移しますので、画面下部にある Service Account をコピーします。
  3. Cloud Data Fusion のインスタンス作成
  4. 画面上部にある追加からメンバーを追加します。メンバー名は先ほどコピーした「Service Account」に合わせてください。 役割は BiqQuery へもアクセスしますので、「BigQuery 管理者」、「Cloud Data Fusion 管理者」、「Cloud Data Fusion API サービス エージェント」を付与します。

CData JDBC Driver for Redshift のアップロード

ここからは実際に、Data Fusion の設定をしていきます。 まずは JDBC Driver をアップロードを行います。

  1. 「View Instance」をクリックして、Data Fusion の Control Center を開きます。
  2. Cloud Data Fusion のControl Center を開く
  3. Control Center が表示されたら、「+」ボタンをクリックして JDBC Driver をアップロードしていきます。
    • Name:アップロードしたドライバーに設定する名前
    • Class name:cdata.jdbc.redshift.RedshiftDriver
    JDBC Driver をCloud Data Fusion にアップロード
  4. アップロードする際の注意点として、Driver のファイル名を name-version の形式に変更してアップロードする必要があります。 なお、jarファイルをダブルクリックした際に表示されているバージョンをもとに「redshift-connector-java-19.0.7115.0.jar」に変更しました。
  5. JDBC Driver をCloud Data Fusion にアップロード
  6. アップロードが成功するとこのような画面が表示されるので、「Create a Pipeline」をクリックします。
  7. JDBC Driver のアップロード終了

Redshift からGoogle BigQuery へのパイプラインの作成

Data Fusion のパイプライン作成

インプット元はサイドメニューの「Source」から選択します。今回は先ほどアップロードした Redshift のデータ の JDBC Driver を使用するため、「DataBase」を選択します。 アウトプット先は同じくサイドメニューより「Sink」→「BigQuery」を選択します。

Source およびSink 先の選択

「DataBase」の設定

「DataBase」のアイコンにカーソルを持ってくるとプロパティというボタンが表示されるのでクリックし、下記内容を設定します。

  • Label:Redshift
  • Reference Name:Redshift
  • Plugin Name:Redshift Driver(Driver をアップロードした際の名前)
  • Plugin Type:jdbc
  • Connection String:Redshift へ接続する際の JDBC URL
  • Import Query:インプットしたいデータを抽出するクエリ

Amazon Redshift への接続

それでは、早速Amazon Redshift に接続していきましょう。データに接続するには、以下の接続パラメータを指定します。

  • Server:Amazon Redshift データベースをホスティングしているサーバーのホスト名またはIP アドレス
  • Database:Amazon Redshift クラスター用に作成したデータベース
  • Port(オプション):Amazon Redshift データベースをホスティングしているサーバーのポート。デフォルトは5439です

これらの値は、以下のステップでAWS マネージメントコンソールから取得できます。

  1. Amazon Redshift コンソールを開きます(http://console.aws.amazon.com/redshift)
  2. Clusters ページで、クラスター名をクリックしてください
  3. Configuration タブの"Cluster Database Properties" セクションからプロパティを取得します。接続プロパティの値は、ODBC URL で設定された値と同じになります

Amazon Redshiftへの認証

CData 製品では幅広い認証オプションに対応しています。標準認証情報からIAM クレデンシャル、ADFS、Ping Federate、Microsoft Entra ID(Azure AD)、Azure AD PKCE まで利用可能です。

標準認証

ログイン資格情報を使用してAmazon Redshift に接続するには、以下のプロパティを設定してみましょう。
  • AuthSchemeBasic
  • User:認証するユーザーのログイン情報
  • Password:認証するユーザーのパスワード

その他の認証方法については、ヘルプドキュメントをご確認ください。

Connection String は以下の形式です。

jdbc:redshift:User=admin;Password=admin;Database=dev;Server=examplecluster.my.us-west-2.redshift.amazonaws.com;Port=5439;

Database プロパティ設定

上のキャプチャの赤枠は、Salesforce から BigQuery へアウトプットするデータの定義となります。 こちらは「Import Query」のすぐ右上にある「Get Schema」をクリックすると下の画面が表示されますので、「Import Query」で入力したクエリを実行し、カラムを定義します。

Output schema 設定

「BigQuery」の設定

こちらも同様に BigQuery のプロパティから下記内容を設定します。

  • Label:BigQuery
  • Reference Name:BigQuery
  • Project ID:使用するProject ID
  • DataSet:使用するDataSet
  • Table:使用するテーブル名、例:Account_DataFusion
BigQuery のプロパティ設定

作成したRedshift のデータ からBigQuery のパイプラインの実行

まずは作成したパイプラインをデプロイします。赤枠の「Deploy」ボタンをクリックしてデプロイを行います。

Deploy Cloud Data Fusion Pipeline

デプロイ完了後、Runボタンが表示されますので、クリックします。

デプロイしたパイプラインを実行

このようにCData JDBC ドライバをアップロードすることで、簡単にGoogle Cloud Data Fusion でRedshift のデータ データをノーコードで連携し、BigQuery などへのパイプラインを作成することができます。

是非、CData JDBC Driver for Redshift 30日の無償評価版 をダウンロードして、お試しください。

はじめる準備はできましたか?

Amazon Redshift Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Amazon Redshift Icon Amazon Redshift JDBC Driver お問い合わせ

Amazon Redshift データ連携のパワフルなJava アプリケーションを素早く作成して配布。