HULFT Integrate で Spark のデータ に接続

Jerod Johnson
Jerod Johnson
Senior Technology Evangelist
HULFT Integrate で Spark に JDBC データソースとして接続

HULFT Integrate は、ドラッグ&ドロップのユーザーインターフェースでコーポレーションフロー、データ変換、処理を簡単に作成できる最新のデータ連携プラットフォームです。CData JDBC Driver for Apache Spark と組み合わせることで、HULFT Integrate からリアルタイムの Spark のデータ を扱うことができます。この記事では、Spark への接続方法と、データを CSV ファイルに出力する手順をご紹介します。

CData JDBC ドライバーは、最適化されたデータ処理機能を備えており、リアルタイムの Spark のデータ との連携において比類のないパフォーマンスを発揮します。Spark に対して複雑な SQL クエリを発行すると、ドライバーはフィルタや集計などのサポートされている SQL 操作を直接 Spark にプッシュし、サポートされていない操作(主に SQL 関数や JOIN 操作)は内蔵の SQL エンジンでクライアント側で処理します。また、動的なメタデータクエリ機能により、ネイティブなデータ型を使用して Spark のデータ を操作・分析できます。

Spark へのアクセスを有効化

HULFT Integrate プロジェクトから Spark のデータ へのアクセスを有効にするには、以下の手順で設定します:

  1. CData JDBC Driver の JAR ファイル(およびライセンスファイルがある場合はそれも)、cdata.jdbc.sparksql.jar(および cdata.jdbc.sparksql.lic)を、Integrate Server の jdbc_adapter サブフォルダにコピーします
  2. HULFT Integrate Server を再起動し、HULFT Integrate Studio を起動します

Spark のデータ にアクセスするプロジェクトの作成

JAR ファイルをコピーしたら、Spark のデータ にアクセスするプロジェクトを作成できます。まず、Integrate Studio を開いて新しいプロジェクトを作成しましょう。

  1. プロジェクト名を入力します
  2. 「スクリプトを作成」チェックボックスがオンになっていることを確認します
  3. 「次へ」をクリックします
  4. スクリプト名を入力します(例:SparkSQLtoCSV)

プロジェクトを作成したら、Spark のデータ を CSV ファイルにコピーするためのコンポーネントをスクリプトに追加します。

Execute Select SQL コンポーネントの設定

ツールパレット(Database -> JDBC)から「Execute Select SQL」コンポーネントをスクリプトワークスペースにドラッグします。

  1. 「必須設定」タブの接続先で、「追加」をクリックして Spark 用の新しい接続を作成します。以下のプロパティを設定します:
    • 名前:Spark Connection Settings
    • ドライバークラス名:cdata.jdbc.sparksql.SparkSQLDriver
    • URL:jdbc:sparksql:Server=127.0.0.1;

      組み込みの接続文字列デザイナー

      JDBC URL の構築には、Spark JDBC Driver に組み込まれている接続文字列デザイナーをご利用ください。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行します。

      		java -jar cdata.jdbc.sparksql.jar
      		

      接続プロパティを入力し、接続文字列をクリップボードにコピーします。

      SparkSQL への接続

      SparkSQL への接続を確立するには以下を指定します。

      • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
      • Port:SparkSQL インスタンスへの接続用のポートに設定。
      • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
      • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

      Databricks への接続

      Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

      • Server:Databricks クラスターのサーバーのホスト名に設定。
      • Port:443
      • TransportMode:HTTP
      • HTTPPath:Databricks クラスターのHTTP パスに設定。
      • UseSSL:True
      • AuthScheme:PLAIN
      • User:'token' に設定。
      • Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
  2. SQL ステートメントを記述します。例:
    SELECT City, Balance FROM Customers
  3. 「抽出テスト」をクリックして、接続とクエリが正しく設定されていることを確認します
  4. 「SQL を実行して出力スキーマを設定」をクリックします
  5. 「完了」をクリックします

Write CSV File コンポーネントの設定

ツールパレット(File -> CSV)から「Write CSV File」コンポーネントをワークスペースにドラッグします。

  1. クエリ結果を書き込むファイルを設定します(例:Customers.csv)
  2. 「入力データ」を「Select SQL」コンポーネントに設定します
  3. SQL クエリで選択した各フィールドのカラムを追加します
  4. 「書き込み設定」タブで、「最初の行にカラム名を挿入する」チェックボックスをオンにします
  5. 「完了」をクリックします

Spark フィールドを CSV カラムにマッピング

「Select」コンポーネントの各カラムを、「CSV」コンポーネントの対応するカラムにマッピングします。

スクリプトの完成

「Start」コンポーネントを「Select」コンポーネントに、「CSV」コンポーネントを「End」コンポーネントにドラッグして接続します。スクリプトをビルドして実行すると、Spark のデータ が CSV ファイルに出力されます。

CData JDBC Driver for Apache Sparkの30日間の無償トライアルをダウンロードして、HULFT Integrate でリアルタイムの Spark のデータ を活用してみてください。ご不明な点があれば、サポートチームまでお気軽にお問い合わせください。

はじめる準備はできましたか?

Apache Spark Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Apache Spark Icon Apache Spark JDBC Driver お問い合わせ

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。