SnapLogic を使用して Spark を外部サービスと連携

Jerod Johnson
Jerod Johnson
Senior Technology Evangelist
CData JDBC Driver を SnapLogic で使用して、Spark を外部サービスと連携する方法を説明します。

SnapLogic は、ノーコードでデータ連携フローを作成できる iPaaS(Integration Platform as a Service)です。CData JDBC Driver と組み合わせることで、Spark を含む250を超える SaaS、ビッグデータ、NoSQL ソースのリアルタイムデータに SnapLogic ワークフローからアクセスできます。

CData JDBC Driver は、最適化されたデータ処理機能を内蔵しており、リアルタイム Spark のデータ とのやり取りにおいて比類ないパフォーマンスを発揮します。外部ツールから複雑な SQL クエリが発行されると、ドライバーはフィルタや集計などのサポートされている SQL 操作を Spark に直接プッシュし、サポートされていない操作(多くの場合、SQL 関数や JOIN 操作)は内蔵の SQL エンジンを使用してクライアント側で処理します。動的なメタデータクエリ機能により、ネイティブデータ型を使用して Spark のデータ を操作できます。

SnapLogic から Spark に接続

SnapLogic から Spark のデータ に接続するには、CData Spark JDBC Driver をダウンロードしてインストールします。インストールウィザードに従って進めてください。インストールが完了すると、JAR ファイルはインストールディレクトリ(デフォルトでは C:/Program Files/CData/CData JDBC Driver for Apache Spark/lib)に配置されます。

Spark JDBC Driver のアップロード

インストール後、Manager タブから SnapLogic 内の場所(例:projects/Jerod Johnson)に JDBC JAR ファイルをアップロードします。

接続の設定

JDBC Driver をアップロードしたら、Spark への接続を作成します。

  1. Designer タブに移動します
  2. Snaps から「JDBC」を展開し、「Generic JDBC - Select」snap をデザイナーにドラッグします
  3. Add Account をクリック(または既存のアカウントを選択)し、「Continue」をクリックします
  4. 次のフォームで、JDBC 接続プロパティを設定します:
    • JDBC JARs に、先ほどアップロードした JAR ファイルを追加します
    • JDBC Driver Classcdata.jdbc.sparksql.SparkSQLDriver に設定します
    • JDBC URL を Spark JDBC Driver の JDBC 接続文字列に設定します。例:

      jdbc:sparksql:Server=127.0.0.1;RTK=XXXXXX;

      注意:RTK はトライアルキーまたは製品キーです。詳細についてはサポートチームまでお問い合わせください。

      組み込みの接続文字列デザイナー

      JDBC URL の構築には、Spark JDBC Driver に組み込まれている接続文字列デザイナーを使用できます。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行してください。

      java -jar cdata.jdbc.sparksql.jar

      接続プロパティを入力し、接続文字列をクリップボードにコピーします。

      SparkSQL への接続

      SparkSQL への接続を確立するには以下を指定します。

      • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
      • Port:SparkSQL インスタンスへの接続用のポートに設定。
      • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
      • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

      Databricks への接続

      Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

      • Server:Databricks クラスターのサーバーのホスト名に設定。
      • Port:443
      • TransportMode:HTTP
      • HTTPPath:Databricks クラスターのHTTP パスに設定。
      • UseSSL:True
      • AuthScheme:PLAIN
      • User:'token' に設定。
      • Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

  5. 接続プロパティを入力したら、「Validate」をクリックし、「Apply」をクリックします

Spark のデータ の読み取り

接続の検証と適用後に開くフォームで、クエリを設定します。

  • Schema name を「SparkSQL」に設定します
  • Table name を Spark のテーブルに設定します。スキーマ名を使用して、例:「SparkSQL」.「Customers」(ドロップダウンで利用可能なテーブルの一覧を確認できます)
  • テーブルから使用する各項目の Output fields を追加します

Generic JDBC - Select snap を保存します。

接続とクエリを設定したら、snap の末尾をクリックしてデータをプレビューします(下図でハイライト表示)。

結果が期待通りであることを確認したら、追加の snap を使用して Spark のデータ を別のエンドポイントに送信できます。

Spark のデータ を外部サービスにパイプ

この記事では、データを Google スプレッドシートに読み込みます。サポートされている任意の snap を使用するか、別の CData JDBC Driver と Generic JDBC snap を使用して、外部サービスにデータを移動できます。

  1. 「Worksheet Writer」snap を「Generic JDBC - Select」snap の末尾にドロップします。
  2. Google Sheets に接続するためのアカウントを追加します
  3. Worksheet Writer snap を設定して、Spark のデータ を Google スプレッドシートに書き込みます

これで、完全に設定されたパイプラインを実行して、Spark からデータを抽出し、Google スプレッドシートにプッシュできます。

外部データを Spark にパイプ

上記の通り、SnapLogic で Spark 用の JDBC Driver を使用して Spark にデータを書き込むこともできます。まず、Generic JDBC - Insert または Generic JDBC - Update snap をダッシュボードに追加します。

  1. 既存の「Account」(接続)を選択するか、新しいものを作成します
  2. クエリを設定します:
    • Schema name を「SparkSQL」に設定します
    • Table name を Spark のテーブルに設定します。スキーマ名を使用して、例:「SparkSQL」.「Customers」(ドロップダウンで利用可能なテーブルの一覧を確認できます)
  3. Generic JDBC - Insert/Update snap を保存します

これで、Spark にデータを書き込み、新しいレコードを挿入したり既存のレコードを更新したりする snap が設定されました。

詳細情報と無料トライアル

CData JDBC Driver for Apache Spark を使用することで、SnapLogic で Spark のデータ を外部サービスと連携するパイプラインを作成できます。Spark への接続の詳細については、CData JDBC Driver for Apache Spark ページをご覧ください。CData JDBC Driver for Apache Spark の30日間無料トライアルをダウンロードして、今すぐお試しください。

はじめる準備はできましたか?

Apache Spark Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Apache Spark Icon Apache Spark JDBC Driver お問い合わせ

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。