Embulk を使用して Spark ののデータをデータベースにロードする方法
Embulk はオープンソースのバルクデータローダーです。CData JDBC Driver for Apache Spark と組み合わせることで、Spark から任意の同期先にデータを簡単にロードできます。この記事では、CData JDBC Driver for Apache Spark をEmbulk で使用してSpark のデータをMySQL データベースにロードする方法を解説します。
CData JDBC Driver は、最適化されたデータ処理機能を内蔵しており、リアルタイムのSpark のデータに対して比類のないパフォーマンスを発揮します。Spark に対して複雑なSQL クエリを発行すると、ドライバーはフィルタや集計などのサポートされているSQL 操作を直接Spark にプッシュし、サポートされていない操作(SQL 関数やJOIN 操作など)は組み込みのSQL エンジンを使用してクライアント側で処理します。
Spark への JDBC 接続を設定
Embulk でバルクロードジョブを作成する前に、JDBC Driver のJAR ファイルのインストール場所(通常はC:\Program Files\CData\CData JDBC Driver for Apache Spark\lib)を確認しておきます。
Embulk はJDBC 接続をサポートしているため、Spark に簡単に接続してSQL クエリを実行できます。バルクロードジョブを作成する前に、Spark への認証用のJDBC URL を作成します。
SparkSQL への接続
SparkSQL への接続を確立するには以下を指定します。
- Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
- Port:SparkSQL インスタンスへの接続用のポートに設定。
- TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
- AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
Databricks への接続
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
- Server:Databricks クラスターのサーバーのホスト名に設定。
- Port:443
- TransportMode:HTTP
- HTTPPath:Databricks クラスターのHTTP パスに設定。
- UseSSL:True
- AuthScheme:PLAIN
- User:'token' に設定。
- Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
組み込みの接続文字列デザイナー
JDBC URL の作成には、Spark JDBC Driver に組み込まれている接続文字列デザイナーを使用できます。JAR ファイルをダブルクリックするか、コマンドラインからJAR ファイルを実行します。
java -jar cdata.jdbc.sparksql.jar
接続プロパティを入力し、接続文字列をクリップボードにコピーします。
以下は、Spark への一般的なJDBC 接続文字列です。
jdbc:sparksql:Server=127.0.0.1;
Embulk で Spark ののデータをロード
CData JDBC Driver をインストールしてJDBC 接続文字列を作成したら、必要なEmbulk プラグインをインストールします。
Embulk の入力・出力プラグインをインストール
- Embulk にJDBC 入力プラグインをインストールします。
https://github.com/embulk/embulk-input-jdbc/tree/master/embulk-input-jdbc - この記事では、同期先データベースとしてMySQL を使用します。出力プラグインを使用して、SQL Server、PostgreSQL、またはGoogle BigQuery を同期先として選択することもできます。
https://github.com/embulk/embulk-output-jdbc/tree/master/embulk-output-mysqlembulk gem install embulk-output-mysql
embulk gem install embulk-input-jdbc
入力プラグインと出力プラグインをインストールしたら、Embulk を使用してSpark のデータをMySQL にロードする準備が整いました。
Spark ののデータをロードするジョブを作成
まず、Embulk で設定ファイルを作成します。ファイル名はsparksql-mysql.yml のようにします。
- 入力プラグインのオプションには、CData JDBC Driver for Apache Spark、ドライバーJAR ファイルへのパス、ドライバークラス(例:cdata.jdbc.sparksql.SparkSQLDriver)、および上記のJDBC URL を指定します。
- 出力プラグインのオプションには、MySQL データベースの値と認証情報を指定します。
設定ファイルのサンプル(sparksql-mysql.yml)
in: type: jdbc driver_path: C:\Program Files\CData[product_name] 20xx\lib\cdata.jdbc.sparksql.jar driver_class: cdata.jdbc.sparksql.SparkSQLDriver url: jdbc:sparksql:Server=127.0.0.1; table: "Customers" out: type: mysql host: localhost database: DatabaseName user: UserId password: UserPassword table: "Customers" mode: insert
ファイルを作成したら、Embulk ジョブを実行します。
embulk run sparksql-mysql.yml
Embulk ジョブを実行すると、MySQL テーブルにSpark のデータが格納されます。
フィルタリングした Spark ののデータをロード
テーブルから直接データをロードするだけでなく、カスタムSQL クエリを使用してロードするデータをより詳細に制御できます。また、クエリフィールドのSQL WHERE 句で最終更新カラムを設定することで、増分ロードを実行することもできます。
in: type: jdbc driver_path: C:\Program Files\CData[product_name] 20xx\lib\cdata.jdbc.sparksql.jar driver_class: cdata.jdbc.sparksql.SparkSQLDriver url: jdbc:sparksql:Server=127.0.0.1; query: "SELECT City, Balance FROM Customers WHERE [RecordId] = 1" out: type: mysql host: localhost database: DatabaseName user: UserId password: UserPassword table: "Customers" mode: insert
詳細情報と無料トライアル
CData JDBC Driver for Apache Spark をコネクタとして使用することで、Embulk のデータロードジョブにSpark のデータを統合できます。また、200 を超えるエンタープライズデータソース向けドライバーにより、あらゆるエンタープライズSaaS、ビッグデータ、NoSQL ソースも統合できます。30日間の無料トライアルをダウンロードして、今すぐお試しください。