Oracle Data Integrator で Spark データをETL
JDBC 標準を使用して、既存のスキルを活かしながらSpark に読み書きできます。 Oracle Data Integrator(ODI)などの ETL ツールにドロップインで統合できる CData JDBC Driver for Spark を使えば、リアルタイムのSpark のデータをデータウェアハウス、ビジネスインテリジェンス、ビッグデータテクノロジーに接続できます。
JDBC 接続により、ODI でSpark を他のデータベースと同様に扱うことができます。RDBMS と同じように、フラットファイルではなくリアルタイムでSpark API に直接接続できます。
この記事では、JDBC ベースの ETL(Spark から Oracle へ)の手順を説明します。Spark エンティティのデータモデルをリバースエンジニアリングした後、マッピングを作成し、データロード戦略を選択します。ドライバーが SQL-92 をサポートしているため、組み込みの SQL to SQL Loading Knowledge Module を選択するだけで簡単に実現できます。
ドライバーのインストール
ドライバーをインストールするには、インストールフォルダにあるドライバー JAR(cdata.jdbc.sparksql.jar)と .lic ファイル(cdata.jdbc.sparksql.lic)を、ODI の適切なディレクトリにコピーします。
- UNIX/Linux(エージェントなし): ~/.odi/oracledi/userlib
- UNIX/Linux(エージェントあり): ~/.odi/oracledi/userlib および $ODI_HOME/odi/agent/lib
- Windows(エージェントなし): %APPDATA%\Roaming\odi\oracledi\userlib
- Windows(エージェントあり): %APPDATA%\odi\oracledi\userlib および %APPDATA%\odi\agent\lib
ODI を再起動してインストールを完了します。
モデルのリバースエンジニアリング
モデルをリバースエンジニアリングすると、ドライバーのSpark のデータに対するリレーショナルビューのメタデータが取得されます。リバースエンジニアリング後は、リアルタイムのSpark のデータをクエリし、Spark テーブルに基づいてマッピングを作成できます。
-
ODI でリポジトリに接続し、New -> Model and Topology Objects をクリックします。
- 表示されるダイアログの Model 画面で、以下の情報を入力します。
- Name: SparkSQL と入力します。
- Technology: Generic SQL を選択します(ODI バージョン 12.2 以降の場合は Microsoft SQL Server を選択)。
- Logical Schema: SparkSQL と入力します。
- Context: Global を選択します。
- 表示されるダイアログの Data Server 画面で、以下の情報を入力します。
- Name: SparkSQL と入力します。
- Driver List: Oracle JDBC Driver を選択します。
- Driver: cdata.jdbc.sparksql.SparkSQLDriver と入力します。
- URL: 接続文字列を含む JDBC URL を入力します。
SparkSQL への接続
SparkSQL への接続を確立するには以下を指定します。
- Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
- Port:SparkSQL インスタンスへの接続用のポートに設定。
- TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
- AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
Databricks への接続
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
- Server:Databricks クラスターのサーバーのホスト名に設定。
- Port:443
- TransportMode:HTTP
- HTTPPath:Databricks クラスターのHTTP パスに設定。
- UseSSL:True
- AuthScheme:PLAIN
- User:'token' に設定。
- Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
組み込みの接続文字列デザイナー
JDBC URL の作成には、Spark JDBC Driver に組み込まれている接続文字列デザイナーをご利用ください。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行します。
java -jar cdata.jdbc.sparksql.jar
接続プロパティを入力し、接続文字列をクリップボードにコピーします。
一般的な接続文字列は以下のとおりです。
jdbc:sparksql:Server=127.0.0.1;
- Physical Schema 画面で、以下の情報を入力します。
- Name: ドロップダウンメニューから選択します。
- Database (Catalog): CData と入力します。
- Owner (Schema): Spark でスキーマを選択した場合は選択したスキーマを入力し、それ以外の場合は SparkSQL と入力します。
- Database (Work Catalog): CData と入力します。
- Owner (Work Schema): Spark でスキーマを選択した場合は選択したスキーマを入力し、それ以外の場合は SparkSQL と入力します。
- 開いたモデルで Reverse Engineer をクリックして、Spark テーブルのメタデータを取得します。
Spark のデータの編集と保存
リバースエンジニアリングが完了すると、ODI でSpark のデータを操作できるようになります。
Spark のデータを編集・保存するには、Designer ナビゲーターで Models アコーディオンを展開し、テーブルを右クリックして Data をクリックします。Refresh をクリックするとデータの変更を取得できます。変更が完了したら Save Changes をクリックします。
ETL プロジェクトの作成
以下の手順に従って、Spark からの ETL を作成します。ODI Getting Started VM に含まれるサンプルデータウェアハウスに Customers エンティティをロードします。
SQL Developer を開き、Oracle データベースに接続します。Connections ペインでデータベースのノードを右クリックし、new SQL Worksheet をクリックします。
または、SQLPlus を使用することもできます。コマンドプロンプトから以下を入力します。
sqlplus / as sysdba
- 以下のクエリを入力して、ODI_DEMO スキーマにあるサンプルデータウェアハウスに新しいターゲットテーブルを作成します。以下のクエリでは、Spark の Customers テーブルに対応するいくつかのカラムを定義しています。
CREATE TABLE ODI_DEMO.TRG_CUSTOMERS (BALANCE NUMBER(20,0),City VARCHAR2(255));
- ODI で Designer ナビゲーターの Models アコーディオンを展開し、ODI_DEMO フォルダ内の Sales Administration ノードをダブルクリックします。モデルエディターでモデルが開きます。
- Reverse Engineer をクリックします。TRG_CUSTOMERS テーブルがモデルに追加されます。
- プロジェクト内の Mappings ノードを右クリックし、New Mapping をクリックします。マッピングの名前を入力し、Create Empty Dataset オプションのチェックを外します。Mapping Editor が表示されます。
- Sales Administration モデルから TRG_CUSTOMERS テーブルをマッピングにドラッグします。
- Spark モデルから Customers テーブルをマッピングにドラッグします。
- ソースのコネクタポイントをクリックし、ターゲットのコネクタポイントにドラッグします。Attribute Matching ダイアログが表示されます。この例では、デフォルトのオプションを使用します。ターゲットカラムのプロパティにターゲット式が表示されます。
- Mapping Editor の Physical タブを開き、TARGET_GROUP 内の CUSTOMERS_AP をクリックします。
- CUSTOMERS_AP のプロパティで、Loading Knowledge Module タブの LKM SQL to SQL (Built-In) を選択します。
マッピングを実行して、Spark のデータを Oracle にロードできます。