Oracle Data Integrator で HDFS データをETL
JDBC 標準を使用して、既存のスキルを活かしながらHDFS に接続できます。 Oracle Data Integrator(ODI)などの ETL ツールにドロップインで統合できる CData JDBC Driver for HDFS を使えば、リアルタイムのHDFS のデータをデータウェアハウス、ビジネスインテリジェンス、ビッグデータテクノロジーに接続できます。
JDBC 接続により、ODI でHDFS を他のデータベースと同様に扱うことができます。RDBMS と同じように、フラットファイルではなくリアルタイムでHDFS API に直接接続できます。
この記事では、JDBC ベースの ETL(HDFS から Oracle へ)の手順を説明します。HDFS エンティティのデータモデルをリバースエンジニアリングした後、マッピングを作成し、データロード戦略を選択します。ドライバーが SQL-92 をサポートしているため、組み込みの SQL to SQL Loading Knowledge Module を選択するだけで簡単に実現できます。
ドライバーのインストール
ドライバーをインストールするには、インストールフォルダにあるドライバー JAR(cdata.jdbc.hdfs.jar)と .lic ファイル(cdata.jdbc.hdfs.lic)を、ODI の適切なディレクトリにコピーします。
- UNIX/Linux(エージェントなし): ~/.odi/oracledi/userlib
- UNIX/Linux(エージェントあり): ~/.odi/oracledi/userlib および $ODI_HOME/odi/agent/lib
- Windows(エージェントなし): %APPDATA%\Roaming\odi\oracledi\userlib
- Windows(エージェントあり): %APPDATA%\odi\oracledi\userlib および %APPDATA%\odi\agent\lib
ODI を再起動してインストールを完了します。
モデルのリバースエンジニアリング
モデルをリバースエンジニアリングすると、ドライバーのHDFS のデータに対するリレーショナルビューのメタデータが取得されます。リバースエンジニアリング後は、リアルタイムのHDFS のデータをクエリし、HDFS テーブルに基づいてマッピングを作成できます。
-
ODI でリポジトリに接続し、New -> Model and Topology Objects をクリックします。
- 表示されるダイアログの Model 画面で、以下の情報を入力します。
- Name: HDFS と入力します。
- Technology: Generic SQL を選択します(ODI バージョン 12.2 以降の場合は Microsoft SQL Server を選択)。
- Logical Schema: HDFS と入力します。
- Context: Global を選択します。
- 表示されるダイアログの Data Server 画面で、以下の情報を入力します。
- Name: HDFS と入力します。
- Driver List: Oracle JDBC Driver を選択します。
- Driver: cdata.jdbc.hdfs.HDFSDriver と入力します。
- URL: 接続文字列を含む JDBC URL を入力します。
HDFS 接続プロパティの取得・設定方法
HDFS への認証には、次の接続プロパティを設定します。
- Host:HDFS インスタンスのホストに設定。
- Port:HDFS インスタンスのポートに設定。デフォルトのポートは"9870" です。
組み込みの接続文字列デザイナー
JDBC URL の作成には、HDFS JDBC Driver に組み込まれている接続文字列デザイナーをご利用ください。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行します。
java -jar cdata.jdbc.hdfs.jar
接続プロパティを入力し、接続文字列をクリップボードにコピーします。
一般的な接続文字列は以下のとおりです。
jdbc:hdfs:Host=sandbox-hdp.hortonworks.com;Port=50070;Path=/user/root;User=root;
- Physical Schema 画面で、以下の情報を入力します。
- Name: ドロップダウンメニューから選択します。
- Database (Catalog): CData と入力します。
- Owner (Schema): HDFS でスキーマを選択した場合は選択したスキーマを入力し、それ以外の場合は HDFS と入力します。
- Database (Work Catalog): CData と入力します。
- Owner (Work Schema): HDFS でスキーマを選択した場合は選択したスキーマを入力し、それ以外の場合は HDFS と入力します。
- 開いたモデルで Reverse Engineer をクリックして、HDFS テーブルのメタデータを取得します。
HDFS のデータの編集と保存
リバースエンジニアリングが完了すると、ODI でHDFS のデータを操作できるようになります。
HDFS のデータを表示するには、Designer ナビゲーターで Models アコーディオンを展開し、テーブルを右クリックして View data をクリックします。
ETL プロジェクトの作成
以下の手順に従って、HDFS からの ETL を作成します。ODI Getting Started VM に含まれるサンプルデータウェアハウスに Files エンティティをロードします。
SQL Developer を開き、Oracle データベースに接続します。Connections ペインでデータベースのノードを右クリックし、new SQL Worksheet をクリックします。
または、SQLPlus を使用することもできます。コマンドプロンプトから以下を入力します。
sqlplus / as sysdba
- 以下のクエリを入力して、ODI_DEMO スキーマにあるサンプルデータウェアハウスに新しいターゲットテーブルを作成します。以下のクエリでは、HDFS の Files テーブルに対応するいくつかのカラムを定義しています。
CREATE TABLE ODI_DEMO.TRG_FILES (CHILDRENNUM NUMBER(20,0),FileId VARCHAR2(255));
- ODI で Designer ナビゲーターの Models アコーディオンを展開し、ODI_DEMO フォルダ内の Sales Administration ノードをダブルクリックします。モデルエディターでモデルが開きます。
- Reverse Engineer をクリックします。TRG_FILES テーブルがモデルに追加されます。
- プロジェクト内の Mappings ノードを右クリックし、New Mapping をクリックします。マッピングの名前を入力し、Create Empty Dataset オプションのチェックを外します。Mapping Editor が表示されます。
- Sales Administration モデルから TRG_FILES テーブルをマッピングにドラッグします。
- HDFS モデルから Files テーブルをマッピングにドラッグします。
- ソースのコネクタポイントをクリックし、ターゲットのコネクタポイントにドラッグします。Attribute Matching ダイアログが表示されます。この例では、デフォルトのオプションを使用します。ターゲットカラムのプロパティにターゲット式が表示されます。
- Mapping Editor の Physical タブを開き、TARGET_GROUP 内の FILES_AP をクリックします。
- FILES_AP のプロパティで、Loading Knowledge Module タブの LKM SQL to SQL (Built-In) を選択します。
マッピングを実行して、HDFS のデータを Oracle にロードできます。