JDBC で Spark データソースから Informatica マッピングを作成

Jerod Johnson
Jerod Johnson
Senior Technology Evangelist
標準の JDBC 接続プロセスを使用して、Informatica で Spark データオブジェクトを作成します。JAR をコピーして接続するだけです。

Informatica は、データの転送と変換を行う強力でエレガントな手段を提供します。CData JDBC Driver for Spark を使用することで、業界で実績のある標準に基づいたドライバーにアクセスでき、Informatica の強力なデータ転送および操作機能とシームレスに統合できます。このチュートリアルでは、Informatica PowerCenter で Spark のデータ を転送および参照する方法を説明します。

ドライバーのデプロイ

ドライバーを Informatica PowerCenter サーバーにデプロイするには、インストールディレクトリの lib サブフォルダにある CData JAR ファイルと .lic ファイルを、次のフォルダにコピーします:Informatica インストールディレクトリ\services\shared\jars\thirdparty。

Developer ツールで Spark のデータ を使用するには、インストールディレクトリの lib サブフォルダにある CData JAR ファイルと .lic ファイルを、次のフォルダにコピーする必要があります:

  • Informatica インストールディレクトリ\client\externaljdbcjars
  • Informatica インストールディレクトリ\externaljdbcjars

JDBC 接続の作成

Informatica Developer から接続するには、次の手順に従います:

  1. Connection Explorer ペインで、ドメインを右クリックし、Create a Connection をクリックします。
  2. 表示される New Database Connection ウィザードで、接続の名前と ID を入力し、Type メニューで JDBC を選択します。
  3. JDBC Driver Class Name プロパティに、次のように入力します:
    cdata.jdbc.sparksql.SparkSQLDriver
  4. Connection String プロパティに、Spark の接続プロパティを使用して JDBC URL を入力します。

    SparkSQL への接続

    SparkSQL への接続を確立するには以下を指定します。

    • Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
    • Port:SparkSQL インスタンスへの接続用のポートに設定。
    • TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
    • AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。

    Databricks への接続

    Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。

    • Server:Databricks クラスターのサーバーのホスト名に設定。
    • Port:443
    • TransportMode:HTTP
    • HTTPPath:Databricks クラスターのHTTP パスに設定。
    • UseSSL:True
    • AuthScheme:PLAIN
    • User:'token' に設定。
    • Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。

    組み込みの接続文字列デザイナー

    JDBC URL の構築には、Spark JDBC Driver に組み込まれている接続文字列デザイナーを使用できます。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行します。

    java -jar cdata.jdbc.sparksql.jar
    

    接続プロパティを入力し、接続文字列をクリップボードにコピーします。

    一般的な接続文字列は次のとおりです:

    jdbc:sparksql:Server=127.0.0.1;

Spark テーブルの参照

ドライバー JAR をクラスパスに追加し、JDBC 接続を作成したら、Informatica で Spark エンティティにアクセスできます。Spark に接続してテーブルを参照するには、次の手順に従います:

  1. リポジトリに接続します。
  2. Connection Explorer で、接続を右クリックし、Connect をクリックします。
  3. Show Default Schema Only オプションのチェックを外します。

これで、Data Viewer で Spark テーブルを参照できます。テーブルのノードを右クリックし、Open をクリックします。Data Viewer ビューで、Run をクリックします。

Spark データオブジェクトの作成

プロジェクトに Spark テーブルを追加するには、次の手順に従います:

  1. Spark でテーブルを選択し、テーブルを右クリックして Add to Project をクリックします。
  2. 表示されるダイアログで、各リソースに対してデータオブジェクトを作成するオプションを選択します。
  3. Select Location ダイアログで、プロジェクトを選択します。

    マッピングの作成

    マッピングに Spark ソースを追加するには、次の手順に従います:

    1. Object Explorer で、プロジェクトを右クリックし、New -> Mapping をクリックします。
    2. Spark 接続のノードを展開し、テーブルのデータオブジェクトをエディターにドラッグします。
    3. 表示されるダイアログで、Read オプションを選択します。

    Spark カラムをフラットファイルにマッピングするには、次の手順に従います:

    1. Object Explorer で、プロジェクトを右クリックし、New -> Data Object をクリックします。
    2. Flat File Data Object -> Create as Empty -> Fixed Width を選択します。
    3. Spark オブジェクトのプロパティで、必要な行を選択し、右クリックして copy をクリックします。フラットファイルのプロパティに行を貼り付けます。
    4. フラットファイルデータオブジェクトをマッピングにドラッグします。表示されるダイアログで、Write オプションを選択します。
    5. クリック&ドラッグでカラムを接続します。

    Spark のデータ を転送するには、ワークスペース内で右クリックし、Run Mapping をクリックします。

はじめる準備はできましたか?

Apache Spark Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Apache Spark Icon Apache Spark JDBC Driver お問い合わせ

Apache Spark 連携のパワフルなJava アプリケーションを素早く作成して配布。