CData SSIS Components を使用して SAS xpt のデータを Databricks にマイグレーション

Cameron Leblanc
Cameron Leblanc
Technology Evangelist
CData SSIS Tasks for SAS xpt と Databricks を使用して、SAS xpt のデータを Databricks に簡単にプッシュできます。

Databricks は、大量のデータを簡単に処理、分析、可視化できる統合データ分析プラットフォームです。データエンジニアリング、データサイエンス、機械学習の機能を単一のプラットフォームに統合し、チームがコラボレーションしてデータからインサイトを得ることを容易にします。

CData SSIS Components は、SQL Server Integration Services を拡張し、さまざまなソースやデスティネーションからデータを簡単にインポート・エクスポートできるようにします。

この記事では、Databricks へのエクスポート時のデータ型マッピングの考慮事項を確認し、CData SSIS Components for SAS xpt と Databricks を使用してSAS xpt のデータを Databricks にマイグレーションする方法を説明します。

データ型マッピング

Databricks スキーマ CData スキーマ

int, integer, int32

int

smallint, short, int16

smallint

double, float, real

float

date

date

datetime, timestamp

datetime

time, timespan

time

string, varchar

長さ > 4000 の場合:nvarchar(max)、それ以外:nvarchar(length)

long, int64, bigint

bigint

boolean, bool

tinyint

decimal, numeric

decimal

uuid

nvarchar(length)

binary, varbinary, longvarbinary

binary(1000) または SQL Server 2000 以降は varbinary(max)


特別な考慮事項

  • String/VARCHAR: Databricks の String カラムは、カラムの長さによって異なるデータ型にマッピングされます。カラムの長さが 4000 を超える場合、カラムは nvarchar(max) にマッピングされます。それ以外の場合は、nvarchar(length) にマッピングされます。
  • DECIMAL: Databricks は最大 38 桁の精度の DECIMAL 型をサポートしていますが、それを超えるソースカラムはロードエラーを引き起こす可能性があります。

前提条件

プロジェクトの作成とコンポーネントの追加

  1. Visual Studio を開き、新しい Integration Services プロジェクトを作成します。
  2. Control Flow 画面に新しい Data Flow Task を追加し、Data Flow Task を開きます。
  3. Data Flow Task に CData SAS xpt Source コントロールと CData Databricks Destination コントロールを追加します。

SAS xpt ソースの設定

以下の手順に従って、SAS xpt への接続に必要なプロパティを指定します。

  1. CData SAS xpt Source をダブルクリックしてソースコンポーネントエディタを開き、新しい接続を追加します。
  2. CData SAS xpt Connection Manager で接続プロパティを設定し、接続をテストして保存します。

    ローカルSASXpt ファイルへの接続

    URI をSASXpt ファイルを格納しているフォルダに設定すると、ローカルのSASXpt ファイルに接続できます。

    S3 データソースへの接続

    Amazon S3 ソースに接続してSASXpt ファイルを読み込むことができます。以下のプロパティを設定して接続します:

    • URI:接続するバケット内のフォルダに設定。
    • AWSAccessKey:AWS アカウントのアクセスキーに設定。
    • AWSSecretKey:AWS アカウントのシークレットキーに設定。
    • TemporaryLocalFolder:SASXptファイルを一時的にダウンロードするために使用するフォルダへのパス、またはURI に設定。

    Azure Data Lake Storage Gen2 への接続

    ADLS Gen2 に接続してSASXpt ファイルを読み込むことができます。以下のプロパティを設定して接続します:

    • URI:ファイルシステムの名前およびSASXpt ファイルにコンタクトするフォルダの名前に設定。
    • AzureAccount:Azure Data Lake storage アカウントの名前に設定。
    • AzureAccessKey:Azure Data Lake storage Gen 2 ストレージアカウントのアクセスキーに設定。
    • TemporaryLocalFolder:SASXptファイルを一時的にダウンロードするために使用するフォルダへのパス、またはURI に設定。

  3. 接続を保存後、「Table or view」を選択し、Databricks にエクスポートするテーブルまたはビューを選択して、CData SAS xpt Source Editor を閉じます。

Databricks デスティネーションの設定

SAS xpt Source を設定したら、Databricks 接続を設定してカラムをマッピングします。

  1. CData Databricks Destination をダブルクリックしてデスティネーションコンポーネントエディタを開き、新しい接続を追加します。
  2. CData Databricks Connection Manager で接続プロパティを設定し、接続をテストして保存します。Databricks クラスターに接続するには、以下のようにプロパティを設定します。

    注意:必要な値は、Databricks インスタンスで Clusters に移動し、目的のクラスターを選択して、Advanced Options の下にある JDBC/ODBC タブを選択することで確認できます。

    • Server:Databricks クラスターの Server Hostname を設定します。
    • HTTPPath:Databricks クラスターの HTTP Path を設定します。
    • Token:個人用アクセストークンを設定します(この値は、Databricks インスタンスの User Settings ページに移動し、Access Tokens タブを選択することで取得できます)。

    その他の便利な接続プロパティ

    • QueryPassthrough: True に設定すると、クエリは Databricks に直接渡されます。
    • ConvertDateTimetoGMT: True に設定すると、コンポーネントはローカルマシンの時刻ではなく、日時値を GMT に変換します。
    • UseUploadApi: このプロパティを true に設定すると、Bulk INSERT 操作で大量のデータがある場合にパフォーマンスが向上します。
    • UseCloudFetch: このオプションは、テーブルに 100 万件を超えるエントリがある場合にクエリ効率を向上させるために CloudFetch を使用するかどうかを指定します。
  3. 接続を保存後、Use a Table メニューでテーブルを選択し、Action メニューで Insert を選択します。
  4. Column Mappings タブで、入力カラムからデスティネーションカラムへのマッピングを設定します。

プロジェクトの実行

これでプロジェクトを実行できます。SSIS Task の実行が完了すると、SQL テーブルのデータが選択したテーブルにエクスポートされます。

はじめる準備はできましたか?

SASxpt SSIS Component の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

SAS XPORT files Icon SASxpt SSIS Components お問い合わせ

パワフルなSSIS Source & Destination Components で、SQL Server とSAS xpt (XPORT) ファイルをSSIS ワークフローで連携。

SAS xpt Data Flow Components を使って、SAS xpt (XPORT) ファイルデータを簡単に同期。データ同期、ローカルバックアップ、ワークフロー自動化に最適!