R から JDBC 経由でSparkののデータを分析
R と Java がインストールされている環境であれば、純粋な R スクリプトと標準的な SQL を使用してSpark のデータにアクセスできます。CData JDBC Driver for Spark と RJDBC パッケージを使えば、R からリモートのSpark のデータを操作できます。CData Driver を使用することで、業界で実績のある標準規格に準拠したドライバーを活用し、人気のオープンソース言語 R でデータにアクセスできます。この記事では、ドライバーを使ってSparkに SQL クエリを実行し、標準的な R 関数を呼び出してSpark のデータを可視化する方法を説明します。
R のインストール
マルチスレッドとマネージドコードによるドライバーのパフォーマンス向上を最大限に活かすには、マルチスレッド対応の Microsoft R Open を使用するか、BLAS/LAPACK ライブラリとリンクされたオープンソース R を使用します。この記事では Microsoft R Open 3.2.3 を使用しています。このバージョンは、2016年1月1日時点の CRAN リポジトリのスナップショットからパッケージをインストールするように事前設定されており、再現性が確保されています。
RJDBC パッケージの読み込み
ドライバーを使用するには、RJDBC パッケージをダウンロードしてください。 RJDBC パッケージをインストールしたら、以下のコードでパッケージを読み込みます。
library(RJDBC)
Sparkに JDBC データソースとして接続
Sparkに JDBC データソースとして接続するには、以下の情報が必要です。
- Driver Class: cdata.jdbc.sparksql.SparkSQLDriver に設定します。
- Classpath: ドライバー JAR ファイルの場所を設定します。デフォルトでは、インストールフォルダの lib サブフォルダです。
dbConnect や dbSendQuery などの DBI 関数は、R でデータアクセスコードを記述するための統一されたインターフェースを提供します。以下のコードで、CData JDBC Driver for Spark に JDBC リクエストを行う DBI ドライバーを初期化します。
driver <- JDBC(driverClass = "cdata.jdbc.sparksql.SparkSQLDriver", classPath = "MyInstallationDir\lib\cdata.jdbc.sparksql.jar", identifier.quote = "'")
これで DBI 関数を使用してSparkに接続し、SQL クエリを実行できます。dbConnect 関数で JDBC 接続を初期化します。
SparkSQL への接続
SparkSQL への接続を確立するには以下を指定します。
- Server:SparkSQL をホストするサーバーのホスト名またはIP アドレスに設定。
- Port:SparkSQL インスタンスへの接続用のポートに設定。
- TransportMode:SparkSQL サーバーとの通信に使用するトランスポートモード。有効な入力値は、BINARY およびHTTP です。デフォルトではBINARY が選択されます。
- AuthScheme:使用される認証スキーム。有効な入力値はPLAIN、LDAP、NOSASL、およびKERBEROS です。デフォルトではPLAIN が選択されます。
Databricks への接続
Databricks クラスターに接続するには、以下の説明に従ってプロパティを設定します。Note:必要な値は、「クラスター」に移動して目的のクラスターを選択し、 「Advanced Options」の下にある「JDBC/ODBC」タブを選択することで、Databricks インスタンスで見つけることができます。
- Server:Databricks クラスターのサーバーのホスト名に設定。
- Port:443
- TransportMode:HTTP
- HTTPPath:Databricks クラスターのHTTP パスに設定。
- UseSSL:True
- AuthScheme:PLAIN
- User:'token' に設定。
- Password:パーソナルアクセストークンに設定(値は、Databricks インスタンスの「ユーザー設定」ページに移動して「アクセストークン」タブを選択することで取得できます)。
組み込みの接続文字列デザイナー
JDBC URL の構築には、Spark JDBC Driver に組み込まれている接続文字列デザイナーが便利です。JAR ファイルをダブルクリックするか、コマンドラインから JAR ファイルを実行してください。
java -jar cdata.jdbc.sparksql.jar
接続プロパティを入力し、接続文字列をクリップボードにコピーします。
以下は、一般的な JDBC 接続文字列を含む dbConnect 呼び出しの例です。
conn <- dbConnect(driver,"jdbc:sparksql:Server=127.0.0.1;")
スキーマの検出
このドライバーは、Spark API をリレーショナルテーブル、ビュー、ストアドプロシージャとしてモデル化します。以下のコードでテーブルの一覧を取得できます。
dbListTables(conn)
SQL クエリの実行
dbGetQuery 関数を使用して、Spark API でサポートされている任意の SQL クエリを実行できます。
customers <- dbGetQuery(conn,"SELECT City, Balance FROM Customers")
以下のコマンドで、結果をデータビューアウィンドウに表示できます。
View(customers)
Spark のデータのプロット
これで、CRAN リポジトリで利用可能なデータ可視化パッケージを使ってSpark のデータを分析できます。組み込みのバープロット関数でシンプルな棒グラフを作成できます。
par(las=2,ps=10,mar=c(5,15,4,2)) barplot(customers$Balance, main="Spark Customers", names.arg = customers$City, horiz=TRUE)