Apache Solr にDatabricks のデータをインポートする方法

Jerod Johnson
Jerod Johnson
Senior Technology Evangelist
CData JDBC Driver for Databricks をData Import Handler で使用して、Databricks のデータをApache Solr エンタープライズサーチプラットフォームに自動インポートできます。

Apache Solr は、Apache Lucene 上に構築された人気のある高速なオープンソースのエンタープライズサーチソリューションです。

Apache Solr には、データベースやXML、CSV、JSON ファイルからデータをインポートできるData Import Handler(DIH)が搭載されています。CData JDBC Driver for Databricks と組み合わせることで、Databricks のデータを簡単にApache Solr にインポートできます。この記事では、CData JDBC Driver をApache Solr のData Import Handler で使用し、エンタープライズサーチ用にDatabricks のデータをインポートする方法をステップバイステップで解説します。

Databricks データ連携について

CData を使用すれば、Databricks のライブデータへのアクセスと統合がこれまでになく簡単になります。お客様は CData の接続機能を以下の目的で利用しています:

  • Runtime バージョン 9.1 - 13.X から Pro および Classic Databricks SQL バージョンまで、すべてのバージョンの Databricks にアクセスできます。
  • あらゆるホスティングソリューションとの互換性により、お好みの環境で Databricks を使用し続けることができます。
  • パーソナルアクセストークン、Azure サービスプリンシパル、Azure AD など、さまざまな方法で安全に認証できます。
  • Databricks ファイルシステム、Azure Blob ストレージ、AWS S3 ストレージを使用して Databricks にデータをアップロードできます。

多くのお客様が、さまざまなシステムから Databricks データレイクハウスにデータを移行するために CData のソリューションを使用していますが、ライブ接続ソリューションを使用して、データベースと Databricks 間の接続をフェデレートしているお客様も多数います。これらのお客様は、SQL Server リンクサーバーまたは Polybase を使用して、既存の RDBMS 内から Databricks へのライブアクセスを実現しています。

一般的な Databricks のユースケースと CData のソリューションがデータの問題解決にどのように役立つかについては、ブログをご覧ください:What is Databricks Used For? 6 Use Cases


はじめに


Databricks インポート用のApache Solr コアとスキーマを作成する

  1. Apache Solr を起動し、コアを作成します。
    > solr create -c CDataCore
    この記事では、Solr はローカル環境でスタンドアロンインスタンスとして実行されており、次のURL でコアにアクセスできます:http://localhost:8983/solr/#/CDataCore/core-overview
  2. インポートするDatabricks のデータのカラムを表す「field」オブジェクトと、エンティティの一意キーで構成されるスキーマを作成します。Databricks にLastModifiedDate が存在する場合は、増分更新に使用されます。存在しない場合は、後述のdeltaquery を実行できません。スキーマはApache Solr が作成したmanaged-schema ファイルに保存します。
  3. 	DatabricksUniqueKey
    	
    	
    	
    	
    	
    	
    	
    	
    	
  4. CData Databricks JDBC Driver をインストールします。JAR ファイルとライセンスファイル(cdata.databricks.jarcdata.jdbc.databricks.lic)をSolr ディレクトリにコピーします。
    • CData JDBC JAR ファイル:C:\Program Files\CData\CData JDBC Driver for Databricks ####\lib
    • Apache Solr:solr-8.5.2\server\lib

これで、Solr でDatabricks のデータを使用する準備が整いました。

Databricks からApache Solr へのインポートを定義する

このセクションでは、Data Import Handler の設定手順を説明します。

  1. 作成したコアのConfig ファイルを編集します。JAR ファイルの参照を追加し、DIH RequestHandler の定義を追加します。
    	
    
    	<lib dir="${solr.install.dir:../../../..}/dist/" regex="solr-dataimporthandler-.*\.jar" />
    
    	<requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler">
    		<lst name="defaults">
    			<str name="config">solr-data-config.xml</str>
    		</lst>
    	</requestHandler>
  2. 次に、同じ階層にsolr-data-config.xml を作成します。この記事ではDatabricks からテーブルを取得しますが、カスタムSQL クエリを使用してデータをリクエストすることもできます。Driver クラスとサンプルJDBC 接続文字列は以下のサンプルコードにあります。
    	
    	<dataConfig>
    		<dataSource driver="cdata.jdbc.databricks.DatabricksDriver" url="jdbc:databricks:Server=127.0.0.1;HTTPPath=MyHTTPPath;User=MyUser;Token=MyToken;">
    		</dataSource>
    		<document>
    			<entity name="Customers"
    				query="SELECT Id,DatabricksColumn1,DatabricksColumn2,DatabricksColumn3,DatabricksColumn4,DatabricksColumn5,DatabricksColumn6,DatabricksColumn7,LastModifiedDate FROM Customers"
    				deltaQuery="SELECT Id FROM Customers where LastModifiedDate >= '${dataimporter.last_index_time}'"
    				deltaImportQuery="SELECT Id,DatabricksColumn1,DatabricksColumn2,DatabricksColumn3,DatabricksColumn4,DatabricksColumn5,DatabricksColumn6,DatabricksColumn7,LastModifiedDate FROM Customers where Id=${dataimporter.delta.Id}">
    				<field column="Id" name="Id" ></field>
    				<field column="DatabricksColumn1" name="DatabricksColumn1" ></field>
    				<field column="DatabricksColumn2" name="DatabricksColumn2" ></field>
    				<field column="DatabricksColumn3" name="DatabricksColumn3" ></field>
    				<field column="DatabricksColumn4" name="DatabricksColumn4" ></field>
    				<field column="DatabricksColumn5" name="DatabricksColumn5" ></field>
    				<field column="DatabricksColumn6" name="DatabricksColumn6" ></field>
    				<field column="DatabricksColumn7" name="DatabricksColumn7" ></field>
    				<field column="LastModifiedDate" name="LastModifiedDate" ></field>
    			</entity>
    		</document>
    	</dataConfig>
  3. query セクションで、Databricks からデータを選択するSQL クエリを設定します。deltaQuerydeltaImportquery は、同じエンティティの2回目以降のインポートで増分更新を使用する際のID と条件を定義します。
  4. すべての設定が完了したら、Solr を再起動します。
    	> solr stop -all
    	> solr start
    	

Databricks のデータのDataImport を実行する

  1. 以下のURL からDataImport を実行します:
    http://localhost:8983/solr/#/CDataCore/dataimport//dataimport
  2. 「full-import」コマンドを選択し、Entity からテーブルを選択して、「Execute」をクリックします。
  3. Query からインポート結果を確認します。
  4. deltaQuery を使用した増分更新を試してみましょう。元のDatabricks データセットのデータを変更します。DataImport ウィンドウから今度は「delta-import」コマンドを選択し、「Execute」をクリックします。
  5. 増分更新の結果を確認します。

CData JDBC Driver for Databricks を使用することで、Databricks のデータのApache Solr への自動インポートを作成できます。250+ のCData JDBC Driver の無料30日間トライアルをダウンロードして、今すぐ始めましょう。

はじめる準備はできましたか?

Databricks Driver の無料トライアルをダウンロードしてお試しください:

 ダウンロード

詳細:

Databricks Icon Databricks JDBC Driver お問い合わせ

Databricks 連携のパワフルなJava アプリケーションを素早く作成して配布。