Apache Solr にAmazon S3 のデータをインポートする方法
Apache Solr は、Apache Lucene 上に構築された人気のある高速なオープンソースのエンタープライズサーチソリューションです。
Apache Solr には、データベースやXML、CSV、JSON ファイルからデータをインポートできるData Import Handler(DIH)が搭載されています。CData JDBC Driver for Amazon S3 と組み合わせることで、Amazon S3 のデータを簡単にApache Solr にインポートできます。この記事では、CData JDBC Driver をApache Solr のData Import Handler で使用し、エンタープライズサーチ用にAmazon S3 のデータをインポートする方法をステップバイステップで解説します。
Amazon S3 インポート用のApache Solr コアとスキーマを作成する
- Apache Solr を起動し、コアを作成します。
> solr create -c CDataCore
この記事では、Solr はローカル環境でスタンドアロンインスタンスとして実行されており、次のURL でコアにアクセスできます:http://localhost:8983/solr/#/CDataCore/core-overview - インポートするAmazon S3 のデータのカラムを表す「field」オブジェクトと、エンティティの一意キーで構成されるスキーマを作成します。Amazon S3 にLastModifiedDate が存在する場合は、増分更新に使用されます。存在しない場合は、後述のdeltaquery を実行できません。スキーマはApache Solr が作成したmanaged-schema ファイルに保存します。
- CData Amazon S3 JDBC Driver をインストールします。JAR ファイルとライセンスファイル(cdata.amazons3.jar とcdata.jdbc.amazons3.lic)をSolr ディレクトリにコピーします。
- CData JDBC JAR ファイル:C:\Program Files\CData\CData JDBC Driver for Amazon S3 ####\lib
- Apache Solr:solr-8.5.2\server\lib
AmazonS3UniqueKey
これで、Solr でAmazon S3 のデータを使用する準備が整いました。
Amazon S3 からApache Solr へのインポートを定義する
このセクションでは、Data Import Handler の設定手順を説明します。
- 作成したコアのConfig ファイルを編集します。JAR ファイルの参照を追加し、DIH RequestHandler の定義を追加します。
<lib dir="${solr.install.dir:../../../..}/dist/" regex="solr-dataimporthandler-.*\.jar" /> <requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler"> <lst name="defaults"> <str name="config">solr-data-config.xml</str> </lst> </requestHandler> - 次に、同じ階層にsolr-data-config.xml を作成します。この記事ではAmazon S3 からテーブルを取得しますが、カスタムSQL クエリを使用してデータをリクエストすることもできます。Driver クラスとサンプルJDBC 接続文字列は以下のサンプルコードにあります。
<dataConfig> <dataSource driver="cdata.jdbc.amazons3.AmazonS3Driver" url="jdbc:amazons3:AccessKey=a123;SecretKey=s123;"> </dataSource> <document> <entity name="ObjectsACL" query="SELECT Id,AmazonS3Column1,AmazonS3Column2,AmazonS3Column3,AmazonS3Column4,AmazonS3Column5,AmazonS3Column6,AmazonS3Column7,LastModifiedDate FROM ObjectsACL" deltaQuery="SELECT Id FROM ObjectsACL where LastModifiedDate >= '${dataimporter.last_index_time}'" deltaImportQuery="SELECT Id,AmazonS3Column1,AmazonS3Column2,AmazonS3Column3,AmazonS3Column4,AmazonS3Column5,AmazonS3Column6,AmazonS3Column7,LastModifiedDate FROM ObjectsACL where Id=${dataimporter.delta.Id}"> <field column="Id" name="Id" ></field> <field column="AmazonS3Column1" name="AmazonS3Column1" ></field> <field column="AmazonS3Column2" name="AmazonS3Column2" ></field> <field column="AmazonS3Column3" name="AmazonS3Column3" ></field> <field column="AmazonS3Column4" name="AmazonS3Column4" ></field> <field column="AmazonS3Column5" name="AmazonS3Column5" ></field> <field column="AmazonS3Column6" name="AmazonS3Column6" ></field> <field column="AmazonS3Column7" name="AmazonS3Column7" ></field> <field column="LastModifiedDate" name="LastModifiedDate" ></field> </entity> </document> </dataConfig> - query セクションで、Amazon S3 からデータを選択するSQL クエリを設定します。deltaQuery とdeltaImportquery は、同じエンティティの2回目以降のインポートで増分更新を使用する際のID と条件を定義します。
- すべての設定が完了したら、Solr を再起動します。
> solr stop -all > solr start
Amazon S3 のデータのDataImport を実行する
- 以下のURL からDataImport を実行します:
http://localhost:8983/solr/#/CDataCore/dataimport//dataimport
- 「full-import」コマンドを選択し、Entity からテーブルを選択して、「Execute」をクリックします。
- Query からインポート結果を確認します。
- deltaQuery を使用した増分更新を試してみましょう。元のAmazon S3 データセットのデータを変更します。DataImport ウィンドウから今度は「delta-import」コマンドを選択し、「Execute」をクリックします。
- 増分更新の結果を確認します。
CData JDBC Driver for Amazon S3 を使用することで、Amazon S3 のデータのApache Solr への自動インポートを作成できます。250+ のCData JDBC Driver の無料30日間トライアルをダウンロードして、今すぐ始めましょう。