Apache Solr にPipedrive のデータをインポートする方法
Apache Solr は、Apache Lucene 上に構築された人気のある高速なオープンソースのエンタープライズサーチソリューションです。
Apache Solr には、データベースやXML、CSV、JSON ファイルからデータをインポートできるData Import Handler(DIH)が搭載されています。CData JDBC Driver for Pipedrive と組み合わせることで、Pipedrive のデータを簡単にApache Solr にインポートできます。この記事では、CData JDBC Driver をApache Solr のData Import Handler で使用し、エンタープライズサーチ用にPipedrive のデータをインポートする方法をステップバイステップで解説します。
Pipedrive インポート用のApache Solr コアとスキーマを作成する
- Apache Solr を起動し、コアを作成します。
> solr create -c CDataCore
この記事では、Solr はローカル環境でスタンドアロンインスタンスとして実行されており、次のURL でコアにアクセスできます:http://localhost:8983/solr/#/CDataCore/core-overview - インポートするPipedrive のデータのカラムを表す「field」オブジェクトと、エンティティの一意キーで構成されるスキーマを作成します。Pipedrive にLastModifiedDate が存在する場合は、増分更新に使用されます。存在しない場合は、後述のdeltaquery を実行できません。スキーマはApache Solr が作成したmanaged-schema ファイルに保存します。
- CData Pipedrive JDBC Driver をインストールします。JAR ファイルとライセンスファイル(cdata.pipedrive.jar とcdata.jdbc.pipedrive.lic)をSolr ディレクトリにコピーします。
- CData JDBC JAR ファイル:C:\Program Files\CData\CData JDBC Driver for Pipedrive ####\lib
- Apache Solr:solr-8.5.2\server\lib
PipedriveUniqueKey
これで、Solr でPipedrive のデータを使用する準備が整いました。
Pipedrive からApache Solr へのインポートを定義する
このセクションでは、Data Import Handler の設定手順を説明します。
- 作成したコアのConfig ファイルを編集します。JAR ファイルの参照を追加し、DIH RequestHandler の定義を追加します。
<lib dir="${solr.install.dir:../../../..}/dist/" regex="solr-dataimporthandler-.*\.jar" /> <requestHandler name="/dataimport" class="org.apache.solr.handler.dataimport.DataImportHandler"> <lst name="defaults"> <str name="config">solr-data-config.xml</str> </lst> </requestHandler> - 次に、同じ階層にsolr-data-config.xml を作成します。この記事ではPipedrive からテーブルを取得しますが、カスタムSQL クエリを使用してデータをリクエストすることもできます。Driver クラスとサンプルJDBC 接続文字列は以下のサンプルコードにあります。
<dataConfig> <dataSource driver="cdata.jdbc.pipedrive.PipedriveDriver" url="jdbc:pipedrive:AuthScheme=Basic;CompanyDomain=MyCompanyDomain;APIToken=MyAPIToken;"> </dataSource> <document> <entity name="Deals" query="SELECT Id,PipedriveColumn1,PipedriveColumn2,PipedriveColumn3,PipedriveColumn4,PipedriveColumn5,PipedriveColumn6,PipedriveColumn7,LastModifiedDate FROM Deals" deltaQuery="SELECT Id FROM Deals where LastModifiedDate >= '${dataimporter.last_index_time}'" deltaImportQuery="SELECT Id,PipedriveColumn1,PipedriveColumn2,PipedriveColumn3,PipedriveColumn4,PipedriveColumn5,PipedriveColumn6,PipedriveColumn7,LastModifiedDate FROM Deals where Id=${dataimporter.delta.Id}"> <field column="Id" name="Id" ></field> <field column="PipedriveColumn1" name="PipedriveColumn1" ></field> <field column="PipedriveColumn2" name="PipedriveColumn2" ></field> <field column="PipedriveColumn3" name="PipedriveColumn3" ></field> <field column="PipedriveColumn4" name="PipedriveColumn4" ></field> <field column="PipedriveColumn5" name="PipedriveColumn5" ></field> <field column="PipedriveColumn6" name="PipedriveColumn6" ></field> <field column="PipedriveColumn7" name="PipedriveColumn7" ></field> <field column="LastModifiedDate" name="LastModifiedDate" ></field> </entity> </document> </dataConfig> - query セクションで、Pipedrive からデータを選択するSQL クエリを設定します。deltaQuery とdeltaImportquery は、同じエンティティの2回目以降のインポートで増分更新を使用する際のID と条件を定義します。
- すべての設定が完了したら、Solr を再起動します。
> solr stop -all > solr start
Pipedrive のデータのDataImport を実行する
- 以下のURL からDataImport を実行します:
http://localhost:8983/solr/#/CDataCore/dataimport//dataimport
- 「full-import」コマンドを選択し、Entity からテーブルを選択して、「Execute」をクリックします。
- Query からインポート結果を確認します。
- deltaQuery を使用した増分更新を試してみましょう。元のPipedrive データセットのデータを変更します。DataImport ウィンドウから今度は「delta-import」コマンドを選択し、「Execute」をクリックします。
- 増分更新の結果を確認します。
CData JDBC Driver for Pipedrive を使用することで、Pipedrive のデータのApache Solr への自動インポートを作成できます。250+ のCData JDBC Driver の無料30日間トライアルをダウンロードして、今すぐ始めましょう。