Python でGitHub のデータを変換・出力するETL 処理を作る方法
Pythonエコシステムには多くのモジュールがあり、システム構築を素早く効率的に行うことができます。本記事では、CData Python Connector for GitHub とpetl フレームワークを使って、GitHub のデータにPython から接続してデータを変換、CSV に出力するETL 変換を実装してみます。
CData Python Connector は効率的なデータ処理によりGitHub のデータ にPython から接続し、高いパフォーマンスを発揮します。GitHub にデータをクエリする際、ドライバーはフィルタリング、集計などがサポートされている場合SQL 処理を直接GitHub 側に行わせ、サポートされていないSQL 処理については、組み込みのSQL エンジンによりクライアント側で処理を行います(JOIN やSQL 関数など)。
必要なモジュールのインストール
pip で必要なモジュールおよびフレームワークをインストールします:
pip install petl pip install pandas
Python でGitHub のデータをETL 処理するアプリを構築
モジュールとフレームワークをインストールしたら、ETL アプリケーションを組んでいきます。コードのスニペットは以下の通りです。フルコードは記事の末尾に付いています。
CData Connector を含むモジュールをインポートします。
import petl as etl import pandas as pd import cdata.github as mod
接続文字列で接続を確立します。connect 関数を使って、CData GitHub Connector からGitHub への接続を行います
cnxn = mod.connect("OAuthClientId=MyOAuthClientId;OAuthClientSecret=MyOAuthClientSecret;CallbackURL=http://localhost:portNumber;")
GitHub への接続には、OAuth 2 認証標準を使います。OAuth で認証するには、アプリを作成してOAuthClientId、OAuthClientSecret、およびCallbackURL 接続プロパティを取得する必要があります。詳細はヘルプドキュメントの「はじめに」を参照してください。
GitHub をクエリするSQL 文の作成
GitHub にはSQL でデータアクセスが可能です。Users エンティティからのデータを読み出します。
sql = "SELECT Name, Email FROM Users WHERE UserLogin = 'mojombo'"
GitHub データのETL 処理
DataFrame に格納されたクエリ結果を使って、petl でETL(抽出・変換・ロード)パイプラインを組みます。この例では、GitHub のデータ を取得して、Email カラムでデータをソートして、CSV ファイルにデータをロードします。
table1 = etl.fromdb(cnxn,sql) table2 = etl.sort(table1,'Email') etl.tocsv(table2,'users_data.csv')
CData Python Connector for GitHub を使えば、データベースを扱う場合と同感覚で、GitHub のデータ を扱うことができ、petl のようなETL パッケージから直接データにアクセスが可能になります。
おわりに
GitHub Python Connector の30日の無償トライアル をぜひダウンロードして、GitHub のデータ への接続をPython アプリやスクリプトから簡単に作成しましょう。
フルソースコード
import petl as etl
import pandas as pd
import cdata.github as mod
cnxn = mod.connect("OAuthClientId=MyOAuthClientId;OAuthClientSecret=MyOAuthClientSecret;CallbackURL=http://localhost:portNumber;")
sql = "SELECT Name, Email FROM Users WHERE UserLogin = 'mojombo'"
table1 = etl.fromdb(cnxn,sql)
table2 = etl.sort(table1,'Email')
etl.tocsv(table2,'users_data.csv')