Kaggleで流行中のXgboostを使ってみた

はじめに

Kaggleが流行ってる。Kaggleは一言で言えば機械学習のコンテストサイトみたいなものだ。Kaggleは近々力試しがてらデビューしてみようと思うので、詳細については別の記事で紹介する。そのKaggleで流行ってる機械学習手法がXgboostだ。もしかしたら「流行っていた」であって、今はやっぱり深層学習(Deep Learning)なのかもしれないが、使ったことなかったので使ってみる。ちなみに筆者は機械学習が専門の研究職で、C言語のSVMで車載カメラの画像から歩行者を検出する研究からスタートし、JavaのSVMで自然言語処理、最近はPythonのChainer(CNN)で画像処理なんかをやっていた。今回はRでXgboostを使う。これまでRを使う必要がなかったので、今回が初めてのRになる。

Rのインストール

Rのインストール=CRANのインストールである。
amarec(20160627-211305)
こちらから「Download R for Windows」を選択し、「base」をクリックする。2016年6月27日時点での最新版は3.3.1だったので「Download R 3.3.1 for Windows」というリンクが出ている。これをクリックしてインストーラをダウンロードする。インストーラを起動すればRのインストールは完了する。よくわからない人はとりあえず全部Yesで良い。32bit版か64bit版かはインストーラを起動してから選択するようになっている。

Xbgoostのインストール

Rのインストールが完了すると、デスクトップにRのアイコンがあるはず。それを起動する。
amarec(20160627-215435)
コンソール上で

install.packages("xgboost")

と入力すればインストールは完了する。

動作確認

こちらのブログを参考に、MNISTの小さいデータでテストをしてみる。Xgboostのパラメータはこちらにあるが、かなり多い。ちょっと古いけどこちらに有志による日本語版。

ちょっと時間がなくなったので、続きは次回。

関連投稿(追記)

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です