PythonでForward Selection (mlxtend)
- 背景
- Sequential Feature Selector
- まず、forward selectionを行ってみる。
- sequential feature algorithms (SFAs)
- 1. Sequential Forward Selection (SFS)
- 2. Sequential Backward Selection (SBS)
- 3. Sequential Forward Floating Selection (SFFS)
- 4. Sequential Backward Floating Selection (SBFS)
- 選択手法の切り替え
- 他の便利機能
- feature selectionしてるときの詳細
- 扱う特徴の数と性能のプロット
- transform
- GridSearch
- さいごに
背景
前に変数選択(feature selection)をまとめたが、その中のForward Selectionはsklearnでは実装されていなかった。
ググるとsklearnのissueで実装しろって突っ込まれてる。(2016年3月ってことはもう実装する気がない?)
そしたらRでやれって話なんですが、できるなら慣れたPythonでやりたい...
続きを読むimbalanced-learnを実際に使った分析例 使わない場合と比較
- はじめに
- データの説明
- 分析の流れ
- 分析
- 1. どういう判別器を用いたら良いか。
- 2. 変数選択をする。
- 3. imblearnでオーバーサンプリングとアンダーサンプリングを行う。
- 4. インバランスを考慮しなかった場合と性能を比較する。
- 5. 分析結果
- まとめ
imbalanced-learnの機能の紹介
変数選択(Feature Selection)の実装と改善の確認
- はじめに
- 実験設定
- 目的
- 用いるデータ
- 用いる変数選択手法
- 用いる判別器
- 評価指標
- 行わないこと
- 実験設定
- データを少し見てみる
- すべての特徴を用いた場合
- Filter Method
- 目視により選択
- sklearn.feature_selection.SelectKBestによる選択
- Wrapper Method
- sklearn.feature_selection.RFECVによる選択
- Borutaによる変数選択
- 実験結果
- まとめ
変数選択(Feature Selection)手法のまとめ
説明変数がめちゃくちゃ多いデータを扱うことになったので変数選択が重要なんじゃないかと思って調べたところまとまっている記事を見つけました。要約して翻訳してここに置いておきます。
追記:更に踏み込んだ話を記事にしました。
こちらの記事の翻訳です: www.analyticsvidhya.com
- はじめに
- 変数選択(Feature Selection)の重要性
- Filter Method
- Pearson's Correlation
- LDA
- ANOVA
- カイ二乗(Chi-Square)
- Wrapper Method
- Forward Selection
- Backward Elimination
- Recursive Feature Elimination
- Embedded Method
- Filter MethodとWrapper Methodの違い
- 最後に
はじめに
高価な優れた計算機など用いずにMacBookAirで、機械学習コンペに優勝した人もいる。優勝者に共通する特徴として、特徴製作(Feature Creation)と、変数選択(Feature Selection)をしっかりと行っていることに気づいた。
有用な特徴製作をするには膨大な経験を積む必要があり、センスも問われるので難しい。
なので変数選択に焦点を当てて、手法を紹介する。
続きを読む画像(スクショ)からTexの数式を出力する便利ソフト Mathpix snipping tool
はじめに
こんにちは、皆さんTex使ってますか?私は使うたびに打ちたい数式が打てなくて不便してます。数式に関してはWordの方がもはや製作しやくなりました。ただ、式番号が振れない致命点がありますが。
もっと楽に数式が打ちたい!!!!
世の中にはマウスで書いた数式をTexに変換してくれるツールも存在するらしいですが、それすらめんどくさい
そんなズボラなあなたと私に
Mathpix snipping tool
なんと無料です。
続きを読む