学習する天然ニューラルネット

主に機械学習に関する覚書や情報の整理。競プロ水色→Kaggle Master→?

蟻本Python回答集 初級編 (~P126)

はじめに

とうとうAtCoder水色になれた(過去問精進と夜活コンテストのおかげ)。さらなる高みを目指すべく、プログラミングコンテストチャレンジブック [第2版] (通称、蟻本)を解くことした。 せっかくなのでPythonでの解答をここに記録する。

Pythonで解答してる人のブログを漁っても初級編の途中(DPとか)で挫折してる人が多そうだったので誰かの助けになれたらと思う。

著作権保護のため本の内容をすべて公開するわけではないので、解説などは本を見てほしい。 一方、変数名の説明なしにコード例が書いてある問題もいくつかあり、そういう問題はコードのコメントに意味合いを補足した。

この本の購入に関してはmynavi booksからPDFを購入するのがおすすめだ。ノートアプリを使っていろいろ書き込むことができる。

book.mynavi.jp

続きはこちら

aotamasaki.hatenablog.com

続きを読む

Confident Learningは誤った教師から学習するか? ~ tf-idfのデータセットでノイズ生成から評価まで ~

概要

現実の判別問題において教師が完璧であることは珍しい。ラベリング作業において、知識不足や勘違いなどで引き起こされるヒューマンエラーはデータセットを汚染する。

このような間違った教師のことを、noisy label (corrupted label や polluted labelとも)という。誤った教師を用いると学習はうまく行かず判別性能は下がってしまう。近年ではこれに対処しようという研究が増えている。

ICML2020に Confident Learning: Estimating Uncertainty in Dataset Labels という論文が投稿された。しかも、よく整備された実装cleanlabまで提供されていた。

今回はRCV1-v2という文章をtf-idf(特徴量)にしたデータセットを用いて、Confident Learning (CL)が効果を発揮するのか実験を行った。またcleanlabを用いた実装を公開する。

結論としては、CLを用いると確かにnoisy labelなデータセットでも判別性能がよくなった。更にpseudo-labelingと組み合わせるともっと良くなるという結果が得られた。

目次

  • 概要
  • 目次
  • Confident Learning (CL)
  • 実験計画
    • 1. ML:clean
    • 2. ML:noisy
    • 3. CL:without noises
    • 4. CL:pseudo for noises
    • 5. CL:pseudo for noises and test
  • データセットと実験設定
  • 実験結果
  • cleanlabの一部機能の解説
    • 学習に関して
    • データ生成に関して
    • 今回の実験の実装
  • まとめ
  • 参考
続きを読む

Confident Learning -そのラベルは正しいか?-

これは何?

ICML2020に投稿された Confident Learning: Estimating Uncertainty in Dataset Labels という論文が非常に面白かったので、その論文まとめを公開する。

論文 [1911.00068] Confident Learning: Estimating Uncertainty in Dataset Labels

超概要

  • データセットにラベルが間違ったものがある(noisy label)。そういうサンプルを検出したい
  • Confident Learningという方法を提案。現実的な状況下でSOTAを達成
  • PyPIに実装を公開済みですぐに使用可能(pip install cleanlab)

GitHub - cgnorthcutt/cleanlab: Find label errors in datasets, weak supervision, and learning with noisy labels.

目次

  • これは何?
  • 超概要
  • 目次
  • 私感
  • 論文の概要
  • Class-conditional classification Noise Process
  • Confident Learningの概要
    • 入力
    • 出力
    • CLの処理
  • 同時分布Qの推定
    • Cを作るカウント方法
    • Qへの正規化
  • データクリーニング
  • 実験結果
    • 同時分布Qをうまく推定できているか
    • Noisy Labelを検出できているか
    • 他手法との比較
  • まとめ
  • 参考
続きを読む

らくらくp進全探索 コピペで使えるPython実装

何をしたか?

連続するp進数を次々返してくれるiteratorを実装しました(といっても標準ライブラリにラップしただけ)。 例えば、3桁の3進数だったら000, 001, 002, 010, 012 ..., 222 というものを次々に返してくれます。 実際には桁ごとにリストの1要素を構成していて,pが10以上でも問題なく動作します。

1種類あたりp個の選択肢があり、n種に対して全探索したい場合、これをn桁のp進全探索と呼ぶことにします。 この全探索を生成するコードは以下です。

続きを読む

降順リストに対するbisectの実装 list.sort(reverse=True)に対する配列二分法

はじめに

Pythonにおいて、降順リスト向けの配列二分法アルゴリズムを実装しました。

使用するメリット

  • コピペで標準ライブラリに準拠した動作をします。
  • 標準ライブラリと異なり、降順リストを扱います。
  • 昇順リストに変換し直す計算量と、昇順のidxを降順のidxに変換する思考リソースを削減します
続きを読む

めぐる式二分探索 コピペで使えるPython実装

  • はじめに
  • めぐる式二分探索のメリットと参考文献
  • コピペ用
  • 例題

はじめに

AtCoderで二分探索を実装するときバグらせないように考えると結構時間かかりませんか?自分はかかります。

競技プログラミング界隈ではめぐる式二分探索という二分探索の書き方(流派?)があり、使いやすい、バグりにくくなど様々なメリットがあります。

Python実装を公開しているブログはパット見、見つからなかったのでおいておきます。使用例もおいておきます。

めぐる式二分探索のメリットと参考文献

めぐる式二分探索を使うメリットとして以下があげられます。

  • 配列化できない関数を探索可能 (bisectモジュールでは不可)
  • バグりにくい (終了状態がきちんとしている)
  • ライブラリとして扱うことが可能で実装が高速化される
  • 思考リソースの消耗を防げる (条件を満たすかそうでないかだけ考えれば良い)
続きを読む

螺旋本をPythonで解く Part4

  • はじめに
  • 17章 動的計画法
    • P412 DPL_1_A: Coin Changing Problem
    • P416 DPL_1_B: 0-1 Knapsack Problem
    • P421 DPL_1_D: Longest Increasing Subsequence
    • P425 DPL_3_A: Largest Square
    • P428 DPL_3_B: Largest Rectangle
  • 18章 整数論
    • P436 ALDS_1_C: Prime Numbers
    • P441 ALDS1_1_B: Greatest Common Divisor
    • P445 NTL_1_B: Power
  • 19章 ヒューリスティック探索 (省略)
  • 終わりに
続きを読む