Diary
ニューラルネットワークにおける各層の線形変換の直後には、必ず活性化関数が挟まれています。 今回は、「なぜ ReLU が好まれるのか」についてまとめておきます。 [目次] 活性化関数 中間層における活性化関数 出力層における活性化関数 中間層で ReLU がよ…
windows のショートカット、いろいろとあって覚えにくいと思います。 個人的に、これだけは覚えてほしいショートカットを上げました! Windows shortcut 基本的にはアプリなど入れずに、windows の標準の機能で動作するようになっています(windows 10)。そ…
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。