[Addition] Neuronky
This commit is contained in:
parent
2c735723bb
commit
cf19330257
@ -286,6 +286,7 @@ Neuronové sítě uzpůsobené ke zpracování obrazu. Místo násobení matic p
|
||||
- **Konvoluční vrstva**
|
||||
- Každý neuron je napojen jen na malý _receptive field_ neuronů o vrstvu níže, který se posouvá o daný stride.
|
||||
- Výstup z neuronu v konvoluční vrstvě je dán konvolucí jeho receptive field s váhami a přičtením biasu.
|
||||
$f(i,j) = \sum_{q}^{K} \sum_{b}^{L} f(i-q, j-b) \cdot k(a,b)$
|
||||
- Všechny neurony v konvoluční vrstvě sdílí stejné váhy a biasy dané velikostí receptive field, což jim umožňuje naučit se nějaký vzor o velikosti receptive field -- říkáme, že taková vrstva je feature mapa.
|
||||
- Vzorů se chceme zpravidla naučit více, máme vícero vzájemně nezávislých feature map napojených na stejnou vstupní vrstvu.
|
||||
- **Pooling vrstva**\
|
||||
@ -324,13 +325,14 @@ Neuronové sítě, jejichž architektura obsahuje cykly. Tedy výstup v jednom b
|
||||
- **Výhody**
|
||||
|
||||
- Umí zpracovat vstupy s variabilní, předem neznámou délkou.
|
||||
- Vhodné pro time-series data (třeba akciový trh)
|
||||
- Velikost modelu (množiny vah) je fixní nezávisle na velikosti vstupu.
|
||||
- Váhy se sdílí mezi vstupy (např. slova ve větě), což umožňuje naučit se nějaký kontext.
|
||||
|
||||
- **Nevýhody**
|
||||
- Trénování je složitější, protože se vyskytuje zpětná vazba.
|
||||
- Výpočetně náročnější.
|
||||
- Gradient může explodovat (exploding) nebo zaniknout (diminishing).
|
||||
- Gradient může explodovat (exploding) nebo zaniknout (diminishing). ReLU je náchylná k explozi hodnoty neuronu. Třeba sigmoid je v tomto lepší. [V RNN se typicky používá tanh.](#LTSM)
|
||||
|
||||

|
||||
|
||||
@ -426,7 +428,7 @@ Neuronové sítě, jejichž architektura obsahuje cykly. Tedy výstup v jednom b
|
||||
> Pokud $\textcolor{red}{\sigma' \cdot W_{k'k}} \not\approx 1$, pak gradient buď vybouchne nebo se ztratí.
|
||||
|
||||
- **Long Short-Term Memory (LSTM)**\
|
||||
LSTM řeší problém s vanishing a exploding gradientem, kterým RNN. V RNN je $\sigma$ typicky $\tanh$. V LSTM obsahuje jeden hidden neuron vlastně čtyři "podvrstvy", které mimo jiné umožňují část paměti zapomenout:
|
||||
LSTM řeší problém s vanishing a exploding gradientem, kterým RNN. V RNN je $\sigma$ typicky $\tanh$. V LSTM obsahuje jeden hidden neuron vlastně čtyři "podvrstvy", které mimo jiné umožňují část paměti zapomenout: <a id="LTSM"></a>
|
||||
|
||||

|
||||
|
||||
|
Loading…
Reference in New Issue
Block a user