Scénář: "1. Základní neuron (Linear)" → přepni na ReLU a pak na Linear.
Doplň hodnoty: Co vrátí ReLU a Linear pro tyto vstupy?
| Vstup (x) | ReLU výstup | Linear výstup |
|---|---|---|
| -2.0 | ||
| 0.0 | ||
| 1.5 |
Úkol: Táhni bodem v simulátoru (režim "Jeden neuron"). Sleduj hodnoty "Před aktivací (z)" a "Po aktivaci (a)".
Pozorování: Kdy je výstup ReLU neuronu roven nule?
Nakresli hranici aktivace: Jak vypadá hranice (kde neuron přechází z 0 na aktivní) pro ReLU vs. Linear?
ReLU
Linear
Popis rozdílu:
Scénář: "3. Mrtvý neuron (Dead ReLU)". Nebo nastav práh (threshold) na vysokou hodnotu (např. 1.5).
Pozorování: Při vysokém prahu (threshold > 1) se neuron aktivuje:
V reálné síti: Dead ReLU neurony vznikají, když:
| Threshold (práh) | Velikost aktivní oblasti | Stav neuronu |
|---|---|---|
| -1.0 | ||
| 0.0 | ||
| 1.5 |
Závěr: Jaký práh je optimální pro zdravý neuron?
Režim: "Vrstva neuronů (sparsita)". Nastav 16 neuronů.
Sleduj: Kolik neuronů je aktivních (svítí) v různých oblastech prostoru?
| Pozice bodu | Počet aktivních neuronů (z 16) | % Sparsity (mrtvých) |
|---|---|---|
| Levý horní roh | ||
| Střed | ||
| Pravý dolní roh |
Hypotéza: Sparsita v neuronových sítích je:
Zdůvodnění:
Přepni mezi ReLU a Linear. Jak mění aktivace?
| Aktivační funkce | Počet aktivních (> 0.1) | Charakter |
|---|---|---|
| ReLU | ||
| Linear |
Režim: "Dvě vrstvy (hloubka)". Nastav 8 skrytých neuronů.
Pozorování: Jak vypadá hranice aktivace (decision boundary)?
Zakresli přibližný tvar hranice pro dvě vrstvy ReLU (scénář "5. Lomená hranice"):
Co se stane, když přepneš obě vrstvy na Linear?
Vysvětlení:
| Počet skrytých neuronů | Počet "zalomení" hranice | Poznámka |
|---|---|---|
| 4 | ||
| 8 | ||
| 16 |
V minulosti se používala aktivace Sigmoid σ(x) = 1/(1+e^-x). ReLU ji nahradilo. Proč?
| Aspekt | Sigmoid | ReLU |
|---|---|---|
| Výpočetní náročnost | ||
| Gradient pro velká x | ||
| Sparsita |
Co jsi identifikoval/a jako nevýhody ReLU?
Jak Leaky ReLU řeší problém Dead ReLU?
V kterých situacích je ReLU nenahraditelné?
Jaký je největší "aha moment" z práce s ReLU Lab?
Jak ReLU souvisí s tím, co jsme dělali v MLP Builder / Grayscale?