🧠 Badatelský deník inženýra AI

Laboratoř neuronových sítí | Neural Network Builder - Stavíme vlastní síť
1

Od perceptronu k vícevrstvé síti

~ 30 min

1. Limit jednoho perceptronu

Perceptron dokáže rozdělit prostor pouze přímkou. Co když data nelze rozdělit jednou přímkou?

📏
Lineární
Jednoduchá přímka
✖️
XOR
Šachovnice
Kruh
Uzavřená oblast
🌀
Spirála
Složitý vzor

Které datasety zvládne jeden perceptron (přímka)?

2. Řešení: Více vrstev

Multi-Layer Perceptron (MLP):

Vstupní vrstva → Skryté vrstvy → Výstupní vrstva

Každá skrytá vrstva se učí rozpoznávat různé "vlastnosti" dat. Kombinací těchto vlastností síť vytvoří složitější rozhodovací hranice.

3. Anatomie neuronové sítě

Doplň názvy částí:

Část sítě Co dělá? V simulátoru
Vstupní vrstva Přijímá data (features)
Skryté vrstvy Učí se rozpoznávat vzory
Výstupní vrstva Dává finální rozhodnutí
Synapse (spojení) Přenášejí signály s vahami

4. Nakresli schéma MLP

Nakresli síť s 2 vstupy, 1 skrytou vrstvou (3 neurony) a 1 výstupem:

2

Feature Engineering - Chytré vstupy

~ 40 min

1. Co je Feature Engineering?

Feature Engineering = "Příprava dat pro AI"

Místo surových dat (X, Y) můžeme síti dát "nápovědy" ve formě transformovaných vstupů. Například X² nebo sin(X) pomohou síti pochopit křivky bez nutnosti hlubokých vrstev.

2. Dostupné features v simulátoru

X
Pozice vodorovně
Y
Pozice svisle

Parabola vodorovně

Parabola svisle
X·Y
Interakce
sin(X)
Vlna

3. Experiment: Kruh bez vs. s features

Nastav dataset "Kruh" a porovnej:

Nastavení Počet epoch do 90% přesnosti Pozorování
Pouze X, Y
(4 skryté vrstvy)
X, Y, X², Y²
(1 skrytá vrstva)

Závěr: Proč X² a Y² pomáhají s kruhem?

4. Experiment: XOR s feature X·Y

Nastavení Přesnost po 500 epochách Komentář
Pouze X, Y
X, Y + X·Y
💡 Klíčové ponaučení:
Chytré features mohou nahradit složitou architekturu. Proto je Feature Engineering tak důležitý v praxi!
3

Architektura sítě - Kolik neuronů a vrstev?

~ 45 min

1. Stavíme vlastní síť

V simulátoru můžeš:

🔹 Přidávat/odebírat skryté vrstvy - tlačítka "+ Vrstva" / "- Vrstva"
🔹 Měnit počet neuronů - každá vrstva má svou kapacitu
🔹 Sledovat strukturu - uprostřed obrazovky vidíš celou síť

2. Experiment: Vliv počtu neuronů

Dataset: XOR, Features: X, Y, 1 skrytá vrstva, Learning Rate: 0.03

Počet neuronů ve vrstvě Epoch do 95% Kvalita hranice
2 neurony
4 neurony
8 neuronů

3. Experiment: Vliv počtu vrstev

Dataset: Spirála, Features: X, Y, Aktivace: Tanh

Architektura Celkem parametrů* Přesnost po 1000 epochách Pozorování
1 vrstva (4 neurony)
2 vrstvy (4, 3)
3 vrstvy (4, 4, 3)
5 vrstev (8, 6, 4, 3, 2)

*Parametry = váhy + biasy. Více parametrů = více se toho síť může naučit, ale i více přeučení.

4. ⚠️ DŮLEŽITÉ: Větší není vždy lepší!

Overfitting (přeučení):

Příliš velká síť se může "naučit nazpaměť" trénovací data místo pochopení vzorů. To vede k selhání na nových, neviděných datech!
🎯
Přiměřená síť
Generalizuje dobře
vs
🕸️
Příliš velká síť
Přeučení (overfitting)

Experiment: Pozoruj overfitting

  1. Nastav dataset "Lineární" (nejjednodušší)
  2. Nastav 5 skrytých vrstev s mnoha neurony
  3. Trénuj a sleduj, jak vypadá rozhodovací hranice

Co pozoruješ?

Proč je to problém?

4

Aktivační funkce - Sigmoid vs. Tanh vs. ReLU

~ 35 min

1. Tři hlavní aktivační funkce

📈
Sigmoid
Rozsah: 0 až 1
Klasika, hladké S
〰️
Tanh
Rozsah: -1 až 1
Vyvážené, symetrické
📐
ReLU
Rozsah: 0 až ∞
Moderní, ostré hrany

2. Vizuální rozdíly

Nastav dataset XOR a přepínej aktivace. Sleduj tvar rozhodovací hranice.

Aktivace Tvar hranice Rychlost učení Nakresli tvar
Sigmoid
Tanh
ReLU

3. Kdy použít kterou?

Sigmoid: Když potřebuješ výstup interpretovat jako pravděpodobnost (0-100%)

Tanh: Pro skryté vrstvy, symetrický kolem nuly = rychlejší učení

ReLU: Nejpopulárnější v moderních sítích, rychlý výpočet, ale může "umřít" (neuron přestane reagovat)

Proč ReLU vytváří ostré hranice?

5

Co vidí neuron? - Vizualizace skrytých vrstev

~ 35 min

1. X-Ray pohled do sítě

V simulátoru: Najeď myší na libovolný neuron v síti.

V pravém panelu uvidíš, co "vidí" tento konkrétní neuron - jeho osobní pohled na svět!

2. Experiment: Co se naučily jednotlivé neurony?

Natrénuj síť na XOR (2 skryté vrstvy). Pak prozkoumej neurony:

Neuron Vrstva Co "vidí"? (nakresli nebo popiš)
Neuron 1 Skrytá 1
Neuron 2 Skrytá 1
Neuron 1 Skrytá 2
Výstupní Výstup

3. Princip hierarchického učení

1. vrstva: Učí se jednoduché hranice (přímky)
2. vrstva: Kombinuje přímky do složitějších tvarů
3. vrstva: Jemně dolaďuje detaily
Výstup: Dává finální rozhodnutí

Proč je tohle důležité pro pochopení AI?

4. Nakresli, co vidí neurony

Nakresli schematicky, jak 2 neurony v první vrstvě (každý "vidí" jednu přímku) společně vytvoří XOR:

6

Vlastní experimenty a kreativita

~ 30 min

1. Přidej vlastní body

V simulátoru můžeš klikat do grafu a přidávat vlastní body (levé tlačítko = modrá, pravé = růžová).

Vymysli vlastní vzor a zkus ho naučit síť:

Popis vzoru:
Použitá architektura:
Features:
Úspěšnost:

2. Výzva: Najdi minimální síť

Pro každý dataset najdi nejmenší síť, která dosáhne 95% přesnosti:

Dataset Minimální architektura Potřebné features
Lineární
XOR
Kruh
Spirála
🏆 Zlaté pravidlo AI inženýra:
"Nejlepší model je ten nejjednodušší, který stále funguje."
(Occamova břitva pro strojové učení)
7

Klíčové závěry a reflexe

~ 20 min

1. Co jsme se naučili

Koncept Tvé shrnutí
Vícevrstvá síť (MLP)
Feature Engineering
Aktivační funkce
Overfitting
Vizualizace neuronů

2. Hlavní ponaučení

🎯 Tři klíčová pravidla:

1. Začni jednoduše - přidávej složitost pouze když je to nutné
2. Features jsou mocné - chytrá data > složitá architektura
3. Větší ≠ lepší - přeučení je reálné nebezpečí

3. Závěrečná reflexe

Jaký byl tvůj největší "aha moment"?

Co tě překvapilo nejvíce?

Jak bys vysvětlil/a overfitting kamarádovi?

4. Sebehodnocení

Jak dobře rozumím neuronových sítím? (1 = vůbec, 5 = úplně)