🧠 Badatelský deník inženýra AI

Laboratoř neuronových sítí | Perceptron - První umělý neuron
1

Od biologického neuronu k perceptronu

~ 30 min

1. Biologický neuron v mozku

Lidský mozek obsahuje přibližně 86 miliard neuronů. Každý neuron funguje jako malý "počítač", který přijímá signály, zpracovává je a vysílá odpověď.

🧬
Biologický Neuron
Dendrity → Tělo → Axon
🔢
Matematický Perceptron
Vstupy → Suma → Výstup

2. Porovnání částí

Doplň tabulku analogií mezi biologickým neuronem a perceptronem:

Biologický neuron Co to dělá? Perceptron (simulátor)
Dendrity Přijímají signály od jiných neuronů
Synapse Spojení mezi neurony - některá jsou silnější
Tělo (Soma) Sčítá všechny přijaté signály
Axon + Práh Rozhoduje, zda vyslat signál dál

3. Nakresli biologický neuron

Nakresli schéma biologického neuronu a označ jeho části (dendrity, tělo, axon):

4. První pozorování v simulátoru

Otevři simulátor a odpověz:

Kolik vstupů (LED) má simulátor?
Kolik potenciometrů (vah) má simulátor?
Jaká je výchozí hodnota napětí na voltmetru?
2

Matematika perceptronu - Jak "myslí"

~ 45 min

1. Základní vzorec

Perceptron počítá ve dvou krocích:

Krok 1 - Vážený součet: sum = x₁·w₁ + x₂·w₂ + ... + xₙ·wₙ
Krok 2 - Aktivace (Sigmoid): výstup = 1 / (1 + e-sum)
Vzorec perceptronu
y = σ(Σ xᵢ · wᵢ)
kde σ je sigmoid funkce

Co znamenají symboly?

Symbol Název V simulátoru
xᵢ Vstup (input)
wᵢ Váha (weight)
Σ Suma (součet)
σ Sigmoid aktivace

2. Ruční výpočet

V simulátoru nastav vzor "T" a zapiš hodnoty:

Příklad výpočtu (pouze pro zapnuté LED):

LED 1: x = , w = → x·w =
LED 2: x = , w = → x·w =
LED 3: x = , w = → x·w =
... (další zapnuté LED)

Suma (součet normalizovaných vah): sum =
Sigmoid výstup: y = 1/(1+e-sum) ≈

Ověření: Souhlasí tvůj výpočet s hodnotou na voltmetru?

3. Experiment s vahami

Nastav vzor "T" a experimentuj s potenciometry:

Akce Předpokládaný efekt Pozorovaný výstup (V)
Všechny váhy na 0.5
Všechny váhy na 1.0
Všechny váhy na 0.0
Náhodné váhy
3

Sigmoid aktivace - Proč právě S-křivka?

~ 30 min

1. Tři typy aktivačních funkcí

Podívej se na graf sigmoid v simulátoru a porovnej s jinými možnostmi:

Funkce Tvar Výhoda Nevýhoda
Skoková (Vypínač) 0→│→1
Lineární (Přímka)
Sigmoid (S-křivka) ~S~

2. Sigmoid v akci

Sigmoid převádí jakékoliv číslo na rozsah 0 až 1:

• Velmi záporná suma → výstup blízko 0
• Suma kolem nuly → výstup kolem 0.5
• Velmi kladná suma → výstup blízko 1

Ověř v simulátoru: Přepínej mezi vzory T a L a sleduj, jak se pohybuje bod na sigmoid grafu.

Vzor Pozice bodu na ose X (suma) Výstup (osa Y)
T (váhy 0.5)
L (váhy 0.5)
T (po naučení)
L (po naučení)

3. Nakresli sigmoid

Nakresli S-křivku sigmoid funkce. Označ osy (X = suma, Y = výstup) a oblasti 0, 0.5, 1:

4

Učení perceptronu - Gradient Descent

~ 45 min

1. Analogie s hledáním cesty

Představ si, že stojíš na kopci v mlze a chceš dolů do údolí:

🏔️ Kopec = Chyba (jak moc se ručička liší od cíle)
🏞️ Údolí = Nulová chyba (ručička přesně tam, kde má být)
👣 Krok = Změna váhy (pootočení potenciometru)
📏 Learning Rate = Velikost kroku
🎯
1. Cíl
Kam má ručička?
📏
2. Chyba
Jak daleko je?
🧭
3. Směr
Kam otočit váhy?
🔧
4. Úprava
Změnit váhy

2. Co je Gradient?

Gradient = Směr největšího nárůstu chyby

Pokud jdeme proti gradientu, chyba klesá.
Proto se metoda jmenuje "Gradient Descent" (sestup po gradientu).

V simulátoru:
• Tlačítko "Učit směr 0" snižuje váhy aktivních LED (ručička doleva)
• Tlačítko "Učit směr 1" zvyšuje váhy aktivních LED (ručička doprava)

3. Experiment s Learning Rate

Pro každý pokus: Reset potenciometrů, nastav vzor T, klikni 10× na "Učit směr 0".

Learning Rate Výstup po 10 krocích Pozorování
0.005 (pomalé)
0.010 (výchozí)
0.050 (rychlé)
0.100 (velmi rychlé)

Závěr: Proč je důležité vybrat správný Learning Rate?

4. Nakresli "kopec chyby"

Nakresli graf, kde X = hodnota váhy, Y = velikost chyby. Označ optimum (údolí) a nakresli cestu gradientního sestupu:

5

Trénink klasifikátoru T vs L

~ 45 min

1. Cíl klasifikace

Chceme naučit perceptron rozlišovat:

📐 Vzor T → Výstup blízko 0 (ručička vlevo)
📏 Vzor L → Výstup blízko 1 (ručička vpravo)

2. Trénovací protokol

Proveď následující tréninkovou sekvenci a zaznamenej výsledky:

Krok Akce Výstup před Výstup po
1 Reset, nastav T, klikni 5× "Učit směr 0"
2 Nastav L, klikni 5× "Učit směr 1"
3 Zpět na T, klikni 5× "Učit směr 0"
4 Zpět na L, klikni 5× "Učit směr 1"
5 Opakuj kroky 1-4 ještě 2×

3. Test naučeného perceptronu

Po tréninku ověř, zda perceptron správně klasifikuje:

Vzor Očekávaný výstup Skutečný výstup Správně?
T Blízko 0 (< 0.3)
L Blízko 1 (> 0.7)

4. Co se stalo s vahami?

Podívej se na hodnoty potenciometrů po tréninku a vyplň:

Pozice LED Je v T? Je v L? Výsledná váha Proč?
Horní řada (1-4) Ano Jen jedna
Levý sloupec Částečně Ano
Spodní řada Ne Ano (3-4)

5. Vizualizace váhové mapy

Nakresli mřížku 4×4 a vybarvi buňky podle hodnot vah (tmavá = nízká váha, světlá = vysoká váha):

6

Zpětná propagace chyby (Backpropagation)

~ 40 min

1. Princip zpětné propagace

Backpropagation = "Učení z chyb"

1. Forward pass: Vstupy → Váhy → Suma → Sigmoid → Výstup
2. Výpočet chyby: Chyba = Cílový výstup - Skutečný výstup
3. Backward pass: Chyba se "šíří zpět" ke každé váze
4. Aktualizace vah: Každá váha se upraví úměrně své "zodpovědnosti" za chybu

2. Kdo je "zodpovědný" za chybu?

Důležité pravidlo: Pouze váhy aktivních vstupů (zapnuté LED) se mění!

Vysvětli vlastními slovy, proč to dává smysl:

3. Matematika jednoho kroku

Aktualizace váhy
w_nová = w_stará + η · (cíl - výstup) · x
kde η = learning rate, x = vstup (0 nebo 1)

Příklad výpočtu:

Současná váha: w = 0.50
Learning rate: η = 0.01
Cíl: 1 (chceme vysoký výstup)
Aktuální výstup: 0.50
Vstup: x = 1 (LED svítí)

Výpočet:
Chyba = 1 - 0.50 =
Změna = 0.01 × 0.50 × 1 =
Nová váha = 0.50 + 0.005 =

4. Proč je to "propagace ZPĚT"?

V neuronové síti s více vrstvami:

  1. Chyba se nejdřív spočítá na výstupu (konec sítě)
  2. Pak se šíří zpět vrstvu po vrstvě
  3. Každá vrstva dostane "svůj díl" chyby
  4. Každá váha v každé vrstvě se upraví

Nakresli schéma sítě se 2 vrstvami a šipkami ukazujícími směr forward pass (→) a backward pass (←):

5. Význam backpropagation

Proč je backpropagation tak důležitý pro AI?

7

Klíčové závěry a reflexe

~ 20 min

1. Co jsme se naučili

Koncept Tvé shrnutí
Biologický neuron
Perceptron
Sigmoid aktivace
Gradient descent
Backpropagation

2. Od perceptronu k moderní AI

Perceptron (1958): Jeden umělý neuron
MLP (1980s): Více vrstev perceptronů = vícevrstvá síť
Deep Learning (2010s): Stovky vrstev, miliony vah
Transformers (2020s): ChatGPT, GPT-4, Claude...

Jedno zůstává stejné: Základní princip - vstupy × váhy → suma → aktivace → výstup → chyba → update vah - je stále jádrem všech těchto technologií!

3. Závěrečná reflexe

Jaký byl tvůj největší "aha moment"?

Co tě překvapilo nebo bylo nejtěžší pochopit?

Jak můžeš využít toto poznání dál?

4. Sebehodnocení

Jak dobře rozumím perceptronu? (1 = vůbec, 5 = úplně)