Badatelský deník inženýra AI

Laboratoř neuronových sítí | MLP Builder
1

Logika neuronů a problém XOR

~ 45 min

1. Rozcvička: Logický součin (AND)

Konfigurace: Data AND, 0 skrytých neuronů (Perceptron).

Hypotéza: Dokáže se síť bez skryté vrstvy naučit funkci AND?

Výsledek: Kolik epoch trvalo, než chyba klesla pod 0.01?

2. Výzva: Problém XOR

Konfigurace: Data XOR, stále 0 skrytých neuronů.

Pozorování: Co se děje s chybou (grafem) po 1000 epochách? Proč chyba neklesá k nule?

3. Řešení: Skrytá vrstva

Konfigurace: Přidej 3 skryté neurony. Spusť trénink, poté přepni na 'Provoz' a zadej vstup [0, 1].

Nákres aktivace: Nakresli, jak vypadá síť pro vstup 0 a 1. Použij zelenou pro kladné spoje a červenou pro záporné.

2

Dynamika učení

~ 45 min

1. Závod parametrů (Learning Rate & Momentum)

Úkol: Pro každý pokus resetuj síť a změř počet epoch do cíle.

Pokus L. Rate Momentum Počet epoch Vzhled grafu chyby
A 0.05 0.0
B 0.50 0.0
C 0.20 0.0
D 0.20 0.8

Analýza: Co se stalo v pokusu B (vysoký Learning Rate)? Proč graf vypadá tak, jak vypadá?

Analýza: Jak pomohlo Momentum v pokusu D oproti pokusu C?

2. Editace vah (Operace na otevřeném mozku)

Úkol: V záložce 'Váhy' ručně změň nejsilnější váhu na 0.

Závěr: Funguje síť stále správně, nebo se zhroutila? Je neuronová síť robustní?

3

Digit Trainer: Tvorba datasetu

~ 45 min

1. Vlastní sběr dat (0, 1, 2)

2. Testování generalizace

Úkol: V režimu 'Rozpoznání' nakresli "ošklivou" nebo posunutou nulu.

3. Obohacení datasetu (Augmentace)

Úkol: Přidej pro každou číslici 3 různé varianty a přetrénuj síť.

Zlepšení: Zkus znovu tu samou "ošklivou" nulu. Jak se změnila jistota sítě?

4

Analýza vnitřní reprezentace

~ 45 min

1. Co vidí skryté neurony?

Najeď myší na skryté neurony. Zelená = co neuron hledá, Červená = co neuron tlumí. Najdi neurony specializované na konkrétní tvary.

Hledaný vzor (Feature) Číslo neuronu Nákres (vybarvi políčka)
Horní čára
Svislá čára
Prostředek
Klikni do malých obdélníčků pro kreslení vzoru (mřížka 3x5).

2. Binární kódování

Doplň kódy (podle Sběru dat):

Číslice 7: [ , , , ]

Číslice 8: [ , , , ]

3. Závěrečná reflexe

Jaké jsou dvě hlavní slabiny této sítě (3x5 pixelů) pro čtení reálných čísel na obálkách?

5

Architektura sítě: Větší neurony = lepší síť?

~ 45 min

1. Parametrická studie: Počet neuronů

Úkol: Pro problém XOR měň počet neuronů ve skryté vrstvě. Pokaždé resetuj síť a zaznamenej výsledky. Cíl: chyba pod 0.01.

Parametry: Learning Rate = 0.2, Momentum = 0.0

Počet skrytých neuronů Počet epoch do cíle Konečná chyba Komentář k rychlosti
2
3
5
10
20

Hypotéza: Předpovídej, jaký trend uvidíš:

2. Grafická analýza

Zakresli graf závislosti: Osa X = Počet neuronů, Osa Y = Počet epoch do cíle.

Interpretace: Shrnuje graf nějakou zákonitost? Kdy je síť nejefektivnější?

3. Problém přeučení (Overfitting)

Úkol: Nastav 20 neuronů, nyní PŘIDEJ vlastní tréninkový příklad do XOR datasetu (například [0.5, 0.5, 0]). Tréninková chyba bude velmi malá.

Testování: V režimu 'Provoz' zkus hodnoty blízké tréninkovým datům ([0.1, 0.1], [0.9, 0.9]).

Analýza: Může velká síť (20 neuronů) „zapamatovat" data místo toho, aby se naučila obecné pravidlo? Co to znamená pro praktické použití AI?

4. Závěrečný verdikt

Jaký je optimální počet neuronů pro XOR podle tvých experimentů?

Proč právě tento počet?