Badatelský deník inženýra AI

Laboratoř neuronových sítí | MLP Grayscale
1

Od binárních dat ke stupňům šedi

~ 45 min

1. Binární vs. Kontinuální vstup

Úkol: Nakresli číslici "7" v simulátoru. Zapni režim "Binární" a pak "Kontinuální". Pozoruj číselné hodnoty v mřížce (hover myší).

Zjištění: V binárním režimu jsou hodnoty pouze:

V kontinuálním režimu: Jaký rozsah hodnot vidíš?

2. Význam stupňů šedi

Úkol: Vybarvuj políčka štětcem s intenzitou 0.5 (středně šedá).

Vysvětli: Co představuje hodnota 0.5 v reálném světě (například na fotce)?

3. Výhoda kontinuálních dat

Hypotéza: Síť s kontinuálními daty (0.0-1.0) bude lepší než s binárními (0/1), protože:

Nákres: Nakresli stejnou číslici ve dvou stylech:

Binární (jen černá/bílá)

Kontinuální (stupně šedi)

2

Pravděpodobnosti místo odpovědí

~ 45 min

1. Výstupní vrstva: 10 neuronů

Nakresli rozmazanou "5" nebo "S" – něco, co může být nejasné. Spusť rozpoznání (🔍 Rozpoznat).

Zapiš hodnoty 3 nejvyšších pravděpodobností:

Číslice Pravděpodobnost (%)

Interpretace: Sčítají se všechny pravděpodobnosti na 100 %?

2. Jistota vs. Nejistota

Nakresli krásně čitelnou "0". Pak nakresli nečitelnou čmáranici.

Scénář Nejvyšší pravděpodobnost (%) Důvěryhodnost
Čitelná "0"
Čmáranice

Závěr: Co znamená, když je nejvyšší pravděpodobnost jen 30 %?

3. Porovnání s binárním výstupem

Vzpomeň si na MLP Builder: Tam výstup udával binární kód číslice (např. 0101 = 5).

Tady MLP Grayscale: Výstup dává pravděpodobnost pro každou číslici (0-9).

Která metoda je lepší pro nejisté případy?

Zdůvodnění:

3

Sběr dat a trénink

~ 45 min

1. Vytvoření datasetu (minimálně 0, 1, 2)

Pro každou číslici nakresli různé varianty – tenké, tlusté, nakloněné...

2. První trénink

Parametry: Learning Rate 0.5, zapni Auto Train.

Metrika Po 100 epochách Po 500 epochách
Chyba
Chování grafu

Test generalizace: Nakresli číslici, kterou jsi netrénoval. Rozpozná ji síť?

3. Rozšíření datasetu - Načtení 0-9

Klikni na "📥 Načíst 0-9" pro nahrání kompletního datasetu.

Porovnání: Jak se změnila přesnost rozpoznání po načtení kompletního datasetu?

4

Vliv Learning Rate

~ 45 min

1. Experiment: Rychlost učení

Pro každý pokus: Smaž data, načti 0-9, resetuj váhy, nastav Learning Rate, spusť 200 epoch.

Learning Rate Konečná chyba Stabilita grafu Poznámka
0.1
0.5
0.9

2. Grafická analýza

Nakresli graf chyby pro Learning Rate 0.9:

Popis: Je křivka hladká nebo skáče? Proč?

3. Optimální hodnota

Který Learning Rate fungoval nejlépe?

Zdůvodnění:

5

Architektura: Vliv skryté vrstvy

~ 45 min

1. Aktuální architektura

Síť má固定nou architekturu: 25 vstupních neuronů (5×5 mřížka), 15 skrytých neuronů, 10 výstupních neuronů (0-9).

Výpočet: Kolik vah má tato síť celkem?

Vrstva 1 → 2: × = vah

Vrstva 2 → 3: × = vah

Celkem: vah

2. Představa jiné architektury

Kdybys měl/a navrhnout síť s 30 skrytými neurony místo 15:

Kolik by měla vah?

Očekávání: Byla by lepší?

3. Proč 5×5 mřížka?

Diskuze: Reálné obrázky mají miliony pixelů (např. 1920×1080). Proč tady používáme jen 25 pixelů?

Trade-off: Co bychom získali a ztratili zvětšením na 10×10 mřížku?

Výhody Nevýhody
6

Krok ke konvolučním sítím

~ 30 min

1. Co dělají skryté neurony?

V režimu Rozpoznání najed myší na některé skryté neurony a sleduj, jak se mění vstup.

Hypotéza: Každý skrytý neuron má "preferenci" pro určitý vzor (např. svislá čára, kolečko).

2. Princip konvoluce (náhled)

Představ si: Místo plně propojené sítě použijeme "posuvné okno" 3×3, které hledá malé vzory.

Výhoda:

3. Porovnání MLP vs CNN

Aspekt MLP (tato síť) CNN (příští krok)
Propojení
Vhodné pro
Počet vah

4. Závěrečná reflexe

Co tě překvapilo nejvíc při práci s grayscale sítí?

Jaký je největší rozdíl oproti binárnímu MLP Builderu?