🧠 Jednovrstvá Perceptronová Síť (Single Layer Network)
Kapacita jednoho perceptronu:
Jeden perceptron se může naučit rozpoznávat dva stavy (výstup 0 nebo 1).
V našem simulátoru to znamená odlišovat písmena "T" a "L".
Pro rozpoznávání více písmen potřebujeme přidat více neuronů — vytvořit neuronovou síť.
Sdílené vstupy, vlastní váhy:
Všimněte si, že všechny neurony jsou napojeny na stejné vstupy (x₁–x₁₆),
ale každý perceptron má své vlastní váhy (w, w', w'').
To znamená, že všechny neurony získávají stejné informace ze vstupního displeje,
ale díky různým vahám se každý zaměřuje na jinou charakteristiku vstupů — tím roste kapacita
sítě.
🤔 Otázka k zamyšlení:
Kolik písmen bude schopna rozpoznat tato síť o třech neuronech? A proč?
👁️ Zobrazit odpověď
Máme 3 výstupní neurony = 3 bity. To dává 2³ = 8 kombinací (000, 001, 010, 011,
100, 101, 110, 111).
Každé kombinaci můžeme přiřadit jedno písmeno, tedy síť může rozpoznat až 8 různých
písmen.
⚠️ Kritická otázka:
Byla by síť o šesti neuronech (2⁶ = 64 kombinací) schopna naučit se celou abecedu na 4×4
displeji?
👁️ Zobrazit odpověď
Ne! I když máme teoreticky 64 kombinací pro 32+ písmen,
na tak malém displeji (4×4 = 16 pixelů) je mezi jednotlivými písmeny příliš malý
rozdíl v aktivních pixelech.
Jednovrstvá síť nemá schopnost zachytit dostatečný detail a vzájemné vztahy mezi
vstupy —
data se zamění v šum a síť nedokáže spolehlivě klasifikovat.
Historická poznámka:
Najít řešení tohoto problému trvalo téměř 30 let (1958–1986).
Odpovědí jsou vícevrstvé sítě (MLP — Multi-Layer Perceptron) s algoritmem zpětného
šíření chyby. S vícevrstvými sítěmi se seznámíme v další kapitole.