⚖️ AI Fairness Lab

Odhalte skrytou diskriminaci (Proxy Variables), pochopte různé definice férovosti a naučte AI rozhodovat spravedlivě i na neférových datech.

Příběh: Jsme velká firma, která k náboru zaměstnanců začala používat umělou inteligenci. Máme k dispozici data o tisících minulých pohovorech, ze kterých se AI učí. Problémem je, že naši personalisté byli v minulosti nevědomky zaujatí proti Oranžové skupině – tito lidé museli prokázat mnohem vyšší kvalitu, aby byli přijati. AI nyní tento předsudek přebírá jako „objektivní“ pravidlo. Vaším úkolem je prozkoumat, jak se diskriminace schovává za běžné údaje (jako je bydliště) a jak model vytrénovat tak, aby byl skutečně spravedlivý.

1. Data a Vstupy

Míra diskriminace v datech
Historicky musí být Oranžoví o 90% lepší.

Co AI "vidí"? (Features)

Barva (Skupina) Přímá diskriminace
PSČ (Bydliště) Proxy proměnná (Skrytá vazba)

Náprava (Mitigation)

Aktivní Penalizace Trestat AI za korelaci s barvou

2. Rozhodovací Mapa

Modří Oranžoví Pozadí = Rozhodnutí AI
Praxe →
Testové skóre →
Distribuce skóre
Přesnost vs Férovost
Histogram: Vlevo = Zamítnutí | Čára | Vpravo = Přijetí

4. Audit Férovosti

Metrika Hodnota Stav
Rozdíl v přijetí (Gap) 0% -
Férovost příležitostí 0% -
Celková Přesnost 0% -
Vysvětlení:
Nízký Gap (< 10%) = Fér
Vysoký Gap (> 20%) = Nefér
Natrénujte model a klikněte na tlačítko pro vysvětlení výsledků.