V simulátoru jsou 3 předpřipravené korpusy (datové sady):
| Korpus | Obsah | Počet slov (přibližně) |
|---|---|---|
| 🧒 Červená Karkulka | Pohádka o Karkulce | |
| 🌤️ Počasí | Předpovědi počasí | |
| 🐕 Zvířata | Popisy zvířat |
Proč záleží na tréninkovích datech?
LLM je jako člověk, který:
"Pes štěká na pošťáka." se rozloží na tokeny:
Napiš různé věty do tokenizéru a zapiš výsledky:
| Vstupní text | Počet tokenů | Zajímavé postřehy |
|---|---|---|
| "Ahoj!" | ||
| "Červená Karkulka šla do lesa." | ||
| "123 + 456 = 579" | ||
| Vlastní věta: |
ID: 42ID: 157ID: 3Proč je tokenizace důležitá?
Načti korpus "Červená Karkulka" a generuj text. Zaznamenej pravděpodobnosti:
| Dosavadní text | Top 3 kandidáti | Vybrané slovo |
|---|---|---|
| "V lese" | ||
| "V lese žila" | ||
| "V lese žila babička" |
Příklad: Po textu "Vlk řekl:" model počítá:
Které slovo se vybere? Nejčastěji to s nejvyšší pravděpodobností, ale ne vždy! To závisí na temperature...
Generuj 5 slov se stejným startem, ale různou temperature:
| Temperature | Vygenerovaný text (5 slov) | Pozorování |
|---|---|---|
| 0.0 | ||
| 0.5 | ||
| 1.0 |
| Úloha | Doporučená T | Proč? |
|---|---|---|
| Překlad | ||
| Psaní příběhu | ||
| Kód |
"Karkulka navštívila babičku, která bydlela v lese."
Experiment: Zkus Attention tab v simulátoru. Napiš větu a klikni na různá slova:
Experiment: Vyzkoušej Beam Search tab s různou šířkou svazku (Beam Width):
| Beam Width | Výsledek | Komentář |
|---|---|---|
| 2 | ||
| 4 |
Experiment: V Halucinace tabu zkus otázky mimo data (např. "Co je internet?"):
| Otázka | Odpověď AI | Je to pravda? |
|---|---|---|
| Co je internet? | ||
| Hlavní město USA? |
Proč AI halucinuje?
V tabu "Latentní prostor" klikni na různá slova a najdi jejich sousedy:
| Slovo | Nejbližší sousedé | Dává to smysl? |
|---|---|---|
| vlk | ||
| babička | ||
| les |
Nakresli, kde by mohla ležet slova: vlk, pes, babička, les, jíst:
| Koncept | Tvé shrnutí |
|---|---|
| LLM | |
| Tokenizace | |
| Next-Token Prediction | |
| Temperature | |
| Halucinace |
Jaký byl tvůj největší "aha moment"?
Překvapilo tě něco na halucinacích?
Jak bys vysvětlil/a ChatGPT kamarádovi?
Jak dobře rozumím tomu, jak LLM fungují? (1 = vůbec, 5 = úplně)