diff --git a/src/content/docs/szmgr/PGV01_zaklady_vizualizace.md b/src/content/docs/szmgr/PGV01_zaklady_vizualizace.md index 1a742a7..f42e068 100644 --- a/src/content/docs/szmgr/PGV01_zaklady_vizualizace.md +++ b/src/content/docs/szmgr/PGV01_zaklady_vizualizace.md @@ -31,7 +31,7 @@ Pokud je $M_{eff} \sim 1$, pak je čas na interpretaci a renderování krátký. $M_{exp} = \frac{\text{displayed information}}{\text{information to be expressed}}$, kde $0 \leq M_{exp} \leq 1$. - Pokud je $M_{exp} = 1$, pak je expresivita ideální. -- Pokud je $M_{exp} < 1$, pak zobrazujeme méně informací, než jsme zamýšleli. +- Pokud je $M_{exp} < 1$, pak zobrazujeme méně informací, než jsme zamýšleli. - Pokud je $M_{exp} > 1$, pak zobrazujeme více informací, než bychom měli. ## Vizuální proměnné diff --git a/src/content/docs/szmgr/PGV06_vykreslovani_objemovych_dat.md b/src/content/docs/szmgr/PGV06_vykreslovani_objemovych_dat.md index f095059..9e2ff74 100644 --- a/src/content/docs/szmgr/PGV06_vykreslovani_objemovych_dat.md +++ b/src/content/docs/szmgr/PGV06_vykreslovani_objemovych_dat.md @@ -69,7 +69,7 @@ Před samotnou rekonstrukcí je často potřeba provézt ještě předzpracován ![width=600](./img/pgv06_alpha_shapes.png) - **Aproximace implicitní funkcí**\ - Uvažujme implicitní funkci $f(x, y, z)$, která je signed-distance funkcí od našeho daného povrchu (na povrchu = 0, uvnitř < 0, venku > 0). Taková funkce popisuje povrch jako nulovou hladinu. + Uvažujme implicitní funkci $f(x, y, z)$, která je signed-distance funkcí od našeho daného povrchu (na povrchu = 0, uvnitř < 0, venku > 0). Taková funkce popisuje povrch jako nulovou hladinu. Pro definici takové funkce by nám teoreticky stačily body našeho pointcloudu, které všechny nadefinujeme na nulovou hodnotu. Tímto způsobem má však naše funkce trivalní řešení, protože bychom mohli zvolit funkci, která pro všechny body vrací 0. Abochom tomu zabránili, přidáme pro každý bod dva nové body (1 uvnitř a jeden venku) posunuté podél normály. Tímto způsobem získáme funkci, která je nulová na povrchu a má správné znaménko uvnitř a venku. diff --git a/src/content/docs/szmgr/PGV10_zpracovani_obrazu_pomoci_PDE.md b/src/content/docs/szmgr/PGV10_zpracovani_obrazu_pomoci_PDE.md index ce69490..ae6504a 100644 --- a/src/content/docs/szmgr/PGV10_zpracovani_obrazu_pomoci_PDE.md +++ b/src/content/docs/szmgr/PGV10_zpracovani_obrazu_pomoci_PDE.md @@ -10,7 +10,7 @@ description: "TODO" - **Divergence**\ - Operace, která nám říká, jak moc vektorové pole míří ven z daného bodu. Pokud je $\text{div} j > 0$, pak se v daném bodě hodnota časem snižuje, pokud je $\text{div} j < 0$, pak se hodnota zvyšuje. + Operace, která nám říká, jak moc vektorové pole míří ven z daného bodu. Pokud je $\text{div} j > 0$, pak se v daném bodě hodnota časem snižuje, pokud je $\text{div} j < 0$, pak se hodnota zvyšuje. $\text{div} j = \nabla^T j = (\partial_x, \partial_y) \cdot (j_1, j_2) = \partial_x j_1 + \partial_y j_2$. diff --git a/src/content/docs/szmgr/SZP01_algoritmy.md b/src/content/docs/szmgr/SZP01_algoritmy.md index bcea75a..2da2477 100644 --- a/src/content/docs/szmgr/SZP01_algoritmy.md +++ b/src/content/docs/szmgr/SZP01_algoritmy.md @@ -70,7 +70,7 @@ Jediným háček je v tom přijít na to, které podproblémy jsou ty nejmenší Řešení využívá toho, že čas plyne výhradně dopředu, takže se můžeme na podproblémy dívat chronologicky a nebudou se překrývat. - Nechť $p(j)$ je index takové události $i < j$, že $i$ a $j$ jsou kompatibilní. + Nechť $p(j)$ je index takové události $i < j$, že $i$ a $j$ jsou kompatibilní. ```math \text{OPT}(j) = \begin{cases} diff --git a/src/content/docs/szmgr/SZP02_numericke_metody.md b/src/content/docs/szmgr/SZP02_numericke_metody.md index 39d4cd5..f7b64ad 100644 --- a/src/content/docs/szmgr/SZP02_numericke_metody.md +++ b/src/content/docs/szmgr/SZP02_numericke_metody.md @@ -94,7 +94,7 @@ description: "TODO" x_{k+1} = x_k - \frac{x_k - x_s}{f(x_k) - f(x_s)} f(x_k) ``` - kde $s$ je největší index takový, že $f(x_k)f(x_s) < 0$. + kde $s$ je největší index takový, že $f(x_k)f(x_s) < 0$. ## Přímé metody pro řešení systému lineárních rovnic @@ -212,7 +212,7 @@ Modifikace Gauss-Seidelovy metody. Využívá parametr $\omega$, který určuje, \end{align*} ``` -- Pro $0 < \omega < 1$ se názývá metodou dolní relaxace. Je vhodná v případě, kdy Gauss-Seidel nekonverguje. +- Pro $0 < \omega < 1$ se názývá metodou dolní relaxace. Je vhodná v případě, kdy Gauss-Seidel nekonverguje. - Pro $\omega = 1$ je totožná s Gauss-Seidelem. - Pro $\omega > 1$ se názývá metodou horní relaxace / SOR metodou. Zrychluje konvergenci Gauss-Seidela. diff --git a/src/content/docs/szmgr/SZP03_statistika.md b/src/content/docs/szmgr/SZP03_statistika.md index cca69e5..9289197 100644 --- a/src/content/docs/szmgr/SZP03_statistika.md +++ b/src/content/docs/szmgr/SZP03_statistika.md @@ -124,8 +124,8 @@ Jinými slovy, NV $X : \Omega \to \R$ je _spojitá_, pokud se prvky $\Omega$ zob | Název | | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------- | -------------------------------- | | Definice | Popis | Příklad | (Spojité) rovnoměrné / uniformní | -| $ f(x) = \begin{cases} \frac{1}{b-a} & a \le x \le b \\ 0 & x < a \lor x > b \\ \end{cases} $ | Všechny jevy v daném intervalu $(a, b)$ (může být otevřený nebo uzavřený) jsou stejně pravděpodobné. | Bod na kružnici. | Exponenciální | -| $ f(x, \lambda) = \begin{cases} \lambda e^{-\lambda x} & x \ge 0 \\ 0 & x < 0 \\ \end{cases} $ | Čas mezi jevy v Poissonově procesu. | Jak dlouho budeš čekat na šalinu. | Normální / Gaussovo | +| $ f(x) = \begin{cases} \frac{1}{b-a} & a \le x \le b \\ 0 & x < a \lor x > b \\ \end{cases} $ | Všechny jevy v daném intervalu $(a, b)$ (může být otevřený nebo uzavřený) jsou stejně pravděpodobné. | Bod na kružnici. | Exponenciální | +| $ f(x, \lambda) = \begin{cases} \lambda e^{-\lambda x} & x \ge 0 \\ 0 & x < 0 \\ \end{cases} $ | Čas mezi jevy v Poissonově procesu. | Jak dlouho budeš čekat na šalinu. | Normální / Gaussovo | | $ f\_\mathcal{N}(x, \mu, \sigma^2) = \frac{1}{\sigma \sqrt{2 \pi}} e^{ -\frac {\left(x - \mu \right)^2} {2\sigma^2} } $ | Používá se jako default, když nevíš, jakou má proměnná distribuci, kvůli centrální limitní větě. ($\mu$ je mean, $\sigma^2$ je rozptyl). | Výška lidí. | Standardní normální | | $ f(x) = f\_\mathcal{N}(x, 0, 1) = \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} $ | Je fajn, protože má standardní odchylku rovnu jedné, takže člověku stačí si pamatovat, že: _ 68 % je v intervalu $(-1, 1)$, _ 95 % je v intervalu $(-2, 2)$, \* 99,7 % je v intervalu $(-3, 3)$. | Výška lidí (ale přeškálovaná). | Cauchy | | $ f(x) = \frac{1}{ \pi \sigma \left\lbrack 1 + \left( \frac{x - \mu}{\sigma} \right)^2 \right\rbrack } $ | Poměr dvou spojitých náhodných proměnných s normálním rozdělením. Expected value ani rozptyl na ní nejsou definované. | Poměr výšky k šířce obličeje. | Gamma | @@ -157,7 +157,7 @@ Stejně jako náhodné veličiny popisují jevy, číselné charakteristiky popi ``` - **Percentil**\ - Výběrový kvantil ($p$-tý kvantil, kde $0 < p < 1$) $Q_p$. + Výběrový kvantil ($p$-tý kvantil, kde $0 < p < 1$) $Q_p$. - **Modus**\ Hodnota s největší četností. diff --git a/src/content/docs/szmgr/SZP04_3d_modelovani.md b/src/content/docs/szmgr/SZP04_3d_modelovani.md index 515d607..7c89106 100644 --- a/src/content/docs/szmgr/SZP04_3d_modelovani.md +++ b/src/content/docs/szmgr/SZP04_3d_modelovani.md @@ -420,7 +420,7 @@ _Když máme objekt definovaný polévkou matematických symbolů místo hromád kde $d(x, A)$ je nejmenší vzdálenost bodu $x$ od entity $A$. [pa010-2020](#pa010-2020) - **Constructive solid geometry (CSG)**\ - Umožňuje kombinovat implicitní objekty pomocí logických operací. Předpokládáme, že pokud $f(x, y, z) < 0$ pak je bod uvnitř objektu daném $f$. Tato metoda nezachovává $C^1$ spojitost. Pro dva objekty $f$ a $g$: [pa010-2020](#pa010-2020) + Umožňuje kombinovat implicitní objekty pomocí logických operací. Předpokládáme, že pokud $f(x, y, z) < 0$ pak je bod uvnitř objektu daném $f$. Tato metoda nezachovává $C^1$ spojitost. Pro dva objekty $f$ a $g$: [pa010-2020](#pa010-2020) - _Sjednocení_: $\min(f, g)$, - _Průnik_: $\max(f, g)$, diff --git a/src/content/docs/szmgr/SZP05_krivky_a_povrchy.md b/src/content/docs/szmgr/SZP05_krivky_a_povrchy.md index a87e48b..f9dd4a0 100644 --- a/src/content/docs/szmgr/SZP05_krivky_a_povrchy.md +++ b/src/content/docs/szmgr/SZP05_krivky_a_povrchy.md @@ -192,7 +192,7 @@ Pro zbytek otázky je podstatné znát několik termínů: V případě kubiky výše to znamená, že $G$ obsahuje body, kterými křivka prochází. - Mějmě funkci $f(x)$, jejíž hodnotu známe v bodech $f(x_0), f(x_1), \ldots, f(x_n)$. Interpolace znamená nalezení hodnot $f(x)$ pro všechna $x_0 < x < x_n$. + Mějmě funkci $f(x)$, jejíž hodnotu známe v bodech $f(x_0), f(x_1), \ldots, f(x_n)$. Interpolace znamená nalezení hodnot $f(x)$ pro všechna $x_0 < x < x_n$. - **Aproximace**\ Přiblížení, odhad. Je nepřesným popisem nějaké jiné entity (např. čísla či funkce). Saháme k ní, pokud pro analytické řešení nemáme dost informací nebo výpočetní kapacity. Aproximace je méně přesná než interpolace, ale výpočetně jednodušší. diff --git a/src/content/docs/szmgr/SZP06_strojove_uceni.md b/src/content/docs/szmgr/SZP06_strojove_uceni.md index b64ccc6..22e584a 100644 --- a/src/content/docs/szmgr/SZP06_strojove_uceni.md +++ b/src/content/docs/szmgr/SZP06_strojove_uceni.md @@ -106,7 +106,7 @@ description: "TODO" - $x_0$ -- pro snažší implementaci se závádí dodatečný vstup, který má vždy hodnotu 1 a váhu rovnu -bias > [!NOTE] - > Vnitřní potenciál funguje jako nadrovina (čára při 2D, rovina při 3D, nepředstavitelný mostrum ve vyšších dimenzí), která rozděluje prostor vstupů na část, kde je $\xi < 0$ a kde $\xi > 0$. + > Vnitřní potenciál funguje jako nadrovina (čára při 2D, rovina při 3D, nepředstavitelný mostrum ve vyšších dimenzí), která rozděluje prostor vstupů na část, kde je $\xi < 0$ a kde $\xi > 0$. - **Multilayer perceptron (MLP)** @@ -126,9 +126,9 @@ description: "TODO" - $\xi_j$ -- vnitřní potenciál neuronu $j$ po skončení výpočtu - $y_j$ -- výstup neuronu $j$ po skončení výpočtu - $x_0 = 1$ -- hodnota formálního jednotkového vstupu (kvůli biasům) - - $w_{j,i}$ -- váha spojení **z** neuronu $i$ **do** neuronu $j$ (dst <- src) + - $w_{j,i}$ -- váha spojení **z** neuronu $i$ **do** neuronu $j$ (dst <- src) - $w_{j,0} = -b_j$ -- bias -- váha z formální jednotky do neuronu $j$ - - $j_{\leftarrow}$ -- množina neuronů $i$, jenž mají spojení **do** $j$ (j <- i) + - $j_{\leftarrow}$ -- množina neuronů $i$, jenž mají spojení **do** $j$ (j <- i) - $j^{\rightarrow}$ -- množina neuronů $i$, do nichž vede spojení **z** $j$ (j -> i) ### Aktivita @@ -213,7 +213,7 @@ Neuronka je model, kde váhy neuronů jsou parametry. Při učení neuronek je n - **Backpropagation / zpětná propagace**\ Technika, kdy se v průběhu _gradient descent_ ztráta způsobená konkrétním neuronem dedukuje na zákládě jeho příspěvku k výsledku. Algoritmus tak postupuje od output vrstvy směrem k input vrstvě. - **Learning rate $\varepsilon$**\ - Hyperparametr $0 < \varepsilon \le 1$ ovlivňující rychlost učení. Může záviset na iteraci $t$, pak je to funkce $\varepsilon(t)$. + Hyperparametr $0 < \varepsilon \le 1$ ovlivňující rychlost učení. Může záviset na iteraci $t$, pak je to funkce $\varepsilon(t)$. **Gradient descent v MLP** diff --git a/src/content/docs/szmgr/SZP07_grafy.md b/src/content/docs/szmgr/SZP07_grafy.md index 1e59f90..92b379e 100644 --- a/src/content/docs/szmgr/SZP07_grafy.md +++ b/src/content/docs/szmgr/SZP07_grafy.md @@ -128,7 +128,7 @@ def bfs(graph: List[List[bool]], stamps: List[int], vertex: int) -> None: Problém nalezení buď nejkratší cesty mezi dvěma vrcholy nebo nejkratší cesty z jednoho vrcholu do všech ostatních. - **Relaxace hrany $(u, v)$**\ - Zkrácení vzdálenosti k vrcholu $v$ průchodem přes vrchol $u$. Musí platit $u\text{.distance} + w(u, v) < v\text{.distance}$. Hrana $(u, v)$ je v takovém případě _napjatá_. + Zkrácení vzdálenosti k vrcholu $v$ průchodem přes vrchol $u$. Musí platit $u\text{.distance} + w(u, v) < v\text{.distance}$. Hrana $(u, v)$ je v takovém případě _napjatá_. ### Bellman-Fordův algoritmus @@ -324,7 +324,7 @@ Dijkstrův algoritmus lze optimalizovat, pokud nás zajímá jen nejkratší ces Je to pětice $G_f = (V, E_f, s, t, c_f)$, kde - - $E_f = \{ e \in E : f(e) < c(e) \} \cup \{ e^R : f(e) > 0 \}$, + - $E_f = \{ e \in E : f(e) < c(e) \} \cup \{ e^R : f(e) > 0 \}$, - pokud $e = (u, v) \in E$, $e^R = (v, u)$, - stem:[ c_f(e) = \begin{cases} diff --git a/src/content/docs/szmgr/SZP09_zpracovani_obrazu.md b/src/content/docs/szmgr/SZP09_zpracovani_obrazu.md index da68a2a..03cf3a1 100644 --- a/src/content/docs/szmgr/SZP09_zpracovani_obrazu.md +++ b/src/content/docs/szmgr/SZP09_zpracovani_obrazu.md @@ -53,9 +53,9 @@ Převodní funkce je lineární, definována, jako $f(a) = ka + q$. - Identita: $k = 1, q = 0$ - Inverze intenzit (negativ): $k = -1, q = a_{max}$ - Zvýšení jasu: $k = 1, q > 0$ -- Snížení jasu: $k = 1, q < 0$ +- Snížení jasu: $k = 1, q < 0$ - Zvýšení kontrastu: $k > 1, q = 0$ -- Snížení kontrastu: $0 < k < 1, q = 0$ +- Snížení kontrastu: $0 < k < 1, q = 0$ - Lineární roztažení: viz dále - (Percentilové roztažení: viz dále) - **Negativ**\