Regex fix lt symbols

Just global search and replace in vs code
This commit is contained in:
Vojtěch Struhár 2025-06-07 00:58:21 +02:00
parent dd3679b0a1
commit 8f522568d5
11 changed files with 19 additions and 19 deletions

View File

@ -31,7 +31,7 @@ Pokud je $M_{eff} \sim 1$, pak je čas na interpretaci a renderování krátký.
$M_{exp} = \frac{\text{displayed information}}{\text{information to be expressed}}$, kde $0 \leq M_{exp} \leq 1$. $M_{exp} = \frac{\text{displayed information}}{\text{information to be expressed}}$, kde $0 \leq M_{exp} \leq 1$.
- Pokud je $M_{exp} = 1$, pak je expresivita ideální. - Pokud je $M_{exp} = 1$, pak je expresivita ideální.
- Pokud je $M_{exp} &lt; 1$, pak zobrazujeme méně informací, než jsme zamýšleli. - Pokud je $M_{exp} < 1$, pak zobrazujeme méně informací, než jsme zamýšleli.
- Pokud je $M_{exp} > 1$, pak zobrazujeme více informací, než bychom měli. - Pokud je $M_{exp} > 1$, pak zobrazujeme více informací, než bychom měli.
## Vizuální proměnné ## Vizuální proměnné

View File

@ -69,7 +69,7 @@ Před samotnou rekonstrukcí je často potřeba provézt ještě předzpracován
![width=600](./img/pgv06_alpha_shapes.png) ![width=600](./img/pgv06_alpha_shapes.png)
- **Aproximace implicitní funkcí**\ - **Aproximace implicitní funkcí**\
Uvažujme implicitní funkci $f(x, y, z)$, která je signed-distance funkcí od našeho daného povrchu (na povrchu = 0, uvnitř &lt; 0, venku > 0). Taková funkce popisuje povrch jako nulovou hladinu. Uvažujme implicitní funkci $f(x, y, z)$, která je signed-distance funkcí od našeho daného povrchu (na povrchu = 0, uvnitř < 0, venku > 0). Taková funkce popisuje povrch jako nulovou hladinu.
Pro definici takové funkce by nám teoreticky stačily body našeho pointcloudu, které všechny nadefinujeme na nulovou hodnotu. Tímto způsobem má však naše funkce trivalní řešení, protože bychom mohli zvolit funkci, která pro všechny body vrací 0. Abochom tomu zabránili, přidáme pro každý bod dva nové body (1 uvnitř a jeden venku) posunuté podél normály. Tímto způsobem získáme funkci, která je nulová na povrchu a má správné znaménko uvnitř a venku. Pro definici takové funkce by nám teoreticky stačily body našeho pointcloudu, které všechny nadefinujeme na nulovou hodnotu. Tímto způsobem má však naše funkce trivalní řešení, protože bychom mohli zvolit funkci, která pro všechny body vrací 0. Abochom tomu zabránili, přidáme pro každý bod dva nové body (1 uvnitř a jeden venku) posunuté podél normály. Tímto způsobem získáme funkci, která je nulová na povrchu a má správné znaménko uvnitř a venku.

View File

@ -10,7 +10,7 @@ description: "TODO"
- **Divergence**\ - **Divergence**\
Operace, která nám říká, jak moc vektorové pole míří ven z daného bodu. Pokud je $\text{div} j > 0$, pak se v daném bodě hodnota časem snižuje, pokud je $\text{div} j &lt; 0$, pak se hodnota zvyšuje. Operace, která nám říká, jak moc vektorové pole míří ven z daného bodu. Pokud je $\text{div} j > 0$, pak se v daném bodě hodnota časem snižuje, pokud je $\text{div} j < 0$, pak se hodnota zvyšuje.
$\text{div} j = \nabla^T j = (\partial_x, \partial_y) \cdot (j_1, j_2) = \partial_x j_1 + \partial_y j_2$. $\text{div} j = \nabla^T j = (\partial_x, \partial_y) \cdot (j_1, j_2) = \partial_x j_1 + \partial_y j_2$.

View File

@ -70,7 +70,7 @@ Jediným háček je v tom přijít na to, které podproblémy jsou ty nejmenší
Řešení využívá toho, že čas plyne výhradně dopředu, takže se můžeme na podproblémy dívat chronologicky a nebudou se překrývat. Řešení využívá toho, že čas plyne výhradně dopředu, takže se můžeme na podproblémy dívat chronologicky a nebudou se překrývat.
Nechť $p(j)$ je index takové události $i &lt; j$, že $i$ a $j$ jsou kompatibilní. Nechť $p(j)$ je index takové události $i < j$, že $i$ a $j$ jsou kompatibilní.
```math ```math
\text{OPT}(j) = \begin{cases} \text{OPT}(j) = \begin{cases}

View File

@ -94,7 +94,7 @@ description: "TODO"
x_{k+1} = x_k - \frac{x_k - x_s}{f(x_k) - f(x_s)} f(x_k) x_{k+1} = x_k - \frac{x_k - x_s}{f(x_k) - f(x_s)} f(x_k)
``` ```
kde $s$ je největší index takový, že $f(x_k)f(x_s) &lt; 0$. kde $s$ je největší index takový, že $f(x_k)f(x_s) < 0$.
## Přímé metody pro řešení systému lineárních rovnic ## Přímé metody pro řešení systému lineárních rovnic
@ -212,7 +212,7 @@ Modifikace Gauss-Seidelovy metody. Využívá parametr $\omega$, který určuje,
\end{align*} \end{align*}
``` ```
- Pro $0 &lt; \omega &lt; 1$ se názývá metodou dolní relaxace. Je vhodná v případě, kdy Gauss-Seidel nekonverguje. - Pro $0 < \omega < 1$ se názývá metodou dolní relaxace. Je vhodná v případě, kdy Gauss-Seidel nekonverguje.
- Pro $\omega = 1$ je totožná s Gauss-Seidelem. - Pro $\omega = 1$ je totožná s Gauss-Seidelem.
- Pro $\omega > 1$ se názývá metodou horní relaxace / SOR metodou. Zrychluje konvergenci Gauss-Seidela. - Pro $\omega > 1$ se názývá metodou horní relaxace / SOR metodou. Zrychluje konvergenci Gauss-Seidela.

View File

@ -124,8 +124,8 @@ Jinými slovy, NV $X : \Omega \to \R$ je _spojitá_, pokud se prvky $\Omega$ zob
| Název | | Název |
| --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------- | -------------------------------- | | --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------- | -------------------------------- |
| Definice | Popis | Příklad | (Spojité) rovnoměrné / uniformní | | Definice | Popis | Příklad | (Spojité) rovnoměrné / uniformní |
| $ f(x) = \begin{cases} \frac{1}{b-a} & a \le x \le b \\ 0 & x &lt; a \lor x > b \\ \end{cases} $ | Všechny jevy v daném intervalu $(a, b)$ (může být otevřený nebo uzavřený) jsou stejně pravděpodobné. | Bod na kružnici. | Exponenciální | | $ f(x) = \begin{cases} \frac{1}{b-a} & a \le x \le b \\ 0 & x < a \lor x > b \\ \end{cases} $ | Všechny jevy v daném intervalu $(a, b)$ (může být otevřený nebo uzavřený) jsou stejně pravděpodobné. | Bod na kružnici. | Exponenciální |
| $ f(x, \lambda) = \begin{cases} \lambda e^{-\lambda x} & x \ge 0 \\ 0 & x &lt; 0 \\ \end{cases} $ | Čas mezi jevy v Poissonově procesu. | Jak dlouho budeš čekat na šalinu. | Normální / Gaussovo | | $ f(x, \lambda) = \begin{cases} \lambda e^{-\lambda x} & x \ge 0 \\ 0 & x < 0 \\ \end{cases} $ | Čas mezi jevy v Poissonově procesu. | Jak dlouho budeš čekat na šalinu. | Normální / Gaussovo |
| $ f\_\mathcal{N}(x, \mu, \sigma^2) = \frac{1}{\sigma \sqrt{2 \pi}} e^{ -\frac {\left(x - \mu \right)^2} {2\sigma^2} } $ | Používá se jako default, když nevíš, jakou má proměnná distribuci, kvůli centrální limitní větě. ($\mu$ je mean, $\sigma^2$ je rozptyl). | Výška lidí. | Standardní normální | | $ f\_\mathcal{N}(x, \mu, \sigma^2) = \frac{1}{\sigma \sqrt{2 \pi}} e^{ -\frac {\left(x - \mu \right)^2} {2\sigma^2} } $ | Používá se jako default, když nevíš, jakou má proměnná distribuci, kvůli centrální limitní větě. ($\mu$ je mean, $\sigma^2$ je rozptyl). | Výška lidí. | Standardní normální |
| $ f(x) = f\_\mathcal{N}(x, 0, 1) = \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} $ | Je fajn, protože má standardní odchylku rovnu jedné, takže člověku stačí si pamatovat, že: _ 68 % je v intervalu $(-1, 1)$, _ 95 % je v intervalu $(-2, 2)$, \* 99,7 % je v intervalu $(-3, 3)$. | Výška lidí (ale přeškálovaná). | Cauchy | | $ f(x) = f\_\mathcal{N}(x, 0, 1) = \frac{1}{\sqrt{2 \pi}} e^{-\frac{x^2}{2}} $ | Je fajn, protože má standardní odchylku rovnu jedné, takže člověku stačí si pamatovat, že: _ 68 % je v intervalu $(-1, 1)$, _ 95 % je v intervalu $(-2, 2)$, \* 99,7 % je v intervalu $(-3, 3)$. | Výška lidí (ale přeškálovaná). | Cauchy |
| $ f(x) = \frac{1}{ \pi \sigma \left\lbrack 1 + \left( \frac{x - \mu}{\sigma} \right)^2 \right\rbrack } $ | Poměr dvou spojitých náhodných proměnných s normálním rozdělením. Expected value ani rozptyl na ní nejsou definované. | Poměr výšky k šířce obličeje. | Gamma | | $ f(x) = \frac{1}{ \pi \sigma \left\lbrack 1 + \left( \frac{x - \mu}{\sigma} \right)^2 \right\rbrack } $ | Poměr dvou spojitých náhodných proměnných s normálním rozdělením. Expected value ani rozptyl na ní nejsou definované. | Poměr výšky k šířce obličeje. | Gamma |
@ -157,7 +157,7 @@ Stejně jako náhodné veličiny popisují jevy, číselné charakteristiky popi
``` ```
- **Percentil**\ - **Percentil**\
Výběrový kvantil ($p$-tý kvantil, kde $0 &lt; p &lt; 1$) $Q_p$. Výběrový kvantil ($p$-tý kvantil, kde $0 < p < 1$) $Q_p$.
- **Modus**\ - **Modus**\
Hodnota s největší četností. Hodnota s největší četností.

View File

@ -420,7 +420,7 @@ _Když máme objekt definovaný polévkou matematických symbolů místo hromád
kde $d(x, A)$ je nejmenší vzdálenost bodu $x$ od entity $A$. [pa010-2020](#pa010-2020) kde $d(x, A)$ je nejmenší vzdálenost bodu $x$ od entity $A$. [pa010-2020](#pa010-2020)
- **Constructive solid geometry (CSG)**\ - **Constructive solid geometry (CSG)**\
Umožňuje kombinovat implicitní objekty pomocí logických operací. Předpokládáme, že pokud $f(x, y, z) &lt; 0$ pak je bod uvnitř objektu daném $f$. Tato metoda nezachovává $C^1$ spojitost. Pro dva objekty $f$ a $g$: [pa010-2020](#pa010-2020) Umožňuje kombinovat implicitní objekty pomocí logických operací. Předpokládáme, že pokud $f(x, y, z) < 0$ pak je bod uvnitř objektu daném $f$. Tato metoda nezachovává $C^1$ spojitost. Pro dva objekty $f$ a $g$: [pa010-2020](#pa010-2020)
- _Sjednocení_: $\min(f, g)$, - _Sjednocení_: $\min(f, g)$,
- _Průnik_: $\max(f, g)$, - _Průnik_: $\max(f, g)$,

View File

@ -192,7 +192,7 @@ Pro zbytek otázky je podstatné znát několik termínů:
V případě kubiky výše to znamená, že $G$ obsahuje body, kterými křivka prochází. V případě kubiky výše to znamená, že $G$ obsahuje body, kterými křivka prochází.
Mějmě funkci $f(x)$, jejíž hodnotu známe v bodech $f(x_0), f(x_1), \ldots, f(x_n)$. Interpolace znamená nalezení hodnot $f(x)$ pro všechna $x_0 &lt; x &lt; x_n$. Mějmě funkci $f(x)$, jejíž hodnotu známe v bodech $f(x_0), f(x_1), \ldots, f(x_n)$. Interpolace znamená nalezení hodnot $f(x)$ pro všechna $x_0 < x < x_n$.
- **Aproximace**\ - **Aproximace**\
Přiblížení, odhad. Je nepřesným popisem nějaké jiné entity (např. čísla či funkce). Saháme k ní, pokud pro analytické řešení nemáme dost informací nebo výpočetní kapacity. Aproximace je méně přesná než interpolace, ale výpočetně jednodušší. Přiblížení, odhad. Je nepřesným popisem nějaké jiné entity (např. čísla či funkce). Saháme k ní, pokud pro analytické řešení nemáme dost informací nebo výpočetní kapacity. Aproximace je méně přesná než interpolace, ale výpočetně jednodušší.

View File

@ -106,7 +106,7 @@ description: "TODO"
- $x_0$ -- pro snažší implementaci se závádí dodatečný vstup, který má vždy hodnotu 1 a váhu rovnu -bias - $x_0$ -- pro snažší implementaci se závádí dodatečný vstup, který má vždy hodnotu 1 a váhu rovnu -bias
> [!NOTE] > [!NOTE]
> Vnitřní potenciál funguje jako nadrovina (čára při 2D, rovina při 3D, nepředstavitelný mostrum ve vyšších dimenzí), která rozděluje prostor vstupů na část, kde je $\xi &lt; 0$ a kde $\xi > 0$. > Vnitřní potenciál funguje jako nadrovina (čára při 2D, rovina při 3D, nepředstavitelný mostrum ve vyšších dimenzí), která rozděluje prostor vstupů na část, kde je $\xi < 0$ a kde $\xi > 0$.
- **Multilayer perceptron (MLP)** - **Multilayer perceptron (MLP)**
@ -126,9 +126,9 @@ description: "TODO"
- $\xi_j$ -- vnitřní potenciál neuronu $j$ po skončení výpočtu - $\xi_j$ -- vnitřní potenciál neuronu $j$ po skončení výpočtu
- $y_j$ -- výstup neuronu $j$ po skončení výpočtu - $y_j$ -- výstup neuronu $j$ po skončení výpočtu
- $x_0 = 1$ -- hodnota formálního jednotkového vstupu (kvůli biasům) - $x_0 = 1$ -- hodnota formálního jednotkového vstupu (kvůli biasům)
- $w_{j,i}$ -- váha spojení **z** neuronu $i$ **do** neuronu $j$ (dst &lt;- src) - $w_{j,i}$ -- váha spojení **z** neuronu $i$ **do** neuronu $j$ (dst <- src)
- $w_{j,0} = -b_j$ -- bias -- váha z formální jednotky do neuronu $j$ - $w_{j,0} = -b_j$ -- bias -- váha z formální jednotky do neuronu $j$
- $j_{\leftarrow}$ -- množina neuronů $i$, jenž mají spojení **do** $j$ (j &lt;- i) - $j_{\leftarrow}$ -- množina neuronů $i$, jenž mají spojení **do** $j$ (j <- i)
- $j^{\rightarrow}$ -- množina neuronů $i$, do nichž vede spojení **z** $j$ (j -> i) - $j^{\rightarrow}$ -- množina neuronů $i$, do nichž vede spojení **z** $j$ (j -> i)
### Aktivita ### Aktivita
@ -213,7 +213,7 @@ Neuronka je model, kde váhy neuronů jsou parametry. Při učení neuronek je n
- **Backpropagation / zpětná propagace**\ - **Backpropagation / zpětná propagace**\
Technika, kdy se v průběhu _gradient descent_ ztráta způsobená konkrétním neuronem dedukuje na zákládě jeho příspěvku k výsledku. Algoritmus tak postupuje od output vrstvy směrem k input vrstvě. Technika, kdy se v průběhu _gradient descent_ ztráta způsobená konkrétním neuronem dedukuje na zákládě jeho příspěvku k výsledku. Algoritmus tak postupuje od output vrstvy směrem k input vrstvě.
- **Learning rate $\varepsilon$**\ - **Learning rate $\varepsilon$**\
Hyperparametr $0 &lt; \varepsilon \le 1$ ovlivňující rychlost učení. Může záviset na iteraci $t$, pak je to funkce $\varepsilon(t)$. Hyperparametr $0 < \varepsilon \le 1$ ovlivňující rychlost učení. Může záviset na iteraci $t$, pak je to funkce $\varepsilon(t)$.
**Gradient descent v MLP** **Gradient descent v MLP**

View File

@ -128,7 +128,7 @@ def bfs(graph: List[List[bool]], stamps: List[int], vertex: int) -> None:
Problém nalezení buď nejkratší cesty mezi dvěma vrcholy nebo nejkratší cesty z jednoho vrcholu do všech ostatních. Problém nalezení buď nejkratší cesty mezi dvěma vrcholy nebo nejkratší cesty z jednoho vrcholu do všech ostatních.
- **Relaxace hrany $(u, v)$**\ - **Relaxace hrany $(u, v)$**\
Zkrácení vzdálenosti k vrcholu $v$ průchodem přes vrchol $u$. Musí platit $u\text{.distance} + w(u, v) &lt; v\text{.distance}$. Hrana $(u, v)$ je v takovém případě _napjatá_. Zkrácení vzdálenosti k vrcholu $v$ průchodem přes vrchol $u$. Musí platit $u\text{.distance} + w(u, v) < v\text{.distance}$. Hrana $(u, v)$ je v takovém případě _napjatá_.
### Bellman-Fordův algoritmus ### Bellman-Fordův algoritmus
@ -324,7 +324,7 @@ Dijkstrův algoritmus lze optimalizovat, pokud nás zajímá jen nejkratší ces
Je to pětice $G_f = (V, E_f, s, t, c_f)$, kde Je to pětice $G_f = (V, E_f, s, t, c_f)$, kde
- $E_f = \{ e \in E : f(e) &lt; c(e) \} \cup \{ e^R : f(e) > 0 \}$, - $E_f = \{ e \in E : f(e) < c(e) \} \cup \{ e^R : f(e) > 0 \}$,
- pokud $e = (u, v) \in E$, $e^R = (v, u)$, - pokud $e = (u, v) \in E$, $e^R = (v, u)$,
- stem:[ - stem:[
c_f(e) = \begin{cases} c_f(e) = \begin{cases}

View File

@ -53,9 +53,9 @@ Převodní funkce je lineární, definována, jako $f(a) = ka + q$.
- Identita: $k = 1, q = 0$ - Identita: $k = 1, q = 0$
- Inverze intenzit (negativ): $k = -1, q = a_{max}$ - Inverze intenzit (negativ): $k = -1, q = a_{max}$
- Zvýšení jasu: $k = 1, q > 0$ - Zvýšení jasu: $k = 1, q > 0$
- Snížení jasu: $k = 1, q &lt; 0$ - Snížení jasu: $k = 1, q < 0$
- Zvýšení kontrastu: $k > 1, q = 0$ - Zvýšení kontrastu: $k > 1, q = 0$
- Snížení kontrastu: $0 &lt; k &lt; 1, q = 0$ - Snížení kontrastu: $0 < k < 1, q = 0$
- Lineární roztažení: viz dále - Lineární roztažení: viz dále
- (Percentilové roztažení: viz dále) - (Percentilové roztažení: viz dále)
- **Negativ**\ - **Negativ**\