MatmaPlusPlus.pl

Matematyka Na Plus

Szkoła

Powtórka i ćwiczenia
Szkoła — spis tematów i przykłady Zestaw zadań dnia ►
ANOVA — model i test

\(\text{SST}=\text{SSB}+\text{SSW}\), \(F=\dfrac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}\).

Regresja liniowa (MNK)
  • \(a^*=\dfrac{S_{xy}}{S_{xx}}\), \(b^*=\bar y-a^*\bar x\)
  • \(\hat\sigma^2=\text{SSE}/(n-2)\), \(R^2=1-\text{SSE}/\text{SST}\)
Przedział ufności dla \(\theta\) w \(U(0,\theta)\)

\([M/0.975^{1/n},\,M/0.025^{1/n}]\); górny: \([M,\,M/0.05^{1/n}]\).

I. Model analizy wariancji (ANOVA) — „podaj model”

Jednoczynnikowa ANOVA: \[ Y_{ij}=\mu+\tau_i+\varepsilon_{ij},\quad \sum_{i=1}^k \tau_i=0,\quad \varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2)\ \text{niezależne}. \] Hipotezy: \(H_0:\ \tau_1=\cdots=\tau_k=0\) vs \(H_1:\) co najmniej jedna \(\tau_i\neq 0\).

Sumy kwadratów: \(\text{SST}=\sum_{ij}(y_{ij}-\bar y)^2=\text{SSB}+\text{SSW}\). Statystyka: \[ F=\frac{\text{MSB}}{\text{MSW}}=\frac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}. \]

Interpretacja: duże \(F\) ⇒ grupy różnią się średnimi; małe \(p\) ⇒ odrzucamy \(H_0\).

II. Regresja liniowa (MNK) — wzory robocze
  • \(\bar x=\frac{1}{n}\sum x_i,\ \bar y=\frac{1}{n}\sum y_i\)
  • \(S_{xx}=\sum (x_i-\bar x)^2,\quad S_{xy}=\sum (x_i-\bar x)(y_i-\bar y)\)
  • Parametry: \(a^*=\frac{S_{xy}}{S_{xx}},\quad b^*=\bar y-a^*\bar x\)
  • Reszty: \(e_i=y_i-\hat y_i\), \(\text{SSE}=\sum e_i^2\), \(\hat\sigma^2=\text{SSE}/(n-2)\)
  • Dopasowanie: \(R^2=1-\dfrac{\text{SSE}}{\sum (y_i-\bar y)^2}\)
III. Dekompozycja wariancji w regresji + test ogólny

\(\text{SST}=\text{SSR}+\text{SSE}\), gdzie \(\text{SSR}=\sum(\hat y_i-\bar y)^2\) (wyjaśniona), \(\text{SSE}=\sum(y_i-\hat y_i)^2\) (niewyjaśniona).

Test istotności całej regresji: \[ F=\frac{\text{SSR}/1}{\text{SSE}/(n-2)} \sim F_{1,n-2}\quad \text{(pod }H_0: a=0\text{)}. \]

IV. Przedziały i testy dla \(a,b\)

Odchylenia standardowe

\[ \operatorname{SE}(a)=\sqrt{\frac{\hat\sigma^2}{S_{xx}}},\quad \operatorname{SE}(b)=\sqrt{\hat\sigma^2\!\left(\frac{1}{n}+\frac{\bar x^2}{S_{xx}}\right)}. \]

Test t

\[ t_a=\frac{a^*}{\operatorname{SE}(a)},\quad t_b=\frac{b^*}{\operatorname{SE}(b)} \ \sim \ t_{n-2}. \]

Przedziały 95%

\[ a^*\pm t_{0.975,n-2}\operatorname{SE}(a),\quad b^*\pm t_{0.975,n-2}\operatorname{SE}(b). \]

V. Przewidywanie: średnia odpowiedź vs. nowa obserwacja

Dla punktu \(x_0\):

  • Średnia odpowiedź \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
  • Nowa pojedyncza obserwacja \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{1+\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
VI. Diagnostyka reszt (normalność, stała wariancja, niezależność)

Normalność

QQ-plot, test Shapiro–Wilka. Jeśli ogony odstają — rozważ transformację lub metody odporne.

Heteroskedastyczność

Wykres \(e_i\) vs \(\hat y_i\). Test Breuscha–Pagana: \(\mathrm{BP}\sim \chi^2\) — istotny sygnał ⇒ rozważ WLS/HCSE.

Autokorelacja

Durbin–Watson: \[ \mathrm{DW}=\frac{\sum_{i=2}^n(e_i-e_{i-1})^2}{\sum_{i=1}^ne_i^2}\approx 2 \] ⇒ brak autokorelacji.

VII. Punkty wpływowe i dźwignia
  • Macierz „hat”: \(\mathbf{H}=\mathbf{X}(X^TX)^{-1}X^T\), dźwignia \(h_{ii}\in(0,1)\).
  • Standaryzowane reszty: \(r_i=\frac{e_i}{\hat\sigma\sqrt{1-h_{ii}}}\).
  • Cook’s distance: \[ D_i=\frac{e_i^2}{2\hat\sigma^2}\cdot \frac{h_{ii}}{(1-h_{ii})^2}. \] Duże \(D_i\) ⇒ obserwacja silnie wpływa na model.
VIII. 95% CI dla \(\theta\) w \(U(0,\theta)\)

Jeśli \(X_1,\dots,X_n\stackrel{iid}{\sim}U(0,\theta)\), a \(M=\max X_i\), to \(\mathbb{P}(M\le m)=(m/\theta)^n\). Stąd \[ \text{CI}_{95\%}^{dw}=\Big[\,\tfrac{M}{0.975^{1/n}},\ \tfrac{M}{0.025^{1/n}}\,\Big],\qquad \text{CI}_{95\%}^{górny}=\Big[\,M,\ \tfrac{M}{0.05^{1/n}}\,\Big]. \] Estymator MLE: \(\hat\theta=M\).

IX. Szybkie pojęcia

Błąd I/II rodzaju

Odrzucono \(H_0\), gdy prawdziwy (I); nie odrzucono, gdy fałszywy (II).

Poziom istotności \(\alpha\)

Szansa błędu I; typowo \(0.05\) lub \(0.01\).

p-value

Prawdopodobieństwo tak „skrajnych” danych przy założeniu \(H_0\).

Premium: Zestaw rozszerzony

Każdy podtemat poniżej zawiera dodatkowe zadania z odpowiedziami skrótowymi.

Liczby naturalne i całkowite

Ćwiczenia
  1. \(7-12\) ⇒ \(-5\)
  2. \((-4)+9\) ⇒ \(5\)
  3. \(|-8|\) ⇒ \(8\)
  4. \(15\cdot 0\) ⇒ \(0\)
  5. \(NWD(18,\,30)\) ⇒ \(6\)
  6. \(NWW(6,\,8)\) ⇒ \(24\)
  7. \((-3)\cdot(-5)\) ⇒ \(15\)
  8. \((-27):3\) ⇒ \(-9\)
  9. \(2^5\) ⇒ \(32\)
  10. \((-2)^5\) ⇒ \(-32\)
  11. \((-2)^4\) ⇒ \(16\)
  12. \(Dzielniki\ 36\) ⇒ \(\{1,2,3,4,6,9,12,18,36\}\)

Ułamki zwykłe

Ćwiczenia
  1. \(\tfrac{2}{3}+\tfrac{1}{6}\) ⇒ \(\tfrac{5}{6}\)
  2. \(\tfrac{5}{4}-\tfrac{3}{8}\) ⇒ \(\tfrac{7}{8}\)
  3. \(\tfrac{3}{5}\cdot \tfrac{10}{9}\) ⇒ \(\tfrac{2}{3}\)
  4. \(\tfrac{7}{12}:\tfrac{7}{3}\) ⇒ \(\tfrac{1}{4}\)
  5. \(skróć\ \tfrac{18}{24}\) ⇒ \(\tfrac{3}{4}\)
  6. \(\tfrac{9}{12}=\ ?\) ⇒ \(\tfrac{3}{4}\)
  7. \(\tfrac{4}{5}+\tfrac{7}{10}\) ⇒ \(\tfrac{15}{10}=\tfrac{3}{2}\)
  8. \(\tfrac{11}{6}-\tfrac{7}{8}\) ⇒ \(\tfrac{13}{24}\)
  9. \(\tfrac{5}{9}\cdot \tfrac{27}{10}\) ⇒ \(\tfrac{3}{2}\)
  10. \(\tfrac{3}{7}:\tfrac{9}{14}\) ⇒ \(\tfrac{2}{3}\)

Ułamki dziesiętne

Ćwiczenia
  1. \(0.25+0.4\) ⇒ \(0.65\)
  2. \(1.2-0.35\) ⇒ \(0.85\)
  3. \(0.5\cdot 0.2\) ⇒ \(0.10\)
  4. \(1.8:0.6\) ⇒ \(3\)
  5. \(0.375\rightarrow u\lamek\) ⇒ \(\tfrac{3}{8}\)
  6. \(2.75=\ ?\) ⇒ \(\tfrac{11}{4}\)
  7. \(0.125\cdot 0.08\) ⇒ \(0.010\)
  8. \(3.14+2.006\) ⇒ \(5.146\)
  9. \(1.2\cdot 1.2\) ⇒ \(1.44\)
  10. \(0.99\cdot 100\) ⇒ \(99\)

Procenty

Ćwiczenia
  1. \(25\%\ z\ 80\) ⇒ \(20\)
  2. \(Podwy\.z{}ka\ o\ 10\%\ z\ 120\) ⇒ \(132\)
  3. \(Obni\.z{}ka\ o\ 15\%\ z\ 200\) ⇒ \(170\)
  4. \(120\%\ z\ 50\) ⇒ \(60\)
  5. \(Cena 100 \rightarrow +5\% \rightarrow ?\) ⇒ \(105\)
  6. \(Cena 100 \rightarrow -10\% \rightarrow ?\) ⇒ \(90\)
  7. \(Inflacja\ 12\%\ z\ 2500\) ⇒ \(2800\)
  8. \(Rabat\ 30\%\ z\ 420\) ⇒ \(294\)
  9. \(Zysk\ 20\%\ z\ 150\) ⇒ \(180\)
  10. \(Podatek\ 23\%\ od\ 100\ (brutto?)\) ⇒ \(123\)

Równania liniowe

Ćwiczenia
  1. \(2x+5=11\) ⇒ \(x=3\)
  2. \(7-3x=1\) ⇒ \(x=2\)
  3. \(4(x-2)=8\) ⇒ \(x=4\)
  4. \(3x-2=2x+5\) ⇒ \(x=7\)
  5. \(\tfrac{x}{3}=5\) ⇒ \(x=15\)
  6. \(5x-3=2x+12\) ⇒ \(x=5\)
  7. \(9-2x=3x+4\) ⇒ \(x=1\)
  8. \(7(x-1)=x+11\) ⇒ \(x=3\)
  9. \(2(x+5)=x-1\) ⇒ \(x=-11\)
  10. \(6-2(x-3)=x\) ⇒ \(x=4\)

Nierówności liniowe

Ćwiczenia
  1. \(3x-2>7\) ⇒ \(x>3\)
  2. \(5-2x\leq 1\) ⇒ \(x\geq 2\)
  3. \(4-x<3\) ⇒ \(x>1\)
  4. \(2(x-1)\geq 6\) ⇒ \(x\geq 4\)
  5. \(-x\leq 2\) ⇒ \(x\geq -2\)
  6. \(7-3x>1\) ⇒ \(x<2\)
  7. \(2x+5\ge 9\) ⇒ \(x\ge 2\)
  8. \(-2(3-x)<4\) ⇒ \(x<5\)
  9. \(\tfrac{x}{4}\le 3\) ⇒ \(x\le 12\)
  10. \(1-2x\ge -7\) ⇒ \(x\le 4\)

Proporcjonalność

Ćwiczenia
  1. \(y=3x\ (x=5)\) ⇒ \(y=15\)
  2. \(\tfrac{a}{b}=\tfrac{2}{5},\ b=20\) ⇒ \(a=8\)
  3. \(W ciągu: 4\to 10=\ ?\ (proporcja)\) ⇒ \(25\)
  4. \(Skala\ 1{:}50{\,}000,\ 7\,cm?\) ⇒ \(3.5\,km\)
  5. \(Mieszanki:\ 30\%\ \&\ 10\%\ \rightarrow 20\%\) ⇒ \(1{:}1\)
  6. \(Prędkość:\ 60\ \mathrm{km/h},\ 2\,h\) ⇒ \(120\,\mathrm{km}\)
  7. \(Czas\ odwrotnie\ do\ prac.\ 3\ osoby\) ⇒ \(więcej\ osób\ \Rightarrow\ krócej\)
  8. \(Skala\ mapy\ 1{:}25\,000,\ 12\,cm\) ⇒ \(3\,km\)
  9. \(Cena\ 1\,kg=8zł,\ 750\,g\) ⇒ \(6zł\)
  10. \(Zegary:\ minuty\ do\ godzin\) ⇒ \(1:60\)

Funkcje i wykresy (podstawy)

Ćwiczenia
  1. \(f(x)=2x+1,\ f(3)\) ⇒ \(7\)
  2. \(Miejsce zerowe 3x-6\) ⇒ \(x=2\)
  3. \(Nachylenie 5x-4\) ⇒ \(5\)
  4. \(Przesunięcie w górę: y=x^2+3\) ⇒ \(o\ 3\)
  5. \(Symetria: y=-(x-1)^2\) ⇒ \(o\ OX\)
  6. \(Monotoniczność\ 2x-1\) ⇒ \(rosnąca\)
  7. \(Wartość\ maks.\ y=-x^2+4\) ⇒ \(4\ (w\ x=0)\)
  8. \(Dziedzina\ y=\tfrac{1}{x-2}\) ⇒ \(\mathbb{R}\setminus\{2\}\)
  9. \(Parabola:\ oś\ symetrii\ y=(x-3)^2\) ⇒ \(x=3\)
  10. \(Wartość wierzchołka\ (x-1)^2-5\) ⇒ \((1,-5)\)

Geometria płaska

Ćwiczenia
  1. \(P_{prost}=8\cdot 5\) ⇒ \(40\)
  2. \(Obwód\ trójkąta\ (3,4,5)\) ⇒ \(12\)
  3. \(P_{koła}=\pi r^2,\ r=3\) ⇒ \(9\pi\)
  4. \(P_{trój}=\tfrac{1}{2}ah,\ a=6,h=4\) ⇒ \(12\)
  5. \(Tw.\ Pitagorasa:\ ?\ (3,4,?)\) ⇒ \(5\)
  6. \(Kąt\ wewn.\ wielokąta\ foremnego\ n=6\) ⇒ \(120^\circ\)
  7. \(Pole\ rombu\ d_1=6,d_2=8\) ⇒ \(24\)
  8. \(Pole\ trapezu\ a=5,b=7,h=4\) ⇒ \(24\)
  9. \(Promień\ okręgu\ z\ obwodu=10\pi\) ⇒ \(5\)
  10. \(Kąt środkowy\ 60^\circ,\ łuk\ r=3\) ⇒ \(3\pi\)

Geometria przestrzenna

Ćwiczenia
  1. \(V_{prostop}=abc,\ 2\times 3\times 4\) ⇒ \(24\)
  2. \(V_{sześc}=a^3,\ a=3\) ⇒ \(27\)
  3. \(V_{stożka}=\tfrac{1}{3}\pi r^2h,\ r=2,h=9\) ⇒ \(12\pi\)
  4. \(V_{kuli}=\tfrac{4}{3}\pi r^3,\ r=1\) ⇒ \(\tfrac{4}{3}\pi\)
  5. \(Pole boczne walca: 2\pi rh,\ r=3,h=5\) ⇒ \(30\pi\)
  6. \(Przekątna\ sześcianu\ a=2\) ⇒ \(2\sqrt{3}\)
  7. \(Siatka\ walca:\ dwa\ koła + prostokąt\) ⇒ \(OK\)
  8. \(V\ graniastosłupa\ P_p=12,\ h=5\) ⇒ \(60\)
  9. \(Kula:\ pole\ S=4\pi r^2,\ r=3\) ⇒ \(36\pi\)
  10. \(Stożek:\ tworząca\ l=13,r=5\) ⇒ \(h=12\)

Statystyka opisowa

Ćwiczenia
  1. \(\text{Średnia}\ (2,5,9)\) ⇒ \(\tfrac{16}{3}\)
  2. \(\text{Mediana}\ (1,4,8,10)\) ⇒ \(6\)
  3. \(\text{Modalna}\ (2,2,3,3,3,9)\) ⇒ \(3\)
  4. \(Rozstęp\ (5,14,7)\) ⇒ \(9\)
  5. \(Wariancja\ (1,2,3)\) ⇒ \(\tfrac{2}{3}\)
  6. \(Odch.\ stand.\ (1,2,3)\) ⇒ \(\sqrt{\tfrac{2}{3}}\)
  7. \(Kwantyl\ Q_2\) ⇒ \(mediana\)
  8. \(Percentyl\ 90\%\) ⇒ \(wartość\ odcinająca\ 90\%\)
  9. \(Łączna\ częstość\ skumulowana\) ⇒ \(rośnie\ do\ 1\)
  10. \(Histogram\ —\ oś\ X/Y\) ⇒ \(klasy\ /\ częstości\)

Kombinatoryka (podstawy)

Ćwiczenia
  1. \(\binom{5}{2}\) ⇒ \(10\)
  2. \(5!\) ⇒ \(120\)
  3. \(Permutacje\ 3\ liter\) ⇒ \(6\)
  4. \(Wariacje\ bez powt.\ V^2_4\) ⇒ \(12\)
  5. \(Prawd.\ monety\) ⇒ \(\tfrac{1}{2}\)
  6. \(Permutacje\ z\ powt.\ (AAB)\) ⇒ \(3!/2!=3\)
  7. \(\binom{10}{0}\) ⇒ \(1\)
  8. \(\binom{10}{1}\) ⇒ \(10\)
  9. \(\binom{10}{9}\) ⇒ \(10\)
  10. \(\binom{10}{10}\) ⇒ \(1\)

Matura

Zakres rozszerzony
Maturalne powtórki i zadania Mini-arkusz dnia ►
ANOVA — model i test

\(\text{SST}=\text{SSB}+\text{SSW}\), \(F=\dfrac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}\).

Regresja liniowa (MNK)
  • \(a^*=\dfrac{S_{xy}}{S_{xx}}\), \(b^*=\bar y-a^*\bar x\)
  • \(\hat\sigma^2=\text{SSE}/(n-2)\), \(R^2=1-\text{SSE}/\text{SST}\)
Przedział ufności dla \(\theta\) w \(U(0,\theta)\)

\([M/0.975^{1/n},\,M/0.025^{1/n}]\); górny: \([M,\,M/0.05^{1/n}]\).

I. Model analizy wariancji (ANOVA) — „podaj model”

Jednoczynnikowa ANOVA: \[ Y_{ij}=\mu+\tau_i+\varepsilon_{ij},\quad \sum_{i=1}^k \tau_i=0,\quad \varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2)\ \text{niezależne}. \] Hipotezy: \(H_0:\ \tau_1=\cdots=\tau_k=0\) vs \(H_1:\) co najmniej jedna \(\tau_i\neq 0\).

Sumy kwadratów: \(\text{SST}=\sum_{ij}(y_{ij}-\bar y)^2=\text{SSB}+\text{SSW}\). Statystyka: \[ F=\frac{\text{MSB}}{\text{MSW}}=\frac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}. \]

Interpretacja: duże \(F\) ⇒ grupy różnią się średnimi; małe \(p\) ⇒ odrzucamy \(H_0\).

II. Regresja liniowa (MNK) — wzory robocze
  • \(\bar x=\frac{1}{n}\sum x_i,\ \bar y=\frac{1}{n}\sum y_i\)
  • \(S_{xx}=\sum (x_i-\bar x)^2,\quad S_{xy}=\sum (x_i-\bar x)(y_i-\bar y)\)
  • Parametry: \(a^*=\frac{S_{xy}}{S_{xx}},\quad b^*=\bar y-a^*\bar x\)
  • Reszty: \(e_i=y_i-\hat y_i\), \(\text{SSE}=\sum e_i^2\), \(\hat\sigma^2=\text{SSE}/(n-2)\)
  • Dopasowanie: \(R^2=1-\dfrac{\text{SSE}}{\sum (y_i-\bar y)^2}\)
III. Dekompozycja wariancji w regresji + test ogólny

\(\text{SST}=\text{SSR}+\text{SSE}\), gdzie \(\text{SSR}=\sum(\hat y_i-\bar y)^2\) (wyjaśniona), \(\text{SSE}=\sum(y_i-\hat y_i)^2\) (niewyjaśniona).

Test istotności całej regresji: \[ F=\frac{\text{SSR}/1}{\text{SSE}/(n-2)} \sim F_{1,n-2}\quad \text{(pod }H_0: a=0\text{)}. \]

IV. Przedziały i testy dla \(a,b\)

Odchylenia standardowe

\[ \operatorname{SE}(a)=\sqrt{\frac{\hat\sigma^2}{S_{xx}}},\quad \operatorname{SE}(b)=\sqrt{\hat\sigma^2\!\left(\frac{1}{n}+\frac{\bar x^2}{S_{xx}}\right)}. \]

Test t

\[ t_a=\frac{a^*}{\operatorname{SE}(a)},\quad t_b=\frac{b^*}{\operatorname{SE}(b)} \ \sim \ t_{n-2}. \]

Przedziały 95%

\[ a^*\pm t_{0.975,n-2}\operatorname{SE}(a),\quad b^*\pm t_{0.975,n-2}\operatorname{SE}(b). \]

V. Przewidywanie: średnia odpowiedź vs. nowa obserwacja

Dla punktu \(x_0\):

  • Średnia odpowiedź \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
  • Nowa pojedyncza obserwacja \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{1+\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
VI. Diagnostyka reszt (normalność, stała wariancja, niezależność)

Normalność

QQ-plot, test Shapiro–Wilka. Jeśli ogony odstają — rozważ transformację lub metody odporne.

Heteroskedastyczność

Wykres \(e_i\) vs \(\hat y_i\). Test Breuscha–Pagana: \(\mathrm{BP}\sim \chi^2\) — istotny sygnał ⇒ rozważ WLS/HCSE.

Autokorelacja

Durbin–Watson: \[ \mathrm{DW}=\frac{\sum_{i=2}^n(e_i-e_{i-1})^2}{\sum_{i=1}^ne_i^2}\approx 2 \] ⇒ brak autokorelacji.

VII. Punkty wpływowe i dźwignia
  • Macierz „hat”: \(\mathbf{H}=\mathbf{X}(X^TX)^{-1}X^T\), dźwignia \(h_{ii}\in(0,1)\).
  • Standaryzowane reszty: \(r_i=\frac{e_i}{\hat\sigma\sqrt{1-h_{ii}}}\).
  • Cook’s distance: \[ D_i=\frac{e_i^2}{2\hat\sigma^2}\cdot \frac{h_{ii}}{(1-h_{ii})^2}. \] Duże \(D_i\) ⇒ obserwacja silnie wpływa na model.
VIII. 95% CI dla \(\theta\) w \(U(0,\theta)\)

Jeśli \(X_1,\dots,X_n\stackrel{iid}{\sim}U(0,\theta)\), a \(M=\max X_i\), to \(\mathbb{P}(M\le m)=(m/\theta)^n\). Stąd \[ \text{CI}_{95\%}^{dw}=\Big[\,\tfrac{M}{0.975^{1/n}},\ \tfrac{M}{0.025^{1/n}}\,\Big],\qquad \text{CI}_{95\%}^{górny}=\Big[\,M,\ \tfrac{M}{0.05^{1/n}}\,\Big]. \] Estymator MLE: \(\hat\theta=M\).

IX. Szybkie pojęcia

Błąd I/II rodzaju

Odrzucono \(H_0\), gdy prawdziwy (I); nie odrzucono, gdy fałszywy (II).

Poziom istotności \(\alpha\)

Szansa błędu I; typowo \(0.05\) lub \(0.01\).

p-value

Prawdopodobieństwo tak „skrajnych” danych przy założeniu \(H_0\).

Premium: Zestaw rozszerzony

Zadania typu „udowodnij”, mix krótkich odpowiedzi i zadań otwartych.

Ciągi liczbowe

Ćwiczenia
  1. \(a_1=3,\ q=2 \Rightarrow a_4\) ⇒ \(24\)
  2. \(a_1=5,\ r=-3 \Rightarrow a_6\) ⇒ \(-10\)
  3. \(S_5\ (geom),\ a_1=1,\ q=3\) ⇒ \(121\)
  4. \(S_4\ (aryt),\ a_1=2,\ r=3\) ⇒ \(26\)
  5. \(Zbieżność:\ q=\tfrac{1}{2}\) ⇒ \(zbieżny\)
  6. \(a_n=2n+1,\ a_{10}\) ⇒ \(21\)
  7. \(a_n=3\cdot 2^{n-1},\ a_7\) ⇒ \(192\)
  8. \(S_n\ arytm.:\ n=20,\ a_1=4,\ r=2\) ⇒ \(460\)
  9. \(Różnica\ r\ z\ a_5=17,\ a_1=1\) ⇒ \(r=4\)
  10. \(Iloraz\ q\ z\ a_1=81,\ a_5=3\) ⇒ \(q=\tfrac{1}{3}\)

Funkcja kwadratowa

Ćwiczenia
  1. \(x^2-5x+6=0\) ⇒ \(x=2,\,3\)
  2. \(wierzchołek:\ y=-(x-1)^2+4\) ⇒ \((1,4)\)
  3. \(\Delta:\ 9-4\cdot 1\cdot 2\) ⇒ \(1\)
  4. \(oś\ symetrii:\ y=ax^2+bx+c,\ x=-\tfrac{b}{2a}\) ⇒ \(wzór\)
  5. \(Miejsca zerowe\ 2x^2-8\) ⇒ \(x=\pm 2\)
  6. \(Przecięcie\ z\ OY:\ y=ax^2+bx+c\) ⇒ \(c\)
  7. \(kierunek\ ramion\ a>0\) ⇒ \(w\ górę\)
  8. \(Suma\ pierwiastków:\ x_1+x_2\) ⇒ \(\tfrac{b}{a}(-)\)
  9. \(Iloczyn\ pierwiastków\) ⇒ \(\tfrac{c}{a}\)
  10. \(War.\ \Delta<0\) ⇒ \(brak\ miejsc\ zerowych\)

Wykładnicze i logarytmiczne

Ćwiczenia
  1. \(2^x=8\) ⇒ \(x=3\)
  2. \(\log_3 81\) ⇒ \(4\)
  3. \(\ln e^5\) ⇒ \(5\)
  4. \(3^{x+1}=27\) ⇒ \(x=2\)
  5. \(\log a + \log b\) ⇒ \(\log (ab)\)
  6. \(\log_b a = \tfrac{\ln a}{\ln b}\) ⇒ \(zmiana\ podstawy\)
  7. \(e^{\ln x}\) ⇒ \(x\)
  8. \(\ln(xy)\) ⇒ \(\ln x + \ln y\)
  9. \(\log_2 \tfrac{1}{8}\) ⇒ \(-3\)
  10. \(a^{\log_a b}\) ⇒ \(b\)

Trygonometria

Ćwiczenia
  1. \(\sin 30^\circ\) ⇒ \(\tfrac{1}{2}\)
  2. \(\cos 60^\circ\) ⇒ \(\tfrac{1}{2}\)
  3. \(\tan 45^\circ\) ⇒ \(1\)
  4. \(\sin^2\alpha+\cos^2\alpha\) ⇒ \(1\)
  5. \(\sin(2\alpha)\) ⇒ \(2\sin\alpha\cos\alpha\)
  6. \(\cos(2\alpha)\) ⇒ \(\cos^2\alpha-\sin^2\alpha\)
  7. \(\tan(2\alpha)\) ⇒ \(\tfrac{2\tan\alpha}{1-\tan^2\alpha}\)
  8. \(\sin(\alpha+\beta)\) ⇒ \(\sin\alpha\cos\beta+\cos\alpha\sin\beta\)
  9. \(\cos(\alpha+\beta)\) ⇒ \(\cos\alpha\cos\beta-\sin\alpha\sin\beta\)
  10. \(Radiany:\ 180^\circ\) ⇒ \(\pi\)

Geometria analityczna

Ćwiczenia
  1. \(Prosta\ przez\ (0,2),\ k=3\) ⇒ \(y=3x+2\)
  2. \(Odległość\ A(1,1),B(4,5)\) ⇒ \(5\)
  3. \(Okrąg:\ (x-2)^2+(y+1)^2=9\) ⇒ \(r=3\)
  4. \(Kąt między prostymi,\ k_1=1,\ k_2=-1\) ⇒ \(90^\circ\)
  5. \(Wektor\ AB(2,3)+BC(1,-1)\) ⇒ \((3,2)\)
  6. \(Iloczyn skalarny\) ⇒ \(x_1x_2+y_1y_2\)
  7. \(Równanie prostej\ Ax+By+C=0,\ k?\) ⇒ \(-A/B\)
  8. \(Punkt\ przecięcia\ dwóch\ prostych\) ⇒ \(układ\ równań\)
  9. \(Środek\ odcinka\ A,B\) ⇒ \((\tfrac{x_A+x_B}{2},\tfrac{y_A+y_B}{2})\)
  10. \(Długość\ wektora\ (a,b)\) ⇒ \(\sqrt{a^2+b^2}\)

Kombinatoryka i prawdopodobieństwo

Ćwiczenia
  1. \(\binom{10}{3}\) ⇒ \(120\)
  2. \(P(\text{moneta 2x orzeł})\) ⇒ \(\tfrac{1}{4}\)
  3. \(Permutacje\ z powt.:\ \tfrac{7!}{3!2!}\) ⇒ \(420\)
  4. \(P(A\cup B)=P(A)+P(B)-P(A\cap B)\) ⇒ \(wzór\)
  5. \(Wariancja\ Bernoulliego\ p\) ⇒ \(p(1-p)\)
  6. \(Niezależność:\ P(A\cap B)\) ⇒ \(P(A)P(B)\)
  7. \(Warunkowe:\ P(A|B)\) ⇒ \(\tfrac{P(A\cap B)}{P(B)}\)
  8. \(Drzewo\ prawdopodobieństw\) ⇒ \(iloczyny\ po\ gałęziach\)
  9. \(Rozkład\ dwumianowy\) ⇒ \(B(n,p)\)
  10. \(Wartość\ oczekiwana\ B(n,p)\) ⇒ \(np\)

Liczby zespolone

Ćwiczenia
  1. \(i^2\) ⇒ \(-1\)
  2. \(|3+4i|\) ⇒ \(5\)
  3. \((1+i)^2\) ⇒ \(2i\)
  4. \(\overline{2-5i}\) ⇒ \(2+5i\)
  5. \(e^{i\pi}+1\) ⇒ \(0\)
  6. \(z\bar z\) ⇒ \(|z|^2\)
  7. \(\arg(-1)\) ⇒ \(\pi\)
  8. \(\Re(2-3i)\) ⇒ \(2\)
  9. \(\Im(2-3i)\) ⇒ \(-3\)
  10. \((a+bi)(c+di)\) ⇒ \((ac-bd)+(ad+bc)i\)

Granice i ciągłość

Ćwiczenia
  1. \(\lim_{x\to 0} \frac{\sin x}{x}\) ⇒ \(1\)
  2. \(\lim_{n\to\infty} \frac{1}{n}\) ⇒ \(0\)
  3. \(ciąg\ (\tfrac{1}{2})^n\) ⇒ \(zbieżny\ do\ 0\)
  4. \(Lewo/prawo\ x\to 0\ |x|\) ⇒ \(obie\ 0\)
  5. \(Usunięta\ nieciągłość\) ⇒ \(można\ dopełnić\)
  6. \(Nieskończona\ nieciągłość\) ⇒ \(asymptota\)
  7. \(\lim_{x\to\infty} \tfrac{2x^2+1}{x^2-3x}\) ⇒ \(2\)
  8. \(Asymptota\ ukośna\ \tfrac{x^2+1}{x}\) ⇒ \(y=x\)
  9. \(Epsilon-delta\ (intuicja)\) ⇒ \(przybliżanie\ wartości\)
  10. \(\lim_{x\to 0}\tfrac{e^x-1}{x}\) ⇒ \(1\)

Pochodne

Ćwiczenia
  1. \((x^3)'\) ⇒ \(3x^2\)
  2. \((\sin x)'\) ⇒ \(\cos x\)
  3. \((e^x)'\) ⇒ \(e^x\)
  4. \((\ln x)'\) ⇒ \(\tfrac{1}{x}\)
  5. \((x e^x)'\) ⇒ \(e^x(x+1)\)
  6. \(Łańcuch:\ (f\circ g)'\) ⇒ \(f^\prime(g)\cdot g^\prime\)
  7. \(Iloczyn:\ (uv)'\) ⇒ \(u'v+uv'\)
  8. \(Quotient:\ (\tfrac{u}{v})'\) ⇒ \(\tfrac{u'v-uv'}{v^2}\)
  9. \(Ekstremum\ —\ warunek\) ⇒ \(f^\prime=0,\ f^{\prime\prime}\gtrless 0\)
  10. \(Monotoniczność\ z\ znaku\ f'\) ⇒ \(f\ rośnie/spada\)

Całki

Ćwiczenia
  1. \(\int x\,dx\) ⇒ \(\tfrac{x^2}{2}+C\)
  2. \(\int_0^1 x^2\,dx\) ⇒ \(\tfrac{1}{3}\)
  3. \(\int e^x\,dx\) ⇒ \(e^x+C\)
  4. \(\int \cos x\,dx\) ⇒ \(\sin x+C\)
  5. \(\int 2x e^{x^2} dx\) ⇒ \(e^{x^2}+C\)
  6. \(\int \tfrac{1}{x}\,dx\) ⇒ \(\ln|x|+C\)
  7. \(\int \tfrac{1}{1+x^2}\,dx\) ⇒ \(\arctan x + C\)
  8. \(Części:\ \int u\,dv\) ⇒ \(uv-\int v\,du\)
  9. \(Podstawianie:\ u=g(x)\) ⇒ \(\int f(g)g'=\int f(u)du\)
  10. \(Pole\ pod\ sinusoidą\ [0,\pi]\) ⇒ \(2\)

Równania i nierówności z wartością bezwzględną

Ćwiczenia
  1. \(|x-3|=5\) ⇒ \(x=8\ \text{lub}\ x=-2\)
  2. \(|2x|<6\) ⇒ \(-3
  3. \(|x+1|\ge 4\) ⇒ \(x\le -5\ \text{lub}\ x\ge 3\)
  4. \(|x|=0\) ⇒ \(x=0\)
  5. \(|x-2|<1\) ⇒ \(1
  6. \(|3-x|\le 7\) ⇒ \(-4\le x\le 10\)
  7. \(|x|>2\) ⇒ \(x<-2\ \text{lub}\ x>2\)
  8. \(|x+4|=|2x-1|\) ⇒ \(dwa\ przypadki\ →\ x=-5,\ x=\tfrac{5}{3}\)
  9. \(|x-1|+|x+1|\) ⇒ \(funkcja\ odcinkami\)
  10. \(|ax+b|=c\) ⇒ \(war.\ c\ge 0\)

Geometria płaska (maturalna)

Ćwiczenia
  1. \(Pole\ trójkąta\ 13,14,15\) ⇒ \(84\ (Heron)\)
  2. \(Cosinusowy:\ c^2=a^2+b^2-2ab\cos\gamma\) ⇒ \(wzór\)
  3. \(Okrąg wpisany w trójkąt prosty\) ⇒ \(r=\tfrac{a+b-c}{2}\)
  4. \(Sinusowy:\ \tfrac{a}{\sin\alpha}=2R\) ⇒ \(wzór\)
  5. \(Pole\ koła\ r=5\) ⇒ \(25\pi\)
  6. \(Pole\ wycinka\ \alpha=60^\circ,\ r=6\) ⇒ \(6\pi\)
  7. \(Rzut\ punktu\ na\ prostą\) ⇒ \(prostopadła\)
  8. \(Kąt\ między\ wektorami\ u\cdot v\) ⇒ \(\cos\theta=\tfrac{u\cdot v}{\|u\|\|v\|}\)
  9. \(Równanie\ okręgu\ z\ średnicy\) ⇒ \(okrąg\ Thalesa\)
  10. \(Tw.\ Ptolemeusza\) ⇒ \(dla\ czworokąta\ wpisanego\)

Arkusze maturalne

Mock zestawy
Arkusze — zadania i odpowiedzi Generator mini-arkusza ►
ANOVA — model i test

\(\text{SST}=\text{SSB}+\text{SSW}\), \(F=\dfrac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}\).

Regresja liniowa (MNK)
  • \(a^*=\dfrac{S_{xy}}{S_{xx}}\), \(b^*=\bar y-a^*\bar x\)
  • \(\hat\sigma^2=\text{SSE}/(n-2)\), \(R^2=1-\text{SSE}/\text{SST}\)
Przedział ufności dla \(\theta\) w \(U(0,\theta)\)

\([M/0.975^{1/n},\,M/0.025^{1/n}]\); górny: \([M,\,M/0.05^{1/n}]\).

I. Model analizy wariancji (ANOVA) — „podaj model”

Jednoczynnikowa ANOVA: \[ Y_{ij}=\mu+\tau_i+\varepsilon_{ij},\quad \sum_{i=1}^k \tau_i=0,\quad \varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2)\ \text{niezależne}. \] Hipotezy: \(H_0:\ \tau_1=\cdots=\tau_k=0\) vs \(H_1:\) co najmniej jedna \(\tau_i\neq 0\).

Sumy kwadratów: \(\text{SST}=\sum_{ij}(y_{ij}-\bar y)^2=\text{SSB}+\text{SSW}\). Statystyka: \[ F=\frac{\text{MSB}}{\text{MSW}}=\frac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}. \]

Interpretacja: duże \(F\) ⇒ grupy różnią się średnimi; małe \(p\) ⇒ odrzucamy \(H_0\).

II. Regresja liniowa (MNK) — wzory robocze
  • \(\bar x=\frac{1}{n}\sum x_i,\ \bar y=\frac{1}{n}\sum y_i\)
  • \(S_{xx}=\sum (x_i-\bar x)^2,\quad S_{xy}=\sum (x_i-\bar x)(y_i-\bar y)\)
  • Parametry: \(a^*=\frac{S_{xy}}{S_{xx}},\quad b^*=\bar y-a^*\bar x\)
  • Reszty: \(e_i=y_i-\hat y_i\), \(\text{SSE}=\sum e_i^2\), \(\hat\sigma^2=\text{SSE}/(n-2)\)
  • Dopasowanie: \(R^2=1-\dfrac{\text{SSE}}{\sum (y_i-\bar y)^2}\)
III. Dekompozycja wariancji w regresji + test ogólny

\(\text{SST}=\text{SSR}+\text{SSE}\), gdzie \(\text{SSR}=\sum(\hat y_i-\bar y)^2\) (wyjaśniona), \(\text{SSE}=\sum(y_i-\hat y_i)^2\) (niewyjaśniona).

Test istotności całej regresji: \[ F=\frac{\text{SSR}/1}{\text{SSE}/(n-2)} \sim F_{1,n-2}\quad \text{(pod }H_0: a=0\text{)}. \]

IV. Przedziały i testy dla \(a,b\)

Odchylenia standardowe

\[ \operatorname{SE}(a)=\sqrt{\frac{\hat\sigma^2}{S_{xx}}},\quad \operatorname{SE}(b)=\sqrt{\hat\sigma^2\!\left(\frac{1}{n}+\frac{\bar x^2}{S_{xx}}\right)}. \]

Test t

\[ t_a=\frac{a^*}{\operatorname{SE}(a)},\quad t_b=\frac{b^*}{\operatorname{SE}(b)} \ \sim \ t_{n-2}. \]

Przedziały 95%

\[ a^*\pm t_{0.975,n-2}\operatorname{SE}(a),\quad b^*\pm t_{0.975,n-2}\operatorname{SE}(b). \]

V. Przewidywanie: średnia odpowiedź vs. nowa obserwacja

Dla punktu \(x_0\):

  • Średnia odpowiedź \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
  • Nowa pojedyncza obserwacja \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{1+\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
VI. Diagnostyka reszt (normalność, stała wariancja, niezależność)

Normalność

QQ-plot, test Shapiro–Wilka. Jeśli ogony odstają — rozważ transformację lub metody odporne.

Heteroskedastyczność

Wykres \(e_i\) vs \(\hat y_i\). Test Breuscha–Pagana: \(\mathrm{BP}\sim \chi^2\) — istotny sygnał ⇒ rozważ WLS/HCSE.

Autokorelacja

Durbin–Watson: \[ \mathrm{DW}=\frac{\sum_{i=2}^n(e_i-e_{i-1})^2}{\sum_{i=1}^ne_i^2}\approx 2 \] ⇒ brak autokorelacji.

VII. Punkty wpływowe i dźwignia
  • Macierz „hat”: \(\mathbf{H}=\mathbf{X}(X^TX)^{-1}X^T\), dźwignia \(h_{ii}\in(0,1)\).
  • Standaryzowane reszty: \(r_i=\frac{e_i}{\hat\sigma\sqrt{1-h_{ii}}}\).
  • Cook’s distance: \[ D_i=\frac{e_i^2}{2\hat\sigma^2}\cdot \frac{h_{ii}}{(1-h_{ii})^2}. \] Duże \(D_i\) ⇒ obserwacja silnie wpływa na model.
VIII. 95% CI dla \(\theta\) w \(U(0,\theta)\)

Jeśli \(X_1,\dots,X_n\stackrel{iid}{\sim}U(0,\theta)\), a \(M=\max X_i\), to \(\mathbb{P}(M\le m)=(m/\theta)^n\). Stąd \[ \text{CI}_{95\%}^{dw}=\Big[\,\tfrac{M}{0.975^{1/n}},\ \tfrac{M}{0.025^{1/n}}\,\Big],\qquad \text{CI}_{95\%}^{górny}=\Big[\,M,\ \tfrac{M}{0.05^{1/n}}\,\Big]. \] Estymator MLE: \(\hat\theta=M\).

IX. Szybkie pojęcia

Błąd I/II rodzaju

Odrzucono \(H_0\), gdy prawdziwy (I); nie odrzucono, gdy fałszywy (II).

Poziom istotności \(\alpha\)

Szansa błędu I; typowo \(0.05\) lub \(0.01\).

p-value

Prawdopodobieństwo tak „skrajnych” danych przy założeniu \(H_0\).

Premium: Rozwiązania zestawów

Wersja z komentarzem maturalnym i punktacją.

2024 — maj (poziom rozszerzony)

Zadania (przykłady)
  1. \(Wyznacz \lim_{x\to 0}\tfrac{e^x-1}{x}\) ⇒ \(1\)
  2. \(Równ.: 2\log_3 (x-1)=\log_3 9\) ⇒ \(x=4\)
  3. \(Pole figury z wykresu f(x)=|x|\) ⇒ \(1\)
  4. \(Ciąg\ aryt.: a_1=3,\ r=2 \Rightarrow S_{10}\) ⇒ \(110\)
  5. \(Styczna do y=x^2 w x=2\) ⇒ \(y=4x-4\)
  6. \(Liczba\ zespolona:\ |z|=5,\ \Re z=3\) ⇒ \(z=3\pm 4i\)
  7. \(Całka\ \int_0^1 (3x^2+1)dx\) ⇒ \(2\)
  8. \(Tryg.\ \sin(2\alpha)=?\) ⇒ \(2\sin\alpha\cos\alpha\)
  9. \(Logarytmy:\ \log a + \log b\) ⇒ \(\log(ab)\)
  10. \(Granica:\ \lim_{n\to\infty} \tfrac{n+1}{2n-3}\) ⇒ \(\tfrac{1}{2}\)

2023 — czerwiec (poziom podstawowy)

Zadania (przykłady)
  1. \(Oblicz \tfrac{3}{4}+\tfrac{1}{8}\) ⇒ \(\tfrac{7}{8}\)
  2. \(Procent: 80\to +10\%\) ⇒ \(88\)
  3. \(Wartość\ 2^5\) ⇒ \(32\)
  4. \(Pole prostokąta 5\times 7\) ⇒ \(35\)
  5. \(Miejsce zerowe 2x-6\) ⇒ \(x=3\)
  6. \(Równanie liniowe:\ 3x+9=0\) ⇒ \(x=-3\)
  7. \(Dziedzina:\ \tfrac{1}{x-4}\) ⇒ \(\mathbb{R}\setminus\{4\}\)
  8. \(Ułamki dzies.: 0.3+0.07\) ⇒ \(0.37\)
  9. \(Skala\ 1{:}100\,000,\ 5\,cm\) ⇒ \(5\,km\)
  10. \(Objętość\ sześcianu\ a=4\) ⇒ \(64\)

2022 — maj (rozszerzony)

Zadania (przykłady)
  1. \(Pochodna\ (\ln x)^2\) ⇒ \(\tfrac{2\ln x}{x}\)
  2. \(Całka\ \int_0^\pi \sin x\,dx\) ⇒ \(2\)
  3. \(Rozwiąż:\ |x-2|<3\) ⇒ \((-1,5)\)
  4. \(Wektor prostopadły do (2,-1)\) ⇒ \((-1,-2)\)
  5. \(Liczba zespolona:\ \Arg(-i)\) ⇒ \(-\tfrac{\pi}{2}\)
  6. \(Granica\ \lim_{x\to\infty}\tfrac{2x^2-1}{x^2+1}\) ⇒ \(2\)
  7. \(Szereg\ geom.:\ |r|<1\) ⇒ \(S=\tfrac{a}{1-r}\)
  8. \(Ciąg\ geom.:\ a_1=81,\ a_5=3\) ⇒ \(q=\tfrac{1}{3}\)
  9. \(Asymptota ukośna\ \tfrac{x^2+1}{x}\) ⇒ \(y=x\)
  10. \(Równanie\ okręgu\ z\ końców średnicy\) ⇒ \(okrąg\ Thalesa\)

Studia

Analiza, algebra, statystyka
Studia — spis tematów Wzory całkowe wybranych funkcji ►
ANOVA — model i test

\(\text{SST}=\text{SSB}+\text{SSW}\), \(F=\dfrac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}\).

Regresja liniowa (MNK)
  • \(a^*=\dfrac{S_{xy}}{S_{xx}}\), \(b^*=\bar y-a^*\bar x\)
  • \(\hat\sigma^2=\text{SSE}/(n-2)\), \(R^2=1-\text{SSE}/\text{SST}\)
Przedział ufności dla \(\theta\) w \(U(0,\theta)\)

\([M/0.975^{1/n},\,M/0.025^{1/n}]\); górny: \([M,\,M/0.05^{1/n}]\).

I. Model analizy wariancji (ANOVA) — „podaj model”

Jednoczynnikowa ANOVA: \[ Y_{ij}=\mu+\tau_i+\varepsilon_{ij},\quad \sum_{i=1}^k \tau_i=0,\quad \varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2)\ \text{niezależne}. \] Hipotezy: \(H_0:\ \tau_1=\cdots=\tau_k=0\) vs \(H_1:\) co najmniej jedna \(\tau_i\neq 0\).

Sumy kwadratów: \(\text{SST}=\sum_{ij}(y_{ij}-\bar y)^2=\text{SSB}+\text{SSW}\). Statystyka: \[ F=\frac{\text{MSB}}{\text{MSW}}=\frac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}. \]

Interpretacja: duże \(F\) ⇒ grupy różnią się średnimi; małe \(p\) ⇒ odrzucamy \(H_0\).

II. Regresja liniowa (MNK) — wzory robocze
  • \(\bar x=\frac{1}{n}\sum x_i,\ \bar y=\frac{1}{n}\sum y_i\)
  • \(S_{xx}=\sum (x_i-\bar x)^2,\quad S_{xy}=\sum (x_i-\bar x)(y_i-\bar y)\)
  • Parametry: \(a^*=\frac{S_{xy}}{S_{xx}},\quad b^*=\bar y-a^*\bar x\)
  • Reszty: \(e_i=y_i-\hat y_i\), \(\text{SSE}=\sum e_i^2\), \(\hat\sigma^2=\text{SSE}/(n-2)\)
  • Dopasowanie: \(R^2=1-\dfrac{\text{SSE}}{\sum (y_i-\bar y)^2}\)
III. Dekompozycja wariancji w regresji + test ogólny

\(\text{SST}=\text{SSR}+\text{SSE}\), gdzie \(\text{SSR}=\sum(\hat y_i-\bar y)^2\) (wyjaśniona), \(\text{SSE}=\sum(y_i-\hat y_i)^2\) (niewyjaśniona).

Test istotności całej regresji: \[ F=\frac{\text{SSR}/1}{\text{SSE}/(n-2)} \sim F_{1,n-2}\quad \text{(pod }H_0: a=0\text{)}. \]

IV. Przedziały i testy dla \(a,b\)

Odchylenia standardowe

\[ \operatorname{SE}(a)=\sqrt{\frac{\hat\sigma^2}{S_{xx}}},\quad \operatorname{SE}(b)=\sqrt{\hat\sigma^2\!\left(\frac{1}{n}+\frac{\bar x^2}{S_{xx}}\right)}. \]

Test t

\[ t_a=\frac{a^*}{\operatorname{SE}(a)},\quad t_b=\frac{b^*}{\operatorname{SE}(b)} \ \sim \ t_{n-2}. \]

Przedziały 95%

\[ a^*\pm t_{0.975,n-2}\operatorname{SE}(a),\quad b^*\pm t_{0.975,n-2}\operatorname{SE}(b). \]

V. Przewidywanie: średnia odpowiedź vs. nowa obserwacja

Dla punktu \(x_0\):

  • Średnia odpowiedź \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
  • Nowa pojedyncza obserwacja \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{1+\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
VI. Diagnostyka reszt (normalność, stała wariancja, niezależność)

Normalność

QQ-plot, test Shapiro–Wilka. Jeśli ogony odstają — rozważ transformację lub metody odporne.

Heteroskedastyczność

Wykres \(e_i\) vs \(\hat y_i\). Test Breuscha–Pagana: \(\mathrm{BP}\sim \chi^2\) — istotny sygnał ⇒ rozważ WLS/HCSE.

Autokorelacja

Durbin–Watson: \[ \mathrm{DW}=\frac{\sum_{i=2}^n(e_i-e_{i-1})^2}{\sum_{i=1}^ne_i^2}\approx 2 \] ⇒ brak autokorelacji.

VII. Punkty wpływowe i dźwignia
  • Macierz „hat”: \(\mathbf{H}=\mathbf{X}(X^TX)^{-1}X^T\), dźwignia \(h_{ii}\in(0,1)\).
  • Standaryzowane reszty: \(r_i=\frac{e_i}{\hat\sigma\sqrt{1-h_{ii}}}\).
  • Cook’s distance: \[ D_i=\frac{e_i^2}{2\hat\sigma^2}\cdot \frac{h_{ii}}{(1-h_{ii})^2}. \] Duże \(D_i\) ⇒ obserwacja silnie wpływa na model.
VIII. 95% CI dla \(\theta\) w \(U(0,\theta)\)

Jeśli \(X_1,\dots,X_n\stackrel{iid}{\sim}U(0,\theta)\), a \(M=\max X_i\), to \(\mathbb{P}(M\le m)=(m/\theta)^n\). Stąd \[ \text{CI}_{95\%}^{dw}=\Big[\,\tfrac{M}{0.975^{1/n}},\ \tfrac{M}{0.025^{1/n}}\,\Big],\qquad \text{CI}_{95\%}^{górny}=\Big[\,M,\ \tfrac{M}{0.05^{1/n}}\,\Big]. \] Estymator MLE: \(\hat\theta=M\).

IX. Szybkie pojęcia

Błąd I/II rodzaju

Odrzucono \(H_0\), gdy prawdziwy (I); nie odrzucono, gdy fałszywy (II).

Poziom istotności \(\alpha\)

Szansa błędu I; typowo \(0.05\) lub \(0.01\).

p-value

Prawdopodobieństwo tak „skrajnych” danych przy założeniu \(H_0\).

ANOVA — model i test

\(\text{SST}=\text{SSB}+\text{SSW}\), \(F=\dfrac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}\).

Regresja liniowa (MNK)
  • \(a^*=\dfrac{S_{xy}}{S_{xx}}\), \(b^*=\bar y-a^*\bar x\)
  • \(\hat\sigma^2=\text{SSE}/(n-2)\), \(R^2=1-\text{SSE}/\text{SST}\)
Przedział ufności dla \(\theta\) w \(U(0,\theta)\)

\([M/0.975^{1/n},\,M/0.025^{1/n}]\); górny: \([M,\,M/0.05^{1/n}]\).

I. Model analizy wariancji (ANOVA) — „podaj model”

Jednoczynnikowa ANOVA: \[ Y_{ij}=\mu+\tau_i+\varepsilon_{ij},\quad \sum_{i=1}^k \tau_i=0,\quad \varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2)\ \text{niezależne}. \] Hipotezy: \(H_0:\ \tau_1=\cdots=\tau_k=0\) vs \(H_1:\) co najmniej jedna \(\tau_i\neq 0\).

Sumy kwadratów: \(\text{SST}=\sum_{ij}(y_{ij}-\bar y)^2=\text{SSB}+\text{SSW}\). Statystyka: \[ F=\frac{\text{MSB}}{\text{MSW}}=\frac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}. \]

Interpretacja: duże \(F\) ⇒ grupy różnią się średnimi; małe \(p\) ⇒ odrzucamy \(H_0\).

II. Regresja liniowa (MNK) — wzory robocze
  • \(\bar x=\frac{1}{n}\sum x_i,\ \bar y=\frac{1}{n}\sum y_i\)
  • \(S_{xx}=\sum (x_i-\bar x)^2,\quad S_{xy}=\sum (x_i-\bar x)(y_i-\bar y)\)
  • Parametry: \(a^*=\frac{S_{xy}}{S_{xx}},\quad b^*=\bar y-a^*\bar x\)
  • Reszty: \(e_i=y_i-\hat y_i\), \(\text{SSE}=\sum e_i^2\), \(\hat\sigma^2=\text{SSE}/(n-2)\)
  • Dopasowanie: \(R^2=1-\dfrac{\text{SSE}}{\sum (y_i-\bar y)^2}\)
III. Dekompozycja wariancji w regresji + test ogólny

\(\text{SST}=\text{SSR}+\text{SSE}\), gdzie \(\text{SSR}=\sum(\hat y_i-\bar y)^2\) (wyjaśniona), \(\text{SSE}=\sum(y_i-\hat y_i)^2\) (niewyjaśniona).

Test istotności całej regresji: \[ F=\frac{\text{SSR}/1}{\text{SSE}/(n-2)} \sim F_{1,n-2}\quad \text{(pod }H_0: a=0\text{)}. \]

IV. Przedziały i testy dla \(a,b\)

Odchylenia standardowe

\[ \operatorname{SE}(a)=\sqrt{\frac{\hat\sigma^2}{S_{xx}}},\quad \operatorname{SE}(b)=\sqrt{\hat\sigma^2\!\left(\frac{1}{n}+\frac{\bar x^2}{S_{xx}}\right)}. \]

Test t

\[ t_a=\frac{a^*}{\operatorname{SE}(a)},\quad t_b=\frac{b^*}{\operatorname{SE}(b)} \ \sim \ t_{n-2}. \]

Przedziały 95%

\[ a^*\pm t_{0.975,n-2}\operatorname{SE}(a),\quad b^*\pm t_{0.975,n-2}\operatorname{SE}(b). \]

V. Przewidywanie: średnia odpowiedź vs. nowa obserwacja

Dla punktu \(x_0\):

  • Średnia odpowiedź \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
  • Nowa pojedyncza obserwacja \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{1+\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
VI. Diagnostyka reszt (normalność, stała wariancja, niezależność)

Normalność

QQ-plot, test Shapiro–Wilka. Jeśli ogony odstają — rozważ transformację lub metody odporne.

Heteroskedastyczność

Wykres \(e_i\) vs \(\hat y_i\). Test Breuscha–Pagana: \(\mathrm{BP}\sim \chi^2\) — istotny sygnał ⇒ rozważ WLS/HCSE.

Autokorelacja

Durbin–Watson: \[ \mathrm{DW}=\frac{\sum_{i=2}^n(e_i-e_{i-1})^2}{\sum_{i=1}^ne_i^2}\approx 2 \] ⇒ brak autokorelacji.

VII. Punkty wpływowe i dźwignia
  • Macierz „hat”: \(\mathbf{H}=\mathbf{X}(X^TX)^{-1}X^T\), dźwignia \(h_{ii}\in(0,1)\).
  • Standaryzowane reszty: \(r_i=\frac{e_i}{\hat\sigma\sqrt{1-h_{ii}}}\).
  • Cook’s distance: \[ D_i=\frac{e_i^2}{2\hat\sigma^2}\cdot \frac{h_{ii}}{(1-h_{ii})^2}. \] Duże \(D_i\) ⇒ obserwacja silnie wpływa na model.
VIII. 95% CI dla \(\theta\) w \(U(0,\theta)\)

Jeśli \(X_1,\dots,X_n\stackrel{iid}{\sim}U(0,\theta)\), a \(M=\max X_i\), to \(\mathbb{P}(M\le m)=(m/\theta)^n\). Stąd \[ \text{CI}_{95\%}^{dw}=\Big[\,\tfrac{M}{0.975^{1/n}},\ \tfrac{M}{0.025^{1/n}}\,\Big],\qquad \text{CI}_{95\%}^{górny}=\Big[\,M,\ \tfrac{M}{0.05^{1/n}}\,\Big]. \] Estymator MLE: \(\hat\theta=M\).

IX. Szybkie pojęcia

Błąd I/II rodzaju

Odrzucono \(H_0\), gdy prawdziwy (I); nie odrzucono, gdy fałszywy (II).

Poziom istotności \(\alpha\)

Szansa błędu I; typowo \(0.05\) lub \(0.01\).

p-value

Prawdopodobieństwo tak „skrajnych” danych przy założeniu \(H_0\).

Wynik modelu

Po wysłaniu zdjęcia pojawi się tu odpowiedź w sekcjach 0 / I / II / III + Legenda.

Rozwiązanie przykładu z fotografii — krok po kroku

Zad. 2 — wyznacz parametry regresji i sprawdź model

Dane: \(X=\begin{bmatrix}1\\2\\3\\4\end{bmatrix}\), \(Y=\begin{bmatrix}4.13\\8.66\\10.56\\11.89\end{bmatrix}\), \(n=4\).

  1. Średnie. \[ \bar x=\frac{1+2+3+4}{4}=\frac{10}{4}=2{.}5,\qquad \bar y=\frac{4.13+8.66+10.56+11.89}{4}=\frac{35.24}{4}=8.81. \]
  2. Policz \(S_{xx}\) i \(S_{xy}\) — wszystko „na piechotę”.
    \[ \begin{aligned} S_{xx} &= (1-2.5)^2+(2-2.5)^2+(3-2.5)^2+(4-2.5)^2 \\ &= 2.25+0.25+0.25+2.25 = 5.00,\\[6pt] S_{xy} &= (1-2.5)(4.13-8.81) + (2-2.5)(8.66-8.81) \\ &\quad + (3-2.5)(10.56-8.81) + (4-2.5)(11.89-8.81) \\ &= (-1.5)(-4.68) + (-0.5)(-0.15) + (0.5)(1.75) + (1.5)(3.08) \\ &= 7.02 + 0.075 + 0.875 + 4.62 = 12.59. \end{aligned} \]
  3. Parametry MNK. \[ a^*=\frac{S_{xy}}{S_{xx}}=\frac{12.59}{5}=2.518,\qquad b^*=\bar y-a^*\bar x=8.81-2.518\cdot 2.5=2.515. \] Prosta regresji: \(\hat y=2.518\,x+2.515\).
  4. Predykcje i reszty.
    \[ \begin{array}{c|c|c|c} x & \hat y=2.518x+2.515 & e=y-\hat y & e^2 \\ \hline 1 & 5.033 & 4.13-5.033=-0.903 & 0.815409 \\ 2 & 7.551 & 8.66-7.551= 1.109 & 1.229881 \\ 3 & 10.069 & 10.56-10.069=0.491 & 0.241081 \\ 4 & 12.587 & 11.89-12.587=-0.697 & 0.485809 \\ \end{array} \]
    \[ \text{SSE}=\sum e^2=0.815409+1.229881+0.241081+0.485809=2.77218. \] \(\hat\sigma^2=\text{SSE}/(n-2)=2.77218/2=1.38609\).
  5. Dopasowanie. \[ \text{SST}=\sum (y_i-\bar y)^2=34.4738,\quad R^2=1-\frac{\text{SSE}}{\text{SST}}=1-\frac{2.77218}{34.4738}\approx 0.9196. \] Około 92% zmienności wyjaśnione — bardzo dobre dopasowanie.
  6. Czy wykres z kartki to „ta” prosta? Jeśli przecina oś \(y\) w okolicach \(2.5\) i dla \(x=4\) sięga ~\(12.6\), to reprezentuje nasz model. Inaczej — to szkic poglądowy.
Zad. 3 — 95% przedział ufności dla \(\theta\) w \(U(0,\theta)\)

Dane: \(X=\begin{bmatrix}10\\2\\1\\1\end{bmatrix}\), \(n=4\), \(M=10\).

  1. Dwustronny 95%. \[ 0.975^{1/4}\approx 0.99369,\quad 0.025^{1/4}\approx 0.39764. \] \[ [L,U]=\Big[\tfrac{10}{0.99369},\tfrac{10}{0.39764}\Big]\approx [10.06,\ 25.15]. \]
  2. Jednostronny (górny) 95%. \[ 0.05^{1/4}\approx 0.47287,\quad [\,10,\ \tfrac{10}{0.47287}\,]\approx [10.00,\ 21.15]. \]
  3. Wyjaśnienie: używamy rozkładu \(M\) z dystrybuantą \((m/\theta)^n\).

Logika i zbiory

Ćwiczenia
  1. \(\neg(p \land q)\) ⇒ \(\neg p \lor \neg q\)
  2. \(A \subseteq B,\ B \subseteq C \Rightarrow ?\) ⇒ \(A \subseteq C\)
  3. \(|A \cup B|\) ⇒ \(|A| + |B| - |A \cap B|\)
  4. \(p \Rightarrow q \text{ równoważne }\) ⇒ \(\neg p \lor q\)
  5. \(R \circ S \text{ (skład relacji)}\) ⇒ \(\{(x,z): \exists y\, (xRy \land ySz)\}\)
  6. \(De Morgan dla zbiorów\) ⇒ \((A\cup B)^c = A^c \cap B^c\)
  7. \(Pełnia\ aksjomatów\ ZF?\) ⇒ \(Zermelo–Fraenkel\ (+AC)\)
  8. \(Kwantyfikatory:\ \forall,\ \exists\) ⇒ \(dla\ każdego,\ istnieje\)
  9. \(Równość\ zbiorów\) ⇒ \(A=B\ \Leftrightarrow\ A\subseteq B\ \land\ B\subseteq A\)
  10. \(Moc\ \mathbb{N}\ vs\ \mathbb{R}\) ⇒ \(przeliczalny\ vs\ continuum\)

Liczby zespolone (forma trygon.)

Ćwiczenia
  1. \(z = r(\cos\varphi + i\sin\varphi)\) ⇒ \(re^{i\varphi}\)
  2. \(z_1 z_2:\ r,\varphi\) ⇒ \(r_1 r_2,\ \varphi_1+\varphi_2\)
  3. \(|z|^2\) ⇒ \(z\bar z\)
  4. \(i^i\) ⇒ \(e^{-\pi/2}\)
  5. \(n\text{-te pierwiastki z }1\) ⇒ \(e^{2\pi i k/n}\)
  6. \(\arg(x+iy)\) ⇒ \(\operatorname{atan2}(y,x)\)
  7. \(Tw.\ de Moivre'a\) ⇒ \(( \cos\varphi+i\sin\varphi)^n = \cos(n\varphi)+i\sin(n\varphi)\)
  8. \(Konwersja:\ a+bi \leftrightarrow re^{i\varphi}\) ⇒ \(r=\sqrt{a^2+b^2}\)
  9. \(Odwrotność\ z\neq 0\) ⇒ \(\bar z/|z|^2\)
  10. \(Koło\ jednostkowe\) ⇒ \(|z|=1\)

Algebra liniowa: macierze

Ćwiczenia
  1. \((\mathbf{AB})^{-1}\) ⇒ \(\mathbf{B}^{-1}\mathbf{A}^{-1}\)
  2. \(\det(\mathbf{A}\mathbf{B})\) ⇒ \(\det\mathbf{A}\cdot\det\mathbf{B}\)
  3. \(\operatorname{rank}\) ⇒ \(\dim\text{(obraz)}\)
  4. \(Rzut ort. na V\) ⇒ \(\mathbf{P}_V=\mathbf{V}(\mathbf{V}^T\mathbf{V})^{-1}\mathbf{V}^T\)
  5. \(Norma Frobeniusa\) ⇒ \(\|\mathbf{A}\|_F = \sqrt{\sum a_{ij}^2}\)
  6. \(Ślad\) ⇒ \(\operatorname{tr}\mathbf{A}=\sum a_{ii}\)
  7. \(QR/SVD\) ⇒ \(dekompozycje\ ortogonalne\)
  8. \(Wartości własne\) ⇒ \(\det(\mathbf{A}-\lambda I)=0\)
  9. \(Diagonalizacja\) ⇒ \(A=PDP^{-1}\)
  10. \(Pozytywna\ określoność\) ⇒ \(x^TAx>0\)

Indukcja matematyczna

Ćwiczenia
  1. \(\sum_{k=1}^n k\) ⇒ \(n(n+1)/2\)
  2. \(\sum_{k=1}^n k^2\) ⇒ \(n(n+1)(2n+1)/6\)
  3. \(2^n > n\) ⇒ \(n\ge 1\)
  4. \(1+2+\cdots+2^n\) ⇒ \(2^{n+1}-1\)
  5. \(F_{n+2}F_{n}-F_{n+1}^2\) ⇒ \((-1)^{n+1}\)
  6. \(Silnia:\ n!\ge (n/e)^n\) ⇒ \(Stirling\)
  7. \(Podstawa\ +\ krok\ indukcyjny\) ⇒ \(schemat\ dowodu\)
  8. \(Indukcja\ silna\) ⇒ \(założenie\ do\ k,\ wniosek\ k+1\)
  9. \(Rekurencje\) ⇒ \(def.\ przez\ wzór\ na\ a_{n+1}\)
  10. \(Zastos.\ w\ nierównościach\) ⇒ \(np.\ Bernoulliego\)

Granice ciągów i funkcji

Ćwiczenia
  1. \(\lim_{x\to0} \frac{\sin x}{x}\) ⇒ \(1\)
  2. \(\lim (1+1/n)^n\) ⇒ \(e\)
  3. \(\lim x^{1/x}\) ⇒ \(1\)
  4. \(Hôpital:\ \lim \tfrac{0}{0}\) ⇒ \(\lim \tfrac{f^\prime}{g^\prime}\)
  5. \(Squeeze:\ \sin x \le x \le \tan x\) ⇒ \(x\to0\Rightarrow \sin x/x \to 1\)
  6. \(\lim_{n\to\infty}\sqrt[n]{n}\) ⇒ \(1\)
  7. \(\lim_{x\to\infty}\tfrac{2x+1}{x-3}\) ⇒ \(2\)
  8. \(Asymptoty:\ pion/poziom/ukośna\) ⇒ \(analiza\ granic\)
  9. \(Ciągłość\ funkcji\) ⇒ \(granica=wartość\)
  10. \(Szeregi\ potęgowe:\ promień\) ⇒ \(Cauchy–Hadamard\)

Rachunek różniczkowy

Ćwiczenia
  1. \(\tfrac{d}{dx}\sin x\) ⇒ \(\cos x\)
  2. \(\tfrac{d}{dx}\ln x\) ⇒ \(1/x\)
  3. \(Łańcuch:\ (f\circ g)^\prime\) ⇒ \(f^\prime(g)\cdot g^\prime\)
  4. \(Ekstrema — warunek\) ⇒ \(f^\prime=0,\ f^{\prime\prime}\gtrless 0\)
  5. \(Taylor\ 2 rzędu\) ⇒ \(f(a)+f^\prime(a)h+\tfrac12 f^{\prime\prime}(a)h^2\)
  6. \(Gradient\) ⇒ \(\nabla f = (\partial_{x_1}f,\dots)\)
  7. \(Kierunkowa\) ⇒ \(D_{\mathbf{u}}f=\nabla f\cdot \mathbf{u}\)
  8. \(Hesjan\) ⇒ \((\partial_{ij}f)\)
  9. \(Warunki\ konieczne\) ⇒ \(\nabla f=0\)
  10. \(Warunki\ dostateczne\) ⇒ \(H\succ 0/\prec 0\)

Rachunek całkowy

Ćwiczenia
  1. \(\int x^n dx\) ⇒ \(x^{n+1}/(n+1)+C\)
  2. \(\int e^{ax} dx\) ⇒ \(e^{ax}/a + C\)
  3. \(Części\) ⇒ \(\int u\,dv = uv-\int v\,du\)
  4. \(Podstawianie\) ⇒ \(\int f(g)g^\prime = \int f(u)du\)
  5. \(Pole\ pod\ krzywą\) ⇒ \(\int_a^b f(x)\,dx\)
  6. \(Dł. łuku\) ⇒ \(\int_a^b \sqrt{1+(y^\prime)^2}\,dx\)
  7. \(Całki\ nieoznaczone\) ⇒ \(rodzina\ funkcji\)
  8. \(Całki\ niewłaściwe\) ⇒ \(granice\ całkowania\ →\ \infty\)
  9. \(Zbieżność\ porównawcza\) ⇒ \(porówn.\ z\ wzorcami\)
  10. \(Transform.\ Fouriera (intuicja)\) ⇒ \(rozkład\ na\ częstotliwości\)

Szeregi liczbowe

Ćwiczenia
  1. \(\sum ar^n\) ⇒ \(a/(1-r),\ |r|<1\)
  2. \(d’Alembert\) ⇒ \(\lim|a_{n+1}/a_n|<1\)
  3. \(Całkowe\) ⇒ \(\int f < \infty \Rightarrow \sum f(n)\)
  4. \(Harmoniczny\) ⇒ \(\sum 1/n\ rozbieżny\)
  5. \(Alternujący (Leibniz)\) ⇒ \(monot.,\ do\ 0\Rightarrow zbieżny\)
  6. \(Abel/Dirichlet\) ⇒ \(wahania\ ograniczone\)
  7. \(Cauchy\ iloczyn\) ⇒ \(konwolucja\ szeregów\)
  8. \(Promień\ zbieżności\) ⇒ \(R=1/\limsup \sqrt[n]{|a_n|}\)
  9. \(Test\ porównawczy\) ⇒ \(0
  10. \(Test\ całkowy\ C–D\) ⇒ \(monot.\ dodatnia\)

Funkcje wielu zmiennych

Ćwiczenia
  1. \(\nabla f\) ⇒ \((\partial_x f,\partial_y f,\partial_z f)\)
  2. \(Hesjan\) ⇒ \((\partial_{ij}f)_{ij}\)
  3. \(Ekstremum lokalne\) ⇒ \(H>0 \Rightarrow \min,\ H<0 \Rightarrow \max\)
  4. \(Różniczka całkowita\) ⇒ \(df=\sum \partial_i f\, dx_i\)
  5. \(Warunek Lagrange’a\) ⇒ \(\nabla f=\lambda \nabla g\)
  6. \(Kierunkowa\) ⇒ \(D_{\mathbf{u}}f=\nabla f\cdot \mathbf{u}\)
  7. \(Krzywizna\ powierzchni\) ⇒ \(eigeny\ I,\ II\ formy\)
  8. \(Mapa\ poziomic\) ⇒ \(kontury\ f=const\)
  9. \(Linearizacja\) ⇒ \(f(x)\approx f(a)+\nabla f(a)\cdot(x-a)\)
  10. \(Tw.\ o\ odwzor.\ nieosobliwym\) ⇒ \(Jacobian\ \neq 0\)

Równania różniczkowe

Ćwiczenia
  1. \(y^\prime=ky\) ⇒ \(y=Ce^{kx}\)
  2. \(Liniowe I rzędu\) ⇒ \(IF:\ \mu=e^{\int p(x)dx}\)
  3. \(Bernoulli\) ⇒ \(y^\prime+py=qy^n\)
  4. \(Układ liniowy\) ⇒ \(e^{\mathbf{A}t}\)
  5. \(Charakterystyki (PDE1)\) ⇒ \(trajektorie\ wzdłuż\ których\ ODE\)
  6. \(Stabilność\) ⇒ \(Re(\lambda)<0\Rightarrow stabilne\)
  7. \(Równ.\ drugiego rzędu\ const\) ⇒ \(rów.\ charakterystyczne\)
  8. \(Wymuszenie\ sinusoidalne\) ⇒ \(odpowiedź\ ustalona\)
  9. \(Laplace\ transform\) ⇒ \(Y(s)=\mathcal{L}\{y\}\)
  10. \(Green's\ function\) ⇒ \(odwrócenie\ operatora\)

Prawdopodobieństwo i statystyka

Ćwiczenia
  1. \(E(X+Y)\) ⇒ \(E(X)+E(Y)\)
  2. \(Var(aX+b)\) ⇒ \(a^2 Var(X)\)
  3. \(MNK:\ \hat\beta\) ⇒ \((X^T X)^{-1}X^T y\)
  4. \(SSE,\ SST,\ R^2\) ⇒ \(R^2=1-\tfrac{SSE}{SST}\)
  5. \(U(0,\theta):\ CI(95%)\) ⇒ \([M/0.975^{1/n},\ M/0.025^{1/n}]\)
  6. \(DW test\) ⇒ \(\approx 2\Rightarrow brak\ autokorelacji\)
  7. \(MLE\ dla\ \theta\ w\ U(0,\theta)\) ⇒ \(\hat\theta=M\)
  8. \(CLT\ (intuicja)\) ⇒ \(średnie\ \to\ normalny\)
  9. \(t-Studenta,\ \chi^2,\ F\) ⇒ \(rozkłady\ klasyczne\)
  10. \(Bootstrap\) ⇒ \(resampling\ z\ danych\)

Optymalizacja

Ćwiczenia
  1. \(\nabla f=0,\ H \succ 0\) ⇒ \(minimum\ lokalne\)
  2. \(QP:\ \min x^TQx + c^Tx\) ⇒ \(Q \succeq 0\)
  3. \(KKT\) ⇒ \(\nabla f + \sum \lambda_i \nabla g_i = 0\)
  4. \(Simplex\) ⇒ \(LP\ po\ wierzchołkach\)
  5. \(Convex\ hull\) ⇒ \(\operatorname{conv}(S)\)
  6. \(Stoch.\ GD\) ⇒ \(\theta \leftarrow \theta - \eta \nabla_\theta \ell\)
  7. \(Lipschitz\ L\) ⇒ \(kroki\ \eta<2/L\)
  8. \(Strongly\ convex\ \mu\) ⇒ \(zbieżność\ liniowa\)
  9. \(ADMM\) ⇒ \(rozkład\ problemu\)
  10. \(Dualność\ Lagrange'a\) ⇒ \(g(\lambda)=\inf_x\ \mathcal{L}(x,\lambda)\)

Analiza zespolona

Ćwiczenia
  1. \(Residuum\) ⇒ \(\operatorname{Res}(f,z_0)\)
  2. \(Tw. Cauchy’ego\) ⇒ \(\oint f = 0\)
  3. \(Laurent\) ⇒ \(\sum a_n (z-z_0)^n + \sum b_n (z-z_0)^{-n}\)
  4. \(Mapa konforemna\) ⇒ \(w'\neq 0\)
  5. \(Cauchy–Riemann\) ⇒ \(u_x=v_y,\ u_y=-v_x\)
  6. \(Całka po konturze\) ⇒ \(\oint_C f(z)dz\)
  7. \(Tw.\ Morery\) ⇒ \(analityczność\ z\ całek\)
  8. \(Biegun\ rzędu\ k\) ⇒ \((\,z-z_0)^{-k}\,\)
  9. \(Tw.\ argumentu\) ⇒ \(\Delta\arg f = 2\pi (Z-P)\)
  10. \(Transform.\ Laplace'a\ (zesp.)\) ⇒ \(analiza\ w\ półpłaszczyźnie\)

Egzamin ósmoklasisty

Powtórka i testy
Egzamin — ćwiczenia tematyczne Test próbny ►
ANOVA — model i test

\(\text{SST}=\text{SSB}+\text{SSW}\), \(F=\dfrac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}\).

Regresja liniowa (MNK)
  • \(a^*=\dfrac{S_{xy}}{S_{xx}}\), \(b^*=\bar y-a^*\bar x\)
  • \(\hat\sigma^2=\text{SSE}/(n-2)\), \(R^2=1-\text{SSE}/\text{SST}\)
Przedział ufności dla \(\theta\) w \(U(0,\theta)\)

\([M/0.975^{1/n},\,M/0.025^{1/n}]\); górny: \([M,\,M/0.05^{1/n}]\).

I. Model analizy wariancji (ANOVA) — „podaj model”

Jednoczynnikowa ANOVA: \[ Y_{ij}=\mu+\tau_i+\varepsilon_{ij},\quad \sum_{i=1}^k \tau_i=0,\quad \varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2)\ \text{niezależne}. \] Hipotezy: \(H_0:\ \tau_1=\cdots=\tau_k=0\) vs \(H_1:\) co najmniej jedna \(\tau_i\neq 0\).

Sumy kwadratów: \(\text{SST}=\sum_{ij}(y_{ij}-\bar y)^2=\text{SSB}+\text{SSW}\). Statystyka: \[ F=\frac{\text{MSB}}{\text{MSW}}=\frac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}. \]

Interpretacja: duże \(F\) ⇒ grupy różnią się średnimi; małe \(p\) ⇒ odrzucamy \(H_0\).

II. Regresja liniowa (MNK) — wzory robocze
  • \(\bar x=\frac{1}{n}\sum x_i,\ \bar y=\frac{1}{n}\sum y_i\)
  • \(S_{xx}=\sum (x_i-\bar x)^2,\quad S_{xy}=\sum (x_i-\bar x)(y_i-\bar y)\)
  • Parametry: \(a^*=\frac{S_{xy}}{S_{xx}},\quad b^*=\bar y-a^*\bar x\)
  • Reszty: \(e_i=y_i-\hat y_i\), \(\text{SSE}=\sum e_i^2\), \(\hat\sigma^2=\text{SSE}/(n-2)\)
  • Dopasowanie: \(R^2=1-\dfrac{\text{SSE}}{\sum (y_i-\bar y)^2}\)
III. Dekompozycja wariancji w regresji + test ogólny

\(\text{SST}=\text{SSR}+\text{SSE}\), gdzie \(\text{SSR}=\sum(\hat y_i-\bar y)^2\) (wyjaśniona), \(\text{SSE}=\sum(y_i-\hat y_i)^2\) (niewyjaśniona).

Test istotności całej regresji: \[ F=\frac{\text{SSR}/1}{\text{SSE}/(n-2)} \sim F_{1,n-2}\quad \text{(pod }H_0: a=0\text{)}. \]

IV. Przedziały i testy dla \(a,b\)

Odchylenia standardowe

\[ \operatorname{SE}(a)=\sqrt{\frac{\hat\sigma^2}{S_{xx}}},\quad \operatorname{SE}(b)=\sqrt{\hat\sigma^2\!\left(\frac{1}{n}+\frac{\bar x^2}{S_{xx}}\right)}. \]

Test t

\[ t_a=\frac{a^*}{\operatorname{SE}(a)},\quad t_b=\frac{b^*}{\operatorname{SE}(b)} \ \sim \ t_{n-2}. \]

Przedziały 95%

\[ a^*\pm t_{0.975,n-2}\operatorname{SE}(a),\quad b^*\pm t_{0.975,n-2}\operatorname{SE}(b). \]

V. Przewidywanie: średnia odpowiedź vs. nowa obserwacja

Dla punktu \(x_0\):

  • Średnia odpowiedź \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
  • Nowa pojedyncza obserwacja \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{1+\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
VI. Diagnostyka reszt (normalność, stała wariancja, niezależność)

Normalność

QQ-plot, test Shapiro–Wilka. Jeśli ogony odstają — rozważ transformację lub metody odporne.

Heteroskedastyczność

Wykres \(e_i\) vs \(\hat y_i\). Test Breuscha–Pagana: \(\mathrm{BP}\sim \chi^2\) — istotny sygnał ⇒ rozważ WLS/HCSE.

Autokorelacja

Durbin–Watson: \[ \mathrm{DW}=\frac{\sum_{i=2}^n(e_i-e_{i-1})^2}{\sum_{i=1}^ne_i^2}\approx 2 \] ⇒ brak autokorelacji.

VII. Punkty wpływowe i dźwignia
  • Macierz „hat”: \(\mathbf{H}=\mathbf{X}(X^TX)^{-1}X^T\), dźwignia \(h_{ii}\in(0,1)\).
  • Standaryzowane reszty: \(r_i=\frac{e_i}{\hat\sigma\sqrt{1-h_{ii}}}\).
  • Cook’s distance: \[ D_i=\frac{e_i^2}{2\hat\sigma^2}\cdot \frac{h_{ii}}{(1-h_{ii})^2}. \] Duże \(D_i\) ⇒ obserwacja silnie wpływa na model.
VIII. 95% CI dla \(\theta\) w \(U(0,\theta)\)

Jeśli \(X_1,\dots,X_n\stackrel{iid}{\sim}U(0,\theta)\), a \(M=\max X_i\), to \(\mathbb{P}(M\le m)=(m/\theta)^n\). Stąd \[ \text{CI}_{95\%}^{dw}=\Big[\,\tfrac{M}{0.975^{1/n}},\ \tfrac{M}{0.025^{1/n}}\,\Big],\qquad \text{CI}_{95\%}^{górny}=\Big[\,M,\ \tfrac{M}{0.05^{1/n}}\,\Big]. \] Estymator MLE: \(\hat\theta=M\).

IX. Szybkie pojęcia

Błąd I/II rodzaju

Odrzucono \(H_0\), gdy prawdziwy (I); nie odrzucono, gdy fałszywy (II).

Poziom istotności \(\alpha\)

Szansa błędu I; typowo \(0.05\) lub \(0.01\).

p-value

Prawdopodobieństwo tak „skrajnych” danych przy założeniu \(H_0\).

Premium: Dodatkowe zestawy

Gotowe do druku „mini-kartkówki”.

Ułamki dziesiętne i zwykłe

Ćwiczenia
  1. \(0.2+0.35\) ⇒ \(0.55\)
  2. \(\tfrac{5}{6}-\tfrac{1}{3}\) ⇒ \(\tfrac{1}{2}\)
  3. \(0.125\to u\lamek\) ⇒ \(\tfrac{1}{8}\)
  4. \(Porównaj:\ \tfrac{3}{4}\ ?\ 0.7\) ⇒ \(>\)
  5. \(Mnożenie:\ \tfrac{2}{5}\cdot \tfrac{3}{4}\) ⇒ \(\tfrac{3}{10}\)
  6. \(Dzielenie:\ \tfrac{7}{8}:\tfrac{7}{4}\) ⇒ \(\tfrac{1}{2}\)
  7. \(Skróć\ \tfrac{42}{56}\) ⇒ \(\tfrac{3}{4}\)
  8. \(Ułamki równoważne\) ⇒ \(\tfrac{1}{2}=\tfrac{2}{4}\)
  9. \(0.3\cdot 0.05\) ⇒ \(0.015\)
  10. \(3.6:0.9\) ⇒ \(4\)

Procenty

Ćwiczenia
  1. \(15\%\ z\ 200\) ⇒ \(30\)
  2. \(Cena 120 \to -20\%\) ⇒ \(96\)
  3. \(Brutto z netto 100 i 23\%\) ⇒ \(123\)
  4. \(Podwyżka 5\% dwa razy\) ⇒ \(110.25\)
  5. \(50\% z 3\,kg\) ⇒ \(1.5\,kg\)
  6. \(8\%\ z\ 2500\) ⇒ \(2700\)
  7. \(Rabat 12\%\ z\ 400\) ⇒ \(352\)
  8. \(40\%\ z\ 80\) ⇒ \(32\)
  9. \(Stopa\ procentowa\ / rok\) ⇒ \(procent\ składany\)
  10. \(Podatek\ 17\%\ z\ 3000\) ⇒ \(3510\ brutto\)

Równania

Ćwiczenia
  1. \(3x=27\) ⇒ \(x=9\)
  2. \(x+7=2\) ⇒ \(x=-5\)
  3. \(5(x-2)=10\) ⇒ \(x=4\)
  4. \(x-\tfrac{x}{2}=8\) ⇒ \(x=16\)
  5. \(2x+3=2(3-x)\) ⇒ \(x=\tfrac{3}{2}\)
  6. \(7-2x=3x+12\) ⇒ \(x=-1\)
  7. \(4x-5=0\) ⇒ \(x=\tfrac{5}{4}\)
  8. \(\tfrac{x}{5}=7\) ⇒ \(x=35\)
  9. \(9=2x+1\) ⇒ \(x=4\)
  10. \(x-3=-(x+1)\) ⇒ \(x=1\)

Figury płaskie

Ćwiczenia
  1. \(Obwód kwadratu a=4\) ⇒ \(16\)
  2. \(Pole trójkąta a=6, h=4\) ⇒ \(12\)
  3. \(Pole koła r=2\) ⇒ \(4\pi\)
  4. \(Obwód koła r=3\) ⇒ \(6\pi\)
  5. \(Kąt pełny\) ⇒ \(360^\circ\)
  6. \(Równoległobok:\ P=ah,\ a=5,h=7\) ⇒ \(35\)
  7. \(Trapez:\ P=\tfrac{(a+b)}{2}h,\ 4,6,5\) ⇒ \(25\)
  8. \(Przekątna\ kwadratu\ a=5\) ⇒ \(5\sqrt{2}\)
  9. \(Romb:\ d_1=10,\ d_2=6\) ⇒ \(30\)
  10. \(Kąt\ w\ trójkącie\ prostym\) ⇒ \(suma\ 180^\circ\)

Bryły

Ćwiczenia
  1. \(Objętość sześcianu a=2\) ⇒ \(8\)
  2. \(Objętość prostopadłościanu 2\times3\times4\) ⇒ \(24\)
  3. \(Pole boczne walca r=2,h=5\) ⇒ \(20\pi\)
  4. \(Objętość stożka r=3,h=6\) ⇒ \(18\pi\)
  5. \(Objętość kuli r=1\) ⇒ \(\tfrac{4}{3}\pi\)
  6. \(Siatka\ graniastosłupa\) ⇒ \(prostokąty+podstawy\)
  7. \(Pole całk.\ walca r=2,h=3\) ⇒ \(2\pi r (r+h)=20\pi\)
  8. \(Przekątna\ prostopadłościanu\ 2,3,6\) ⇒ \(7\)
  9. \(Objętość\ ściętego\ stożka\) ⇒ \(\tfrac{\pi h}{3}(R^2+Rr+r^2)\)
  10. \(Stosunek\ objętości\ kul:\ r:2r\) ⇒ \(1:8\)

Kombinatoryka (podstawy)

Ćwiczenia
  1. \(\binom{6}{2}\) ⇒ \(15\)
  2. \(3!\) ⇒ \(6\)
  3. \(Kolejność bez powt. 4 z 2\) ⇒ \(12\)
  4. \(Prawd. rzutu kostką\) ⇒ \(\tfrac{1}{6}\)
  5. \(Prawd. parzystej na kostce\) ⇒ \(\tfrac{1}{2}\)
  6. \(\binom{8}{3}\) ⇒ \(56\)
  7. \(Permutacje 4\) ⇒ \(24\)
  8. \(Zdarzenie pewne\) ⇒ \(p=1\)
  9. \(Zdarzenie niemożliwe\) ⇒ \(p=0\)
  10. \(Dopełnienie\ A^c\) ⇒ \(1-P(A)\)

Inne

Ciekawostki • historia • zastosowania
Inne — ciekawostki i rozszerzenia Quiz dnia ►
ANOVA — model i test

\(\text{SST}=\text{SSB}+\text{SSW}\), \(F=\dfrac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}\).

Regresja liniowa (MNK)
  • \(a^*=\dfrac{S_{xy}}{S_{xx}}\), \(b^*=\bar y-a^*\bar x\)
  • \(\hat\sigma^2=\text{SSE}/(n-2)\), \(R^2=1-\text{SSE}/\text{SST}\)
Przedział ufności dla \(\theta\) w \(U(0,\theta)\)

\([M/0.975^{1/n},\,M/0.025^{1/n}]\); górny: \([M,\,M/0.05^{1/n}]\).

I. Model analizy wariancji (ANOVA) — „podaj model”

Jednoczynnikowa ANOVA: \[ Y_{ij}=\mu+\tau_i+\varepsilon_{ij},\quad \sum_{i=1}^k \tau_i=0,\quad \varepsilon_{ij}\sim \mathcal{N}(0,\sigma^2)\ \text{niezależne}. \] Hipotezy: \(H_0:\ \tau_1=\cdots=\tau_k=0\) vs \(H_1:\) co najmniej jedna \(\tau_i\neq 0\).

Sumy kwadratów: \(\text{SST}=\sum_{ij}(y_{ij}-\bar y)^2=\text{SSB}+\text{SSW}\). Statystyka: \[ F=\frac{\text{MSB}}{\text{MSW}}=\frac{\text{SSB}/(k-1)}{\text{SSW}/(N-k)}. \]

Interpretacja: duże \(F\) ⇒ grupy różnią się średnimi; małe \(p\) ⇒ odrzucamy \(H_0\).

II. Regresja liniowa (MNK) — wzory robocze
  • \(\bar x=\frac{1}{n}\sum x_i,\ \bar y=\frac{1}{n}\sum y_i\)
  • \(S_{xx}=\sum (x_i-\bar x)^2,\quad S_{xy}=\sum (x_i-\bar x)(y_i-\bar y)\)
  • Parametry: \(a^*=\frac{S_{xy}}{S_{xx}},\quad b^*=\bar y-a^*\bar x\)
  • Reszty: \(e_i=y_i-\hat y_i\), \(\text{SSE}=\sum e_i^2\), \(\hat\sigma^2=\text{SSE}/(n-2)\)
  • Dopasowanie: \(R^2=1-\dfrac{\text{SSE}}{\sum (y_i-\bar y)^2}\)
III. Dekompozycja wariancji w regresji + test ogólny

\(\text{SST}=\text{SSR}+\text{SSE}\), gdzie \(\text{SSR}=\sum(\hat y_i-\bar y)^2\) (wyjaśniona), \(\text{SSE}=\sum(y_i-\hat y_i)^2\) (niewyjaśniona).

Test istotności całej regresji: \[ F=\frac{\text{SSR}/1}{\text{SSE}/(n-2)} \sim F_{1,n-2}\quad \text{(pod }H_0: a=0\text{)}. \]

IV. Przedziały i testy dla \(a,b\)

Odchylenia standardowe

\[ \operatorname{SE}(a)=\sqrt{\frac{\hat\sigma^2}{S_{xx}}},\quad \operatorname{SE}(b)=\sqrt{\hat\sigma^2\!\left(\frac{1}{n}+\frac{\bar x^2}{S_{xx}}\right)}. \]

Test t

\[ t_a=\frac{a^*}{\operatorname{SE}(a)},\quad t_b=\frac{b^*}{\operatorname{SE}(b)} \ \sim \ t_{n-2}. \]

Przedziały 95%

\[ a^*\pm t_{0.975,n-2}\operatorname{SE}(a),\quad b^*\pm t_{0.975,n-2}\operatorname{SE}(b). \]

V. Przewidywanie: średnia odpowiedź vs. nowa obserwacja

Dla punktu \(x_0\):

  • Średnia odpowiedź \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
  • Nowa pojedyncza obserwacja \[ \hat y(x_0)\pm t_{0.975,n-2}\,\hat\sigma\sqrt{1+\frac{1}{n}+\frac{(x_0-\bar x)^2}{S_{xx}}}. \]
VI. Diagnostyka reszt (normalność, stała wariancja, niezależność)

Normalność

QQ-plot, test Shapiro–Wilka. Jeśli ogony odstają — rozważ transformację lub metody odporne.

Heteroskedastyczność

Wykres \(e_i\) vs \(\hat y_i\). Test Breuscha–Pagana: \(\mathrm{BP}\sim \chi^2\) — istotny sygnał ⇒ rozważ WLS/HCSE.

Autokorelacja

Durbin–Watson: \[ \mathrm{DW}=\frac{\sum_{i=2}^n(e_i-e_{i-1})^2}{\sum_{i=1}^ne_i^2}\approx 2 \] ⇒ brak autokorelacji.

VII. Punkty wpływowe i dźwignia
  • Macierz „hat”: \(\mathbf{H}=\mathbf{X}(X^TX)^{-1}X^T\), dźwignia \(h_{ii}\in(0,1)\).
  • Standaryzowane reszty: \(r_i=\frac{e_i}{\hat\sigma\sqrt{1-h_{ii}}}\).
  • Cook’s distance: \[ D_i=\frac{e_i^2}{2\hat\sigma^2}\cdot \frac{h_{ii}}{(1-h_{ii})^2}. \] Duże \(D_i\) ⇒ obserwacja silnie wpływa na model.
VIII. 95% CI dla \(\theta\) w \(U(0,\theta)\)

Jeśli \(X_1,\dots,X_n\stackrel{iid}{\sim}U(0,\theta)\), a \(M=\max X_i\), to \(\mathbb{P}(M\le m)=(m/\theta)^n\). Stąd \[ \text{CI}_{95\%}^{dw}=\Big[\,\tfrac{M}{0.975^{1/n}},\ \tfrac{M}{0.025^{1/n}}\,\Big],\qquad \text{CI}_{95\%}^{górny}=\Big[\,M,\ \tfrac{M}{0.05^{1/n}}\,\Big]. \] Estymator MLE: \(\hat\theta=M\).

IX. Szybkie pojęcia

Błąd I/II rodzaju

Odrzucono \(H_0\), gdy prawdziwy (I); nie odrzucono, gdy fałszywy (II).

Poziom istotności \(\alpha\)

Szansa błędu I; typowo \(0.05\) lub \(0.01\).

p-value

Prawdopodobieństwo tak „skrajnych” danych przy założeniu \(H_0\).

Premium: Dodatkowe materiały

Historie, zastosowania, zadania projektowe.

Ciekawostki liczbowe

Przykłady / ciekawostki
  1. \(Liczby doskonałe: 6, 28, ...\) ⇒ \(def.: suma dzielników właściwych = liczba\)
  2. \(Tw. Wilsona\) ⇒ \((p-1)!\equiv -1\ (mod\ p)\)
  3. \(Liczba Mersenne'a\) ⇒ \(2^p-1\)
  4. \(Ciąg Fibonacciego a \varphi\) ⇒ \(F_{n+1}/F_n\to\varphi\)
  5. \(Hipoteza Goldbacha\) ⇒ \(parzysta >2 = suma 2 pierwszych (otwarta)\)
  6. \(Riemann:\ hipoteza\) ⇒ \(zera\ na\ Re(s)=\tfrac{1}{2}\)
  7. \(Collatz\ 3n+1\) ⇒ \(otwarte\)
  8. \(Liczby pierwsze bliźniacze\) ⇒ \(różnica\ 2\)
  9. \(Perfekcyjny\ sześcian?\) ⇒ \(trudna\ kwestia\)
  10. \(Ciąg\ Catalana\) ⇒ \(C_n=\tfrac{1}{n+1}\binom{2n}{n}\)

Łamigłówki

Przykłady / ciekawostki
  1. \(Mosty Królewieckie\) ⇒ \(Euler\ —\ grafy\)
  2. \(Problem 8 hetmanów\) ⇒ \(rozmieszczenie na szachownicy\)
  3. \(Kwadraty magiczne\) ⇒ \(stała\ sumy\)
  4. \(Krzywa Hilberta\) ⇒ \(wypełnia\ kwadrat\)
  5. \(Paradoks Banacha–Tarskiego\) ⇒ \(AC,\ rozcięcia\ niemierzalne\)
  6. \(Wieże Hanoi\ 3 krążki\) ⇒ \(7 ruchów\)
  7. \(Zagadki logiczne\ (prawda/kłamstwo)\) ⇒ \(tablice\ prawdy\)
  8. \(Sudoku\ —\ restrykcje\) ⇒ \(wiersze, kolumny, kwadraty\)
  9. \(Łamigłówka\ zapałczana\) ⇒ \(geometria\ dyskretna\)
  10. \(Labirynt\ Eulerowski\) ⇒ \(stopnie\ parzyste\)

Historia matematyki

Przykłady / ciekawostki
  1. \(Euklides\) ⇒ \(Elementy\)
  2. \(Gauss\) ⇒ \(arytmetyka,\ kongruencje\)
  3. \(Newton vs Leibniz\) ⇒ \(rachunek różniczkowy\)
  4. \(Cantor\) ⇒ \(moc zbiorów,\ kontinuum\)
  5. \(Noether\) ⇒ \(symetrie i zachowanie\)
  6. \(Archimedes\) ⇒ \(metoda wyczerpywania\)
  7. \(Turing\) ⇒ \(obliczalność\)
  8. \(Gödel\) ⇒ \(niezupełność\)
  9. \(Fourier\) ⇒ \(szeregi Fouriera\)
  10. \(Kolmogorow\) ⇒ \(aksjomatyka prawdopodobieństwa\)

Zastosowania

Przykłady / ciekawostki
  1. \(ML: regresja liniowa\) ⇒ \(MSE,\ R^2\)
  2. \(Kryptografia\) ⇒ \(RSA,\ ECC\)
  3. \(Grafy\) ⇒ \(najkrótsza droga (Dijkstra)\)
  4. \(Optymalizacja\) ⇒ \(programowanie liniowe\)
  5. \(Statystyka w medycynie\) ⇒ \(testy hipotez\)
  6. \(Ekonomia\) ⇒ \(modele\ stochastyczne\)
  7. \(Fizyka\) ⇒ \(równania\ różniczkowe\)
  8. \(Informatyka\) ⇒ \(złożoność\ obliczeniowa\)
  9. \(Sieci\) ⇒ \(teoria\ przepływów\)
  10. \(Geodezja\) ⇒ \(metoda najm.\ kwadratów\)

Numeryka

Przykłady / ciekawostki
  1. \(Newton–Raphson\) ⇒ \(x_{k+1}=x_k-\tfrac{f}{f^\prime}\)
  2. \(Trapezy (całkowanie)\) ⇒ \(szacowanie pola\)
  3. \(Bisection\) ⇒ \(połowienie przedziału\)
  4. \(Interpolacja Lagrange'a\) ⇒ \(wielomian\)
  5. \(Błąd maszynowy\) ⇒ \(zaokrąglenie\)
  6. \(Gauss–Seidel\) ⇒ \(układy liniowe\)
  7. \(Jacobi\) ⇒ \(iteracje\ równoległe\)
  8. \(QR (numeryczne)\) ⇒ \(wartości własne\)
  9. \(SVD (num.)\) ⇒ \(regularyzacja\)
  10. \(Stabilność algorytmu\) ⇒ \(kondycjonowanie\)

Teoria liczb

Przykłady / ciekawostki
  1. \(\gcd(84,\,30)\) ⇒ \(6\)
  2. \(Rozkład na liczby pierwsze 84\) ⇒ \(2^2\cdot 3\cdot 7\)
  3. \(Kongruencja:\ x\equiv 2\ (mod\ 5)\) ⇒ \(klasa\ \bar{2}\)
  4. \(Tw. Eulera:\ a^{\varphi(n)}\equiv 1\) ⇒ \((a,n)=1\)
  5. \(Chiński tw. o resztach\) ⇒ \(układ\ kongruencji\)
  6. \(Fermata\ małe\) ⇒ \(a^{p-1}\equiv 1\ (mod\ p)\)
  7. \(Funkcja\ \varphi(n)\) ⇒ \(liczba\ dodatnich\ \le n\ względnie\ pierwszych\)
  8. \(Kwadraty\ modulo\ p\) ⇒ \(symbol\ Legendre'a\)
  9. \(Sito\ Eratostenesa\) ⇒ \(szukanie\ pierwszych\)
  10. \(Krzywa\ eliptyczna\ (intuicja)\) ⇒ \(grupa\ punktów\)