|  | 
|  | 1 | +### Rozkłady | 
|  | 2 | + | 
|  | 3 | +1. Poissona $P_k(\mu) = \frac{\mu^k}{k!}e^{-\mu}$, gdzie $\mu > 0$. | 
|  | 4 | +Wartość oczekiwana: $E(X) = \mu$ (jedyne dziwne przejście to z Teylora mamy $\sum_{i=1}^{\infty} \frac{\mu^i}{i!} = e^{\mu}$). | 
|  | 5 | +2. Geometryczny $G(p) = p* (1-p)^{k-1}$, gdzie $k \in \mathbb{N}$. | 
|  | 6 | +Wartość oczekiwana: $E(X) = \frac{1}{p}$ (w obliczeniu robimy pochodna z $\sum_k^\infty q^k = \frac{1}{1-q}$ - suma ciągu geometrycznego) | 
|  | 7 | + | 
|  | 8 | +### Populacja a Próba | 
|  | 9 | + | 
|  | 10 | +Prawdę mówiąc te pojęcia są często używane praktycznie wszędzie w wykładach ale... jest to  trochę mylące. | 
|  | 11 | + | 
|  | 12 | +```{admonition} Populacja | 
|  | 13 | +zbiór **WSZYSTKICH** obiektów, które nas interesują. | 
|  | 14 | +
 | 
|  | 15 | +Na przykład - badając wzrost ludzi na świecie populację stanowią... wszyscy ludzie na świecie. | 
|  | 16 | +Inny przykład - badamy czy cegły danego producenta są wadliwe. Populacje stanowią wszystkie cegły tego kolesia ever. | 
|  | 17 | +``` | 
|  | 18 | + | 
|  | 19 | +```{admonition} Próba | 
|  | 20 | +jak widać z powyższej definicji badanie całej populacji jest średnio wykonalne/praktyczne. | 
|  | 21 | +
 | 
|  | 22 | +**Próba** to __Element__ populacji co do którego mamy dane. | 
|  | 23 | +
 | 
|  | 24 | +W przykładach powyżej: | 
|  | 25 | +- 1000 losowo wybranych osób | 
|  | 26 | +- n losowych cegieł. | 
|  | 27 | +``` | 
|  | 28 | + | 
|  | 29 | +| Nazwa          | Populacja | Próba    | | 
|  | 30 | +|----------------|-----------|----------| | 
|  | 31 | +| średnia        | $\mu$     | $\bar{x} | | 
|  | 32 | +| wariancja      | $\sigma^2$| $s^2$    | | 
|  | 33 | + | 
|  | 34 | + | 
|  | 35 | +```{admonition} Centralne Twierdzenie Graniczne | 
|  | 36 | +mamy n niezależnych zmiennych losowych $X_1, X_2, ..., X_n$ pochodzących z tego samego rozkładu. | 
|  | 37 | +
 | 
|  | 38 | +Niech: $S_n = X_1 + X_2 + ... + X_n$ oraz $\bar{X} = \frac{S_n}{n}$ | 
|  | 39 | +
 | 
|  | 40 | +wtedy dzieje się fajna rzecz, otóż: | 
|  | 41 | +
 | 
|  | 42 | +$$ | 
|  | 43 | +\lim_{n \to \infty} \frac{S_n - n\mu}{\sigma \sqrt{n}} = \frac{\bar{x} - \mu}{\frac{\sigma}{\sqrt{n}}} = N(0,1) | 
|  | 44 | +$$ | 
|  | 45 | +``` | 
|  | 46 | + | 
|  | 47 | +Polecam poniższy kod: | 
|  | 48 | + | 
|  | 49 | +```python | 
|  | 50 | +import numpy as np | 
|  | 51 | +import matplotlib.pyplot as plt | 
|  | 52 | + | 
|  | 53 | +def central_limit_theorem_demo(sample_size=1000, num_samples=10000): # ode mnie: można ustawić sample size na 1 i za dużo to nie zmieni - dalej działa | 
|  | 54 | +    means = [] | 
|  | 55 | +    for _ in range(num_samples): | 
|  | 56 | +        sample = np.random.uniform(0, 1, sample_size)  # Losujemy próbkę z rozkładu jednostajnego | 
|  | 57 | +        means.append(np.mean(sample))  # Obliczamy średnią próbki | 
|  | 58 | + | 
|  | 59 | +    # Rysowanie histogramu średnich | 
|  | 60 | +    plt.hist(means, bins=50, density=True, alpha=0.6, color='b') | 
|  | 61 | + | 
|  | 62 | +    # Teoretyczna krzywa normalna | 
|  | 63 | +    mu = 0.5  # Średnia rozkładu jednostajnego U(0,1) | 
|  | 64 | +    sigma = np.sqrt(1/12) / np.sqrt(sample_size)  # Wariancja U(0,1) wynosi 1/12 | 
|  | 65 | +    x = np.linspace(min(means), max(means), 100) | 
|  | 66 | +    plt.plot(x, (1 / (sigma * np.sqrt(2 * np.pi))) * np.exp(- (x - mu) ** 2 / (2 * sigma ** 2)), 'r', linewidth=2) | 
|  | 67 | + | 
|  | 68 | +    plt.title(f'CTG: Średnie {num_samples} próbek (rozmiar próbki={sample_size})') | 
|  | 69 | +    plt.xlabel('Średnia próbek') | 
|  | 70 | +    plt.ylabel('Gęstość prawdopodobieństwa') | 
|  | 71 | +    plt.show() | 
|  | 72 | + | 
|  | 73 | +# Uruchamiamy demonstrację | 
|  | 74 | +central_limit_theorem_demo(sample_size=30, num_samples=10000) | 
|  | 75 | +``` | 
0 commit comments