lectures/Komp_obr/01-measurements,02-statistics.tex

567 lines
21 KiB
TeX
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекции 1, 2.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 1. Общие сведения об измерениях. Виды сигналов и методы их анализа.\\
Лекция 2. Статистика и вероятность. Случайные величины и распределения}
\date{18~марта 2021~года}
\begin{document}
% Титул
\begin{frame}{}
\maketitle
\end{frame}
% Содержание
\begin{frame}{}
\tableofcontents[hideallsubsections]
\end{frame}
\section{Физические измерения}
\begin{frame}{Физические измерения}
\begin{defin}
Экспериментальное определение значения измеряемой величины с применением средств
измерений называется {\bf измерением}.
\end{defin}
\begin{block}{}
Важнейшей особенностью измерений является {\it принципиальная невозможность
получения результатов измерения, в точности равных истинному значению
измеряемой величины} (особенно эта особенность проявляется в микромире, где
господствует принцип неопределенности).
Эта особенность приводит к необходимости оценки степени близости результата
измерения к истинному значению измеряемой величины, т.е. вычислять
{\bf погрешность измерения}.
\end{block}
\end{frame}
\begin{frame}{Виды измерений}
\begin{block}{}
Статическими называют такие измерения, при
которых зависимость погрешности измерения от скорости измерения пренебрежимо
мала и ее можно не учитывать. Динамические
измерения противоположны статическим.
Результаты прямых измерений находят непосредственно из опыта, косвенных же измерений~---
путем расчета по известной зависимости измеряемой величины от величин, находимых
прямыми измерениями (например, измерение мощности).
Совместное измерение --- одновременное измерение нескольких неодноименных величин для
нахождения зависимости между ними (например, ВАХ диода).
Совокупное измерение~--- это проведение ряда измерений нескольких величин одинаковой
размерности в различных сочетаниях с нахождением искомых величин из решения системы уравнений
(например, измерение $R$ включенных треугольником резисторов).
\end{block}
\end{frame}
\begin{frame}{Представление результатов}
\only<1>{
\begin{block}{Табличное}
Позволяет избежать многократной записи единиц измерения, обозначений измеряемой величины,
используемых множителей. В таблицы, помимо основных измерений, могут быть включены и результаты
промежуточных измерений.
Для удобства импортирования данных и одновременно наглядности чтения удобно хранить в формате TSV
(tab separated values) или CSV (comma separated values).
SED позволит легко преобразовать TSV/CSV в таблицу \LaTeX.
\end{block}
\begin{block}{Графическое}
На основе графика легко можно сделать вывод о соответствии
теоретических представлений данным эксперимента, определить вид функциональной
зависимости измеряемой величины.
\end{block}
}
\only<2>{\img{table1}}
\only<3>{\vspace*{-1em}\img[0.9]{table2}}
\only<4>{\vspace*{-2em}\img{graph1}}
\only<5>{\vspace*{-2em}\img{graph2}}
\end{frame}
\section{Сигналы и их виды}
\begin{frame}{Сигналы и их виды}
\only<1>{
\begin{defin}
Если некоторая изменяющаяся величина измеряется непрерывно (или квазинепрерывно), мы
имеем дело с потоком информации, или сообщением.
В теории информации физический процесс, значения параметров которого отображают
передаваемое сообщение, называется сигналом.
\end{defin}
\begin{block}{}
Модуляция--демодуляция. Зашумление.
{\bf Помехи}: аддитивные, мультипликативные, фазовые.
\end{block}
}
\only<2>{\img[0.7]{Ampl_modulation}}
\only<3>{\img{Freq_modulation}}
\only<4>{\begin{light}\img[0.7]{Phase_modulation}\end{light}}
\only<5>{Add/mult\img[0.7]{add_mult_noise}}
\end{frame}
\begin{frame}{Виды сигналов}
\only<1>{
\begin{block}{Аналоговый}
Описывается непрерывной (или кусочно--непрерывной) функцией $x(t)$: $t\in[t_0,t_1]$,
$x\in[x_0,x_1]$. Аудиосигналы, телевизионные сигналы и т.п.
\end{block}
\img[0.4]{oscill}
}
\only<2>{
\begin{block}{Дискретный}
Описывается решетчатой функцией (последовательностью, временн\'ым рядом) $x(nT)$: $x\in[x_0,x_1]$,
$n=\overline{1,N}$, $T$~-- интервал дискретизации. Величину $f=1/T$
называют частотой дискретизации. Если интервал дискретизации является
постоянной величиной, дискретный сигнал можно задать в виде ряда $\{x_1,\ldots, x_N\}$.
\end{block}
\img[0.6]{disc_sig}
}
\only<3>{
\begin{block}{Цифровой}
Описывается квантованной решетчатой функцией и отличается от обычного дискретного сигнала тем, что
каждый уровень квантования кодируется двоичным кодом. Таким образом, если
величина $x\in[x_0,x_1]$ квантуется $N$~разрядным кодом, для
обратного представления из кода $K_x$ в значение $x$ применяется
преобразование: $x=x_0+K_x\cdot (x_1-x_0)/2^{N}$. К цифровым сигналам относятся
сигналы, используемые в системах связи с импульсно--кодовой модуляцией.
\end{block}
\img[0.4]{digital_signal}
}
\only<4>{\img{Analog_signal}}
\end{frame}
\begin{frame}{Дискретизация}
\begin{block}{}
Дискретизация строит по заданному аналоговому сигналу $x(t)$ дискретный сигнал $x_n(nT)$, причем
$x_n(nT)=x(nT)$. Операция восстановления состоит в том, что по заданному дискретному сигналу
строится аналоговый сигнал.
\end{block}
\begin{block}{Теорема Котельникова--Найквиста}
\begin{itemize}
\item любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным
отсчётам, взятым с частотой $f > 2f_c$, где $f_c$~-- максимальная частота, которой ограничен спектр
реального сигнала;
\item если максимальная частота в сигнале равна или превышает половину частоты дискретизации
(наложение спектра), то способа восстановить сигнал из дискретного в аналоговый без искажений не
существует.
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{Теорема Котельникова--Найквиста}
\begin{block}{}
$$\text{Фурье: }X_{s}(f)\ {\stackrel {\mathrm {def} }{=}}\sum _{n=-\infty }^{\infty }T\cdot x(nT)\
e^{-i2\pi
nTf}$$
$$\text{В окне: }X(f) = \sum _{n=-\infty }^{\infty }x(nT)\cdot \underbrace {T\cdot \mathrm {rect}
(Tf)\cdot
e^{-i2\pi nTf}} _{{\mathcal {F}}\left\{\mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]\right\}}$$
\end{block}
\begin{columns}\column{0.5\textwidth}
\img{ReconstructFilter}
\column{0.5\textwidth}
\begin{block}{Формула Уиттекера--Шеннона}
Восстановить непрерывную функцию из дискретной:
$$x(t)=\sum _{n=-\infty }^{\infty }x(nT)\cdot \mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]$$
\end{block}
\end{columns}
\end{frame}
\begin{frame}{Квантование}
\begin{defin}
Для преобразования дискретного сигнала в цифровой вид применяется операция квантования или
аналогово--цифрового преобразования~(АЦП), которая по заданному дискретному сигналу $x_n(nT)$
строит цифровой кодированный сигнал $x_d(nT)$, причем $x_n(nT)\approx x_d(nT)$. Обратная квантованию
операция называется операцией цифро--аналогового преобразования~(ЦАП).
\end{defin}
\only<1>{\img[0.7]{ADC}}
\only<2>{\img{DAC}}
\end{frame}
\section{Литература}
\begin{frame}{Основная литература}
\begin{itemize}
\item Интернет--энциклопедия: http:/\!/wikipedia.org (Википедия).
\item Гонсалес~Р., Вудс~Р. Цифровая обработка изображений.~--- М.: Техносфера, 2012.~---
1104~с.
\item Витязев~В.В. Вейвлет-анализ временных рядов: Учеб. пособие.~---
СПб.: Изд-во С.-Петерб. ун-та., 2001.~--- 58~с.
\item Гонсалес~Р., Вудс~Р., Эддинс~С. Цифровая обработка изображений
в среде MATLAB.~--- М.: Техносфера, 2006~--- 616~с.
\item Гмурман~В.\,Е. Теория вероятностей и математическая статистика.
Учеб. пособие для вузов.~--- Изд. 7-е, стер.~--- М.: Высш. шк., 2001.~--- 479~с.
\item Говорухин~В., Цибулин~В. Компьютер в математическом исследовании.
Учебный курс.~--- СПб.: Питер, 2001.~--- 624~с.
\item Сергиенко~А.\,Б. Цифровая обработка сигналов.~--- СПб.: Питер, 2005.~---
604~с.
\item Чен~К., Джиблин~П., Ирвинг~А. MATLAB в математических исследованиях:
Пер. с англ.~--- М.: Мир, 2001.~--- 346~с.
\end{itemize}
\end{frame}
\begin{frame}{Дополнительная литература}
\begin{itemize}
\item Бахвалов~Н.\,С., Жидков~Н.\,П., Кобельков~Г.\,М. Численные методы.~---
М.: Высш. шк., 1987.~--- 630~с.
\item Кнут~Д.\,Э. Все про \TeX./ Пер. с англ. М.\,В.~Лисиной.~---
Протвино: АО~RD\TeX, 1993.~--- 592~с.: ил.
\item Львовский~С.\,М. Набор и верстка в системе \LaTeX.~--- 3-е изд.,
исрп. и доп.~--- М.: МЦНМО, 2003.~--- 448~с.
\item Физическая энциклопедия/ Гл. ред. А.М.~Прохоров.~--- М.: Сов.
энциклопедия. Тт. I~--~V. 1988.
\item Цифровая обработка сигналов: Справочник/ Л.М.~Гольденберг,
Б.Д.~Матюшкин, М.Н.~Поляк.~--- М.: Радио и связь, 1985.~--- 312~с., ил.
\item \url{http://www.imageprocessingplace.com/}
\item Pan~G.\,W. Wavelets in electromagnetic and device modeling.~---
John~Wiley \& Sons, Inc., Hobocen, New Jersey, 2003.~--- 531~p.
\end{itemize}
\end{frame}
\begin{frame}{Лекция 2.}
\end{frame}
\section{Случайные величины, вероятность}
\begin{frame}{Случайные величины, вероятность}
\begin{defin}
Случайной величиной называется величина~$X$, если все ее возможные значения образуют
конечную
или бесконечную последовательность чисел~$x_1,\ldots$, $x_N$, и если принятие ею каждого из
этих
значений есть случайное событие.
\end{defin}
\begin{defin}\begin{columns}\column{0.75\textwidth}
Вероятностью наступления события называют предел относительной частоты
наступления данного события~$n_k/N$:\column{0.25\textwidth}
$$P(x_k)=\lim_{N\to\infty}\frac{n_k}{N}.$$
\end{columns}
\end{defin}
\begin{block}{}
Совместные и несовместные события, полная группа, свойства вероятности.
Для непрерывных случайных величин вводят понятие плотности вероятности:
$$\rho(x)=\lim_{\Delta x\to 0}\frac{P(x<X<x+\Delta x)}{\Delta
x}=\frac{dP}{dx}.$$
$$P(x_1<X<x_2)=\Int_{x_1}^{x_2}\rho(x)\,dx.$$
\end{block}
\end{frame}
\begin{frame}{Свойства вероятности}
\begin{block}{}\def\arraystretch{1.5}
\centering\begin{tabular}{>{\centering}p{0.45\textwidth}l}
$P(\emptyset) = 0$ &\\
$\forall A\subset B \quad P(A) \le P(B)$ & $B$ включает в себя $A$\\
$0\le P(A) \le 1$ & \\
$\forall A\subset B\quad P(B \setminus A) = P(B) - P(A)$ & $B$ наступит без $A$\\
$P(\overline{A}) =1 - P(A)$ &\\
$P(A+B) = P(A) + P(B) - P(AB)$ & вероятность одного из событий\\
$P(A\vert B) = \frc{P(AB)}{P(B)}$ & условная вероятность ($A$ при $B$) $\Longrightarrow$\\
$P(AB) = P(B)\cdot P(A\vert B)$ & или $P(AB) = P(A)\cdot P(B\vert A)$ $\Longrightarrow$\\
$P(A\vert B)=\dfrac{P(A)\cdot P(B\vert A)}{P(B)}$ & (теорема Байеса)\\[1em]
$P(AB) = P(A)\cdot P(B)$ & для независимых событий\\
\end{tabular}
\end{block}
\end{frame}
\section{Характеристики случайных величин}
\begin{frame}{Характеристики случайных величин}
\begin{block}{Среднее арифметическое и математическое ожидание}
$$\aver{X}=\frc1{N}\sum_{n=1}^N x_n,$$
$$M(X)\equiv\mean{X}=\lim_{N\to\infty}\frac1{N}\sum_{n=1}^N x_n\quad\text{и}\quad
M(X)=\Infint x\phi(x)\,dx.$$
\end{block}
\begin{block}{Свойства математического ожидания}
\begin{itemize}\setlength{\itemsep}{2pt}
\item $\mean\const=\const$;
\item $\mean{\sum\C_n\cdot X_n}=\sum\C_n\cdot \mean{X_n}$,
где $\C_n$~-- постоянная величина;
\item $\mean{\prod X_n}=\prod \mean{X_n}$ (для независимых случайных величин);
\item $\mean{f(x)}=\Infint f(x)\phi(x)\,dx$ (для непрерывных случайных величин).
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{Моменты}
Если $f(x)=(x-x_0)^n$, то $\mean{f(x)}$~--- момент порядка~$n$. Если $x_0=0$~---
начальный
момент, если $x_0=\mean{X}$--- центральный момент.
Центральный момент второго порядка называют дисперсией:
$D(X)=\mean{(x-\mean{x})^2}\equiv
\mean{x^2}-\mean{x}^2$, $\sigma=\sqrt{D}$.
\smallskip
Свойства дисперсии:
\begin{itemize}
\item $D(\C)=0$;
\item $D(\C X)=\C^2 D(X)$, где $\C$~-- постоянная величина;
\item $D(\sum X_n)=\sum D(X_n)$ (для независимых величин).
\end{itemize}
\end{block}
\begin{block}{$\mean{X}\Leftrightarrow\aver{X}$? Закон больших чисел}
Неравенство Чебыш\"ева: $P(|X-\mean{X}|\ge\epsilon)\le
\frc{D(X)}{\epsilon^2}\quad\Rightarrow$
$P(|X-\mean{X}|<\epsilon)=1-P(|X-\mean{X}|\ge\epsilon)\ge1-\frc{D(X)}{\epsilon^2}$.
$$\lim_{n\to\infty} P\Bigl(\Bigl|\frac{\sum
X_n}{n}-\frac{\sum\mean{X_n}}{n}\Bigr|<\epsilon\Bigr)=1,\;\text{ т.к. }\;
D(\frc{\sum X_n}{n})=\frc{D(X)}{n}
$$
Теорема Бернулли: $\lim\limits_{n\to\infty} P(m/n-p|<\epsilon)=1$ ($m$ событий в $n$
испытаний).
\end{block}
\end{frame}
\begin{frame}{Характеристические значения распределений}
\begin{block}{Медиана и мода}
{ Мода}~--- наиболее часто встречающееся значение (но вполне могут быть
мультимодальные
распределения). { Медиана} делит площадь распределения пополам.
\end{block}
\img[0.6]{mode_median}
\begin{block}{Поиск медианы}
Самый медленный~--- сортировкой ряда данных, $O(n\ln n)$. Quick Select, $O(n)$. Гистограмма (в т.ч.
дерево гистограмм), $O(n)$. Для фиксированных $n$~--- opt\_med (,,Numerical Recipes in C``), $O(n)$.
\end{block}
\end{frame}
\section{Законы распределения}
\begin{frame}{Законы распределения}
\begin{defin}
Закон распределения дискретной случайной величины~--- соответствие между
возможными значениями и их вероятностями.
\end{defin}
\begin{block}{Функция распределения}
$$F(x)\equiv P(X\le x)=\Int_{-\infty}^x\phi(x)\,dx, \qquad
\Infint\phi(x)\,dx=1.$$
$$P(a\le X\le b)=F(b)-F(a).$$
\end{block}
\end{frame}
\begin{frame}{Равномерное распределение}
\begin{columns}\column{0.45\textwidth}
\begin{block}{}
$$
\phi(x)=\begin{cases}\frac1{b-a}, & x\in [a,b] \\ 0, & x\not\in [a,b]
\end{cases}.
$$
$$F(x)= \begin{cases} 0, & x < a \\ \frac{x-a}{b-a}, & a \le x < b \\ 1, & x \ge
b \end{cases}.
$$
\end{block}\column{0.45\textwidth}
\begin{block}{}
$\mean{X}=\med(X)=(a+b)/2$, $\moda(X)=\forall x\in[a,b]$,
$\displaystyle\sigma^2_X = \frac{(b-a)^2}{12}$.
\end{block}
\end{columns}
\smimg[0.45]{Uniform_distribution_PDF}\hspace{3pt}
\smimg[0.45]{Uniform_distribution_CDF}
\end{frame}
\begin{lightframe}{Биномиальное распределение}
\vspace*{-0.8em}\begin{block}{}
Формула Бернулли:
$\displaystyle P_n(k)=C_n^k p^k q^{n-k},\quad C_n^k=\frac{n!}{k!(n-k)!},\quad
q=1-p.$
$$(p+q)^n=C_n^n p^n+\cdots+C_n^k p^k q^{n-k}+\cdots+C_n^0 q^k.$$
Описывает вероятность наступления события~$k$
раз в~$n$ независимых испытаниях
\end{block}\vspace*{-1em}
\begin{columns}
\column{0.45\textwidth}
\img{Binomial_Distribution}
\column{0.55\textwidth}
\begin{block}{}
$$
F(k;n,p)=P(X\leq k)=\sum_{i=0}^\floor{k} C_n^i p^i(1-p)^{n-i}.$$
$\mean{X}=np$, $\moda(X)=\floor{(n+1)p}$, $\floor{np}\le\med(X)\le\ceil{np}$,
$\sigma^2_X = npq$.
\end{block}
\end{columns}
\end{lightframe}
\begin{frame}{Распределение Пуассона}
\vspace*{-2em}\begin{block}{}
При $n\to\infty$ распределение Бернулли преобразуется в распределение Пуассона
($\lambda=np$):
$$P_n(k)=\frac{\lambda^k}{k!}\exp(-\lambda).$$
\end{block}
\begin{columns}\column{0.48\textwidth}
\begin{block}{}
$F(k, \lambda) = \displaystyle\frac{\Gamma(k+1,\lambda)}{k!}$,
$\mean{X} = \lambda$, $\moda(X) = \floor{\lambda}$,
$\med{X}\approx\floor{\lambda+1/3-0.02/\lambda}$,
$\sigma^2_X = \lambda$.
С ростом $\lambda$ распределение Пуассона стремится к распределению Гаусса.
\end{block}
\column{0.48\textwidth}
\img{poissonpdf}
\end{columns}
\end{frame}
\begin{frame}{Распределение Гаусса}
\vspace*{-2em}\begin{block}{}
$
\phi (x) = \dfrac 1 {\sigma \sqrt {2 \pi}} \exp \left( -\frac {(x -\mean{x})^2}{2
\sigma^2} \right)
$,
$F(x) = \displaystyle\frac 1{\sigma \sqrt {2 \pi}} \Int_{-\infty}^x \exp \left( -\frac{(t
-\mean{x})^2}{2 \sigma^2} \right)\, dt$,
$\moda(X) = \med{X} = \mean{X}$.
$P(\alpha < X < \beta) = \Phi\left(\frac{\beta - \mean{x}}{\sigma}\right) -
\Phi\left(\frac{\alpha - \mean{x}}{\sigma}\right) $,\\
функция Лапласа $\Phi(x)=\frac{1}{\sqrt{2\pi}}\int_0^x \exp\left(-\frc{t^2}{2}\right)$.
\end{block}
\img[0.6]{normpdf}
\end{frame}
\begin{frame}{Показательное (экспоненциальное) распределение}
\vspace*{-1em}\begin{block}{}
Время между двумя последовательными свершениями события
$$f(x)=\begin{cases}
0,& x<0,\\
\lambda\exp(-\lambda x),& x\ge0;
\end{cases}\qquad
F(x)=\begin{cases}
0,& x<0,\\
1-\exp(-\lambda x),& x\ge0,
\end{cases}
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$\mean{X} = \lambda^{-1}$,
$\moda(X) = 0$, $\med{X} = \ln(2)/\lambda$,
$\sigma^2_X = \lambda^{-2}$.
\end{block}
\vspace*{-1em}\img[0.5]{exppdf}
\end{frame}
\section{Корреляция и ковариация}
\begin{frame}{Корреляция и ковариация}
\begin{defin}
{}Ковариация является мерой линейной зависимости случайных величин и определяется
формулой:
$\mathrm{cov}(X,Y)=\mean{(X-\mean{X})(Y-\mean{Y})}$ $\Longrightarrow$ $\mathrm{cov}(X,X) =
\sigma^2_X$.
Ковариация независимых случайных величин равна нулю, обратное неверно.
\end{defin}
\begin{block}{}
Если ковариация положительна, то с ростом значений одной случайной величины, значения
второй имеют
тенденцию возрастать, а если знак отрицательный~--- убывать.
Масштаб зависимости величин пропорционален их дисперсиям $\Longrightarrow$ масштаб можно
отнормировать ({}коэффициент корреляции Пирсона):
$$\rho_{X,Y}=\frac{\mathrm{cov}(X,Y)}{\sigma X\sigma Y}, \qquad \mathbf{r}\in[-1,1].$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{}
Коэффициент корреляции равен~$\pm1$ тогда и только тогда, когда~$X$ и~$Y$ линейно зависимы.
Если
они независимы, $\rho_{X,Y}=0$ ({}обратное неверно!). Промежуточные значения
коэффициента
корреляции не позволяют однозначно судить о зависимости случайных величин, но позволяет
предполагать
степень их зависимости.
\end{block}
\begin{block}{Корреляционная функция}
Одна из разновидностей~--- автокорреляционная функция:
$$
\Psi(\tau) = \Int f(t) f(t-\tau)\, dt\equiv
\Int f(t+\tau) f(t)\,dt.
$$
Для дискретных случайных величин автокорреляционная функция имеет вид
$$
\Psi(\tau) = \aver{X(t)X(t-\tau)}\equiv\aver{X(t+\tau)X(t)}.
$$
\end{block}
\end{frame}
\begin{blueframe}{}
\begin{block}{Взаимно корреляционная функция}
Другая разновидность~--- кросс--корреляционная функция:
$$(f\star g)(t)\stackrel{\mathrm{def}}{=}\Infint f^{*}(\tau)g(t+\tau)\,d\tau$$
свертка:
$$ (f*g)(x)\stackrel{\mathrm{def}}{=}\Infint f(y)\,g(x-y)\,dy = \Infint f(x-y)\,g(y)\, dy.$$
\end{block}
\img[0.5]{convcorr}
\end{blueframe}
\begin{frame}{}
\begin{block}{}
Если $X$ и $Y$~--- две независимых случайных величины с функциями распределения вероятностей
$f$ и $g$, то $f\star g$ соответствует распределению вероятностей выражения $-X+Y$, а
$f*g$~---
распределению вероятностей суммы $X + Y$.
ВКФ часто используется для поиска в длинной последовательности более короткой заранее
известной,
определения сдвига (см.~рис).
Связь со сверткой: $f(t)\star g(t) = f^*(-t) * g(t)$, если $f$ и $g$ четны, то
$f(t)\star g(t) = f(t) * g(t)$. Через преобразование Фурье:
$\FT{f \star g} = \FT{f}^*\cdot\FT{g}$.
\end{block}\img[0.6]{autocorr}
\end{frame}
\section{Шум}
\begin{frame}{Шум}
\begin{defin}
Шум~--- беспорядочные колебания различной физической природы, отличающиеся сложной
временной и
спектральной структурой.
\end{defin}
\begin{block}{}
Белый шум, $\xi(t)$, имеет время корреляции много меньше всех характерных времен
физической
системы; $\mean{\xi(t)}=0$,
$\Psi(t,\tau)=\aver{\xi(t+\tau)\xi(t)}=\sigma^2(t)\delta(\tau)$.
Разновидность~--- AWGN.
Дробовой шум имеет пуассонову статистику~\so $\sigma_X\propto\sqrt{x}$ и
$\SNR(N)\propto\sqrt{N}$. Суточные и вековые корреляции.
Шум вида <<соль--перец>> обычно характерен для изображений, считываемых с ПЗС.
\end{block}
\end{frame}
\begin{frame}{SNR}
\begin{defin}
SNR~--- безразмерная величина, равная отношению мощности полезного сигнала к мощности
шума.
\end{defin}
\begin{block}{}
$$\SNR = {P_\mathrm{signal} \over P_\mathrm{noise}} = \left ({A_\mathrm{signal} \over
A_\mathrm{noise} } \right )^2, \quad
\SNR(dB) = 10 \lg \left ( {P_\mathrm{signal} \over P_\mathrm{noise}}
\right )
= 20 \lg \left ( {A_\mathrm{signal} \over A_\mathrm{noise}} \right ).
$$
\end{block}
\img[0.6]{SNR}
\centerline{\tiny (10, 0, -10~дБ.)}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}