modify computing

This commit is contained in:
Edward Emelianov 2021-04-06 11:35:34 +03:00
parent e0005fb547
commit 028d6a1bf6
188 changed files with 2099 additions and 731 deletions

Binary file not shown.

View File

@ -0,0 +1,566 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекции 1, 2.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 1. Общие сведения об измерениях. Виды сигналов и методы их анализа.\\
Лекция 2. Статистика и вероятность. Случайные величины и распределения}
\date{18~марта 2021~года}
\begin{document}
% Титул
\begin{frame}{}
\maketitle
\end{frame}
% Содержание
\begin{frame}{}
\tableofcontents[hideallsubsections]
\end{frame}
\section{Физические измерения}
\begin{frame}{Физические измерения}
\begin{defin}
Экспериментальное определение значения измеряемой величины с применением средств
измерений называется {\bf измерением}.
\end{defin}
\begin{block}{}
Важнейшей особенностью измерений является {\it принципиальная невозможность
получения результатов измерения, в точности равных истинному значению
измеряемой величины} (особенно эта особенность проявляется в микромире, где
господствует принцип неопределенности).
Эта особенность приводит к необходимости оценки степени близости результата
измерения к истинному значению измеряемой величины, т.е. вычислять
{\bf погрешность измерения}.
\end{block}
\end{frame}
\begin{frame}{Виды измерений}
\begin{block}{}
Статическими называют такие измерения, при
которых зависимость погрешности измерения от скорости измерения пренебрежимо
мала и ее можно не учитывать. Динамические
измерения противоположны статическим.
Результаты прямых измерений находят непосредственно из опыта, косвенных же измерений~---
путем расчета по известной зависимости измеряемой величины от величин, находимых
прямыми измерениями (например, измерение мощности).
Совместное измерение --- одновременное измерение нескольких неодноименных величин для
нахождения зависимости между ними (например, ВАХ диода).
Совокупное измерение~--- это проведение ряда измерений нескольких величин одинаковой
размерности в различных сочетаниях с нахождением искомых величин из решения системы уравнений
(например, измерение $R$ включенных треугольником резисторов).
\end{block}
\end{frame}
\begin{frame}{Представление результатов}
\only<1>{
\begin{block}{Табличное}
Позволяет избежать многократной записи единиц измерения, обозначений измеряемой величины,
используемых множителей. В таблицы, помимо основных измерений, могут быть включены и результаты
промежуточных измерений.
Для удобства импортирования данных и одновременно наглядности чтения удобно хранить в формате TSV
(tab separated values) или CSV (comma separated values).
SED позволит легко преобразовать TSV/CSV в таблицу \LaTeX.
\end{block}
\begin{block}{Графическое}
На основе графика легко можно сделать вывод о соответствии
теоретических представлений данным эксперимента, определить вид функциональной
зависимости измеряемой величины.
\end{block}
}
\only<2>{\img{table1}}
\only<3>{\vspace*{-1em}\img[0.9]{table2}}
\only<4>{\vspace*{-2em}\img{graph1}}
\only<5>{\vspace*{-2em}\img{graph2}}
\end{frame}
\section{Сигналы и их виды}
\begin{frame}{Сигналы и их виды}
\only<1>{
\begin{defin}
Если некоторая изменяющаяся величина измеряется непрерывно (или квазинепрерывно), мы
имеем дело с потоком информации, или сообщением.
В теории информации физический процесс, значения параметров которого отображают
передаваемое сообщение, называется сигналом.
\end{defin}
\begin{block}{}
Модуляция--демодуляция. Зашумление.
{\bf Помехи}: аддитивные, мультипликативные, фазовые.
\end{block}
}
\only<2>{\img[0.7]{Ampl_modulation}}
\only<3>{\img{Freq_modulation}}
\only<4>{\begin{light}\img[0.7]{Phase_modulation}\end{light}}
\only<5>{Add/mult\img[0.7]{add_mult_noise}}
\end{frame}
\begin{frame}{Виды сигналов}
\only<1>{
\begin{block}{Аналоговый}
Описывается непрерывной (или кусочно--непрерывной) функцией $x(t)$: $t\in[t_0,t_1]$,
$x\in[x_0,x_1]$. Аудиосигналы, телевизионные сигналы и т.п.
\end{block}
\img[0.4]{oscill}
}
\only<2>{
\begin{block}{Дискретный}
Описывается решетчатой функцией (последовательностью, временн\'ым рядом) $x(nT)$: $x\in[x_0,x_1]$,
$n=\overline{1,N}$, $T$~-- интервал дискретизации. Величину $f=1/T$
называют частотой дискретизации. Если интервал дискретизации является
постоянной величиной, дискретный сигнал можно задать в виде ряда $\{x_1,\ldots, x_N\}$.
\end{block}
\img[0.6]{disc_sig}
}
\only<3>{
\begin{block}{Цифровой}
Описывается квантованной решетчатой функцией и отличается от обычного дискретного сигнала тем, что
каждый уровень квантования кодируется двоичным кодом. Таким образом, если
величина $x\in[x_0,x_1]$ квантуется $N$~разрядным кодом, для
обратного представления из кода $K_x$ в значение $x$ применяется
преобразование: $x=x_0+K_x\cdot (x_1-x_0)/2^{N}$. К цифровым сигналам относятся
сигналы, используемые в системах связи с импульсно--кодовой модуляцией.
\end{block}
\img[0.4]{digital_signal}
}
\only<4>{\img{Analog_signal}}
\end{frame}
\begin{frame}{Дискретизация}
\begin{block}{}
Дискретизация строит по заданному аналоговому сигналу $x(t)$ дискретный сигнал $x_n(nT)$, причем
$x_n(nT)=x(nT)$. Операция восстановления состоит в том, что по заданному дискретному сигналу
строится аналоговый сигнал.
\end{block}
\begin{block}{Теорема Котельникова--Найквиста}
\begin{itemize}
\item любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным
отсчётам, взятым с частотой $f > 2f_c$, где $f_c$~-- максимальная частота, которой ограничен спектр
реального сигнала;
\item если максимальная частота в сигнале равна или превышает половину частоты дискретизации
(наложение спектра), то способа восстановить сигнал из дискретного в аналоговый без искажений не
существует.
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{Теорема Котельникова--Найквиста}
\begin{block}{}
$$\text{Фурье: }X_{s}(f)\ {\stackrel {\mathrm {def} }{=}}\sum _{n=-\infty }^{\infty }T\cdot x(nT)\
e^{-i2\pi
nTf}$$
$$\text{В окне: }X(f) = \sum _{n=-\infty }^{\infty }x(nT)\cdot \underbrace {T\cdot \mathrm {rect}
(Tf)\cdot
e^{-i2\pi nTf}} _{{\mathcal {F}}\left\{\mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]\right\}}$$
\end{block}
\begin{columns}\column{0.5\textwidth}
\img{ReconstructFilter}
\column{0.5\textwidth}
\begin{block}{Формула Уиттекера--Шеннона}
Восстановить непрерывную функцию из дискретной:
$$x(t)=\sum _{n=-\infty }^{\infty }x(nT)\cdot \mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]$$
\end{block}
\end{columns}
\end{frame}
\begin{frame}{Квантование}
\begin{defin}
Для преобразования дискретного сигнала в цифровой вид применяется операция квантования или
аналогово--цифрового преобразования~(АЦП), которая по заданному дискретному сигналу $x_n(nT)$
строит цифровой кодированный сигнал $x_d(nT)$, причем $x_n(nT)\approx x_d(nT)$. Обратная квантованию
операция называется операцией цифро--аналогового преобразования~(ЦАП).
\end{defin}
\only<1>{\img[0.7]{ADC}}
\only<2>{\img{DAC}}
\end{frame}
\section{Литература}
\begin{frame}{Основная литература}
\begin{itemize}
\item Интернет--энциклопедия: http:/\!/wikipedia.org (Википедия).
\item Гонсалес~Р., Вудс~Р. Цифровая обработка изображений.~--- М.: Техносфера, 2012.~---
1104~с.
\item Витязев~В.В. Вейвлет-анализ временных рядов: Учеб. пособие.~---
СПб.: Изд-во С.-Петерб. ун-та., 2001.~--- 58~с.
\item Гонсалес~Р., Вудс~Р., Эддинс~С. Цифровая обработка изображений
в среде MATLAB.~--- М.: Техносфера, 2006~--- 616~с.
\item Гмурман~В.\,Е. Теория вероятностей и математическая статистика.
Учеб. пособие для вузов.~--- Изд. 7-е, стер.~--- М.: Высш. шк., 2001.~--- 479~с.
\item Говорухин~В., Цибулин~В. Компьютер в математическом исследовании.
Учебный курс.~--- СПб.: Питер, 2001.~--- 624~с.
\item Сергиенко~А.\,Б. Цифровая обработка сигналов.~--- СПб.: Питер, 2005.~---
604~с.
\item Чен~К., Джиблин~П., Ирвинг~А. MATLAB в математических исследованиях:
Пер. с англ.~--- М.: Мир, 2001.~--- 346~с.
\end{itemize}
\end{frame}
\begin{frame}{Дополнительная литература}
\begin{itemize}
\item Бахвалов~Н.\,С., Жидков~Н.\,П., Кобельков~Г.\,М. Численные методы.~---
М.: Высш. шк., 1987.~--- 630~с.
\item Кнут~Д.\,Э. Все про \TeX./ Пер. с англ. М.\,В.~Лисиной.~---
Протвино: АО~RD\TeX, 1993.~--- 592~с.: ил.
\item Львовский~С.\,М. Набор и верстка в системе \LaTeX.~--- 3-е изд.,
исрп. и доп.~--- М.: МЦНМО, 2003.~--- 448~с.
\item Физическая энциклопедия/ Гл. ред. А.М.~Прохоров.~--- М.: Сов.
энциклопедия. Тт. I~--~V. 1988.
\item Цифровая обработка сигналов: Справочник/ Л.М.~Гольденберг,
Б.Д.~Матюшкин, М.Н.~Поляк.~--- М.: Радио и связь, 1985.~--- 312~с., ил.
\item \url{http://www.imageprocessingplace.com/}
\item Pan~G.\,W. Wavelets in electromagnetic and device modeling.~---
John~Wiley \& Sons, Inc., Hobocen, New Jersey, 2003.~--- 531~p.
\end{itemize}
\end{frame}
\begin{frame}{Лекция 2.}
\end{frame}
\section{Случайные величины, вероятность}
\begin{frame}{Случайные величины, вероятность}
\begin{defin}
Случайной величиной называется величина~$X$, если все ее возможные значения образуют
конечную
или бесконечную последовательность чисел~$x_1,\ldots$, $x_N$, и если принятие ею каждого из
этих
значений есть случайное событие.
\end{defin}
\begin{defin}\begin{columns}\column{0.75\textwidth}
Вероятностью наступления события называют предел относительной частоты
наступления данного события~$n_k/N$:\column{0.25\textwidth}
$$P(x_k)=\lim_{N\to\infty}\frac{n_k}{N}.$$
\end{columns}
\end{defin}
\begin{block}{}
Совместные и несовместные события, полная группа, свойства вероятности.
Для непрерывных случайных величин вводят понятие плотности вероятности:
$$\rho(x)=\lim_{\Delta x\to 0}\frac{P(x<X<x+\Delta x)}{\Delta
x}=\frac{dP}{dx}.$$
$$P(x_1<X<x_2)=\Int_{x_1}^{x_2}\rho(x)\,dx.$$
\end{block}
\end{frame}
\begin{frame}{Свойства вероятности}
\begin{block}{}\def\arraystretch{1.5}
\centering\begin{tabular}{>{\centering}p{0.45\textwidth}l}
$P(\emptyset) = 0$ &\\
$\forall A\subset B \quad P(A) \le P(B)$ & $B$ включает в себя $A$\\
$0\le P(A) \le 1$ & \\
$\forall A\subset B\quad P(B \setminus A) = P(B) - P(A)$ & $B$ наступит без $A$\\
$P(\overline{A}) =1 - P(A)$ &\\
$P(A+B) = P(A) + P(B) - P(AB)$ & вероятность одного из событий\\
$P(A\vert B) = \frc{P(AB)}{P(B)}$ & условная вероятность ($A$ при $B$) $\Longrightarrow$\\
$P(AB) = P(B)\cdot P(A\vert B)$ & или $P(AB) = P(A)\cdot P(B\vert A)$ $\Longrightarrow$\\
$P(A\vert B)=\dfrac{P(A)\cdot P(B\vert A)}{P(B)}$ & (теорема Байеса)\\[1em]
$P(AB) = P(A)\cdot P(B)$ & для независимых событий\\
\end{tabular}
\end{block}
\end{frame}
\section{Характеристики случайных величин}
\begin{frame}{Характеристики случайных величин}
\begin{block}{Среднее арифметическое и математическое ожидание}
$$\aver{X}=\frc1{N}\sum_{n=1}^N x_n,$$
$$M(X)\equiv\mean{X}=\lim_{N\to\infty}\frac1{N}\sum_{n=1}^N x_n\quad\text{и}\quad
M(X)=\Infint x\phi(x)\,dx.$$
\end{block}
\begin{block}{Свойства математического ожидания}
\begin{itemize}\setlength{\itemsep}{2pt}
\item $\mean\const=\const$;
\item $\mean{\sum\C_n\cdot X_n}=\sum\C_n\cdot \mean{X_n}$,
где $\C_n$~-- постоянная величина;
\item $\mean{\prod X_n}=\prod \mean{X_n}$ (для независимых случайных величин);
\item $\mean{f(x)}=\Infint f(x)\phi(x)\,dx$ (для непрерывных случайных величин).
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{Моменты}
Если $f(x)=(x-x_0)^n$, то $\mean{f(x)}$~--- момент порядка~$n$. Если $x_0=0$~---
начальный
момент, если $x_0=\mean{X}$--- центральный момент.
Центральный момент второго порядка называют дисперсией:
$D(X)=\mean{(x-\mean{x})^2}\equiv
\mean{x^2}-\mean{x}^2$, $\sigma=\sqrt{D}$.
\smallskip
Свойства дисперсии:
\begin{itemize}
\item $D(\C)=0$;
\item $D(\C X)=\C^2 D(X)$, где $\C$~-- постоянная величина;
\item $D(\sum X_n)=\sum D(X_n)$ (для независимых величин).
\end{itemize}
\end{block}
\begin{block}{$\mean{X}\Leftrightarrow\aver{X}$? Закон больших чисел}
Неравенство Чебыш\"ева: $P(|X-\mean{X}|\ge\epsilon)\le
\frc{D(X)}{\epsilon^2}\quad\Rightarrow$
$P(|X-\mean{X}|<\epsilon)=1-P(|X-\mean{X}|\ge\epsilon)\ge1-\frc{D(X)}{\epsilon^2}$.
$$\lim_{n\to\infty} P\Bigl(\Bigl|\frac{\sum
X_n}{n}-\frac{\sum\mean{X_n}}{n}\Bigr|<\epsilon\Bigr)=1,\;\text{ т.к. }\;
D(\frc{\sum X_n}{n})=\frc{D(X)}{n}
$$
Теорема Бернулли: $\lim\limits_{n\to\infty} P(m/n-p|<\epsilon)=1$ ($m$ событий в $n$
испытаний).
\end{block}
\end{frame}
\begin{frame}{Характеристические значения распределений}
\begin{block}{Медиана и мода}
{ Мода}~--- наиболее часто встречающееся значение (но вполне могут быть
мультимодальные
распределения). { Медиана} делит площадь распределения пополам.
\end{block}
\img[0.6]{mode_median}
\begin{block}{Поиск медианы}
Самый медленный~--- сортировкой ряда данных, $O(n\ln n)$. Quick Select, $O(n)$. Гистограмма (в т.ч.
дерево гистограмм), $O(n)$. Для фиксированных $n$~--- opt\_med (,,Numerical Recipes in C``), $O(n)$.
\end{block}
\end{frame}
\section{Законы распределения}
\begin{frame}{Законы распределения}
\begin{defin}
Закон распределения дискретной случайной величины~--- соответствие между
возможными значениями и их вероятностями.
\end{defin}
\begin{block}{Функция распределения}
$$F(x)\equiv P(X\le x)=\Int_{-\infty}^x\phi(x)\,dx, \qquad
\Infint\phi(x)\,dx=1.$$
$$P(a\le X\le b)=F(b)-F(a).$$
\end{block}
\end{frame}
\begin{frame}{Равномерное распределение}
\begin{columns}\column{0.45\textwidth}
\begin{block}{}
$$
\phi(x)=\begin{cases}\frac1{b-a}, & x\in [a,b] \\ 0, & x\not\in [a,b]
\end{cases}.
$$
$$F(x)= \begin{cases} 0, & x < a \\ \frac{x-a}{b-a}, & a \le x < b \\ 1, & x \ge
b \end{cases}.
$$
\end{block}\column{0.45\textwidth}
\begin{block}{}
$\mean{X}=\med(X)=(a+b)/2$, $\moda(X)=\forall x\in[a,b]$,
$\displaystyle\sigma^2_X = \frac{(b-a)^2}{12}$.
\end{block}
\end{columns}
\smimg[0.45]{Uniform_distribution_PDF}\hspace{3pt}
\smimg[0.45]{Uniform_distribution_CDF}
\end{frame}
\begin{lightframe}{Биномиальное распределение}
\vspace*{-0.8em}\begin{block}{}
Формула Бернулли:
$\displaystyle P_n(k)=C_n^k p^k q^{n-k},\quad C_n^k=\frac{n!}{k!(n-k)!},\quad
q=1-p.$
$$(p+q)^n=C_n^n p^n+\cdots+C_n^k p^k q^{n-k}+\cdots+C_n^0 q^k.$$
Описывает вероятность наступления события~$k$
раз в~$n$ независимых испытаниях
\end{block}\vspace*{-1em}
\begin{columns}
\column{0.45\textwidth}
\img{Binomial_Distribution}
\column{0.55\textwidth}
\begin{block}{}
$$
F(k;n,p)=P(X\leq k)=\sum_{i=0}^\floor{k} C_n^i p^i(1-p)^{n-i}.$$
$\mean{X}=np$, $\moda(X)=\floor{(n+1)p}$, $\floor{np}\le\med(X)\le\ceil{np}$,
$\sigma^2_X = npq$.
\end{block}
\end{columns}
\end{lightframe}
\begin{frame}{Распределение Пуассона}
\vspace*{-2em}\begin{block}{}
При $n\to\infty$ распределение Бернулли преобразуется в распределение Пуассона
($\lambda=np$):
$$P_n(k)=\frac{\lambda^k}{k!}\exp(-\lambda).$$
\end{block}
\begin{columns}\column{0.48\textwidth}
\begin{block}{}
$F(k, \lambda) = \displaystyle\frac{\Gamma(k+1,\lambda)}{k!}$,
$\mean{X} = \lambda$, $\moda(X) = \floor{\lambda}$,
$\med{X}\approx\floor{\lambda+1/3-0.02/\lambda}$,
$\sigma^2_X = \lambda$.
С ростом $\lambda$ распределение Пуассона стремится к распределению Гаусса.
\end{block}
\column{0.48\textwidth}
\img{poissonpdf}
\end{columns}
\end{frame}
\begin{frame}{Распределение Гаусса}
\vspace*{-2em}\begin{block}{}
$
\phi (x) = \dfrac 1 {\sigma \sqrt {2 \pi}} \exp \left( -\frac {(x -\mean{x})^2}{2
\sigma^2} \right)
$,
$F(x) = \displaystyle\frac 1{\sigma \sqrt {2 \pi}} \Int_{-\infty}^x \exp \left( -\frac{(t
-\mean{x})^2}{2 \sigma^2} \right)\, dt$,
$\moda(X) = \med{X} = \mean{X}$.
$P(\alpha < X < \beta) = \Phi\left(\frac{\beta - \mean{x}}{\sigma}\right) -
\Phi\left(\frac{\alpha - \mean{x}}{\sigma}\right) $,\\
функция Лапласа $\Phi(x)=\frac{1}{\sqrt{2\pi}}\int_0^x \exp\left(-\frc{t^2}{2}\right)$.
\end{block}
\img[0.6]{normpdf}
\end{frame}
\begin{frame}{Показательное (экспоненциальное) распределение}
\vspace*{-1em}\begin{block}{}
Время между двумя последовательными свершениями события
$$f(x)=\begin{cases}
0,& x<0,\\
\lambda\exp(-\lambda x),& x\ge0;
\end{cases}\qquad
F(x)=\begin{cases}
0,& x<0,\\
1-\exp(-\lambda x),& x\ge0,
\end{cases}
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$\mean{X} = \lambda^{-1}$,
$\moda(X) = 0$, $\med{X} = \ln(2)/\lambda$,
$\sigma^2_X = \lambda^{-2}$.
\end{block}
\vspace*{-1em}\img[0.5]{exppdf}
\end{frame}
\section{Корреляция и ковариация}
\begin{frame}{Корреляция и ковариация}
\begin{defin}
{}Ковариация является мерой линейной зависимости случайных величин и определяется
формулой:
$\mathrm{cov}(X,Y)=\mean{(X-\mean{X})(Y-\mean{Y})}$ $\Longrightarrow$ $\mathrm{cov}(X,X) =
\sigma^2_X$.
Ковариация независимых случайных величин равна нулю, обратное неверно.
\end{defin}
\begin{block}{}
Если ковариация положительна, то с ростом значений одной случайной величины, значения
второй имеют
тенденцию возрастать, а если знак отрицательный~--- убывать.
Масштаб зависимости величин пропорционален их дисперсиям $\Longrightarrow$ масштаб можно
отнормировать ({}коэффициент корреляции Пирсона):
$$\rho_{X,Y}=\frac{\mathrm{cov}(X,Y)}{\sigma X\sigma Y}, \qquad \mathbf{r}\in[-1,1].$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{}
Коэффициент корреляции равен~$\pm1$ тогда и только тогда, когда~$X$ и~$Y$ линейно зависимы.
Если
они независимы, $\rho_{X,Y}=0$ ({}обратное неверно!). Промежуточные значения
коэффициента
корреляции не позволяют однозначно судить о зависимости случайных величин, но позволяет
предполагать
степень их зависимости.
\end{block}
\begin{block}{Корреляционная функция}
Одна из разновидностей~--- автокорреляционная функция:
$$
\Psi(\tau) = \Int f(t) f(t-\tau)\, dt\equiv
\Int f(t+\tau) f(t)\,dt.
$$
Для дискретных случайных величин автокорреляционная функция имеет вид
$$
\Psi(\tau) = \aver{X(t)X(t-\tau)}\equiv\aver{X(t+\tau)X(t)}.
$$
\end{block}
\end{frame}
\begin{blueframe}{}
\begin{block}{Взаимно корреляционная функция}
Другая разновидность~--- кросс--корреляционная функция:
$$(f\star g)(t)\stackrel{\mathrm{def}}{=}\Infint f^{*}(\tau)g(t+\tau)\,d\tau$$
свертка:
$$ (f*g)(x)\stackrel{\mathrm{def}}{=}\Infint f(y)\,g(x-y)\,dy = \Infint f(x-y)\,g(y)\, dy.$$
\end{block}
\img[0.5]{convcorr}
\end{blueframe}
\begin{frame}{}
\begin{block}{}
Если $X$ и $Y$~--- две независимых случайных величины с функциями распределения вероятностей
$f$ и $g$, то $f\star g$ соответствует распределению вероятностей выражения $-X+Y$, а
$f*g$~---
распределению вероятностей суммы $X + Y$.
ВКФ часто используется для поиска в длинной последовательности более короткой заранее
известной,
определения сдвига (см.~рис).
Связь со сверткой: $f(t)\star g(t) = f^*(-t) * g(t)$, если $f$ и $g$ четны, то
$f(t)\star g(t) = f(t) * g(t)$. Через преобразование Фурье:
$\FT{f \star g} = \FT{f}^*\cdot\FT{g}$.
\end{block}\img[0.6]{autocorr}
\end{frame}
\section{Шум}
\begin{frame}{Шум}
\begin{defin}
Шум~--- беспорядочные колебания различной физической природы, отличающиеся сложной
временной и
спектральной структурой.
\end{defin}
\begin{block}{}
Белый шум, $\xi(t)$, имеет время корреляции много меньше всех характерных времен
физической
системы; $\mean{\xi(t)}=0$,
$\Psi(t,\tau)=\aver{\xi(t+\tau)\xi(t)}=\sigma^2(t)\delta(\tau)$.
Разновидность~--- AWGN.
Дробовой шум имеет пуассонову статистику~\so $\sigma_X\propto\sqrt{x}$ и
$\SNR(N)\propto\sqrt{N}$. Суточные и вековые корреляции.
Шум вида <<соль--перец>> обычно характерен для изображений, считываемых с ПЗС.
\end{block}
\end{frame}
\begin{frame}{SNR}
\begin{defin}
SNR~--- безразмерная величина, равная отношению мощности полезного сигнала к мощности
шума.
\end{defin}
\begin{block}{}
$$\SNR = {P_\mathrm{signal} \over P_\mathrm{noise}} = \left ({A_\mathrm{signal} \over
A_\mathrm{noise} } \right )^2, \quad
\SNR(dB) = 10 \lg \left ( {P_\mathrm{signal} \over P_\mathrm{noise}}
\right )
= 20 \lg \left ( {A_\mathrm{signal} \over A_\mathrm{noise}} \right ).
$$
\end{block}
\img[0.6]{SNR}
\centerline{\tiny (10, 0, -10~дБ.)}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

Binary file not shown.

View File

@ -1,322 +0,0 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 1.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 1. Общие сведения об измерениях. Виды сигналов и методы их анализа}
\date{30 июня 2016 года}
\begin{document}
% Титул
\begin{frame}{}
\maketitle
\end{frame}
% Содержание
\begin{frame}{}
\tableofcontents[hideallsubsections]
\end{frame}
\section{Физические измерения}
\begin{frame}{Физические измерения}
\begin{defin}
Экспериментальное определение значения измеряемой величины с применением средств
измерений называется {\bf измерением}.
\end{defin}
\begin{block}{}
Важнейшей особенностью измерений является {\it принципиальная невозможность
получения результатов измерения, в точности равных истинному значению
измеряемой величины} (особенно эта особенность проявляется в микромире, где
господствует принцип неопределенности).
Эта особенность приводит к необходимости оценки степени близости результата
измерения к истинному значению измеряемой величины, т.е. вычислять
{\bf погрешность измерения}.
\end{block}
\end{frame}
\begin{frame}{Виды измерений}
\begin{block}{}
Статическими называют такие измерения, при
которых зависимость погрешности измерения от скорости измерения пренебрежимо
мала и ее можно не учитывать. Динамические
измерения противоположны статическим.
Результаты прямых измерений находят непосредственно из опыта, косвенных же измерений~---
путем расчета по известной зависимости измеряемой величины от величин, находимых
прямыми измерениями (например, измерение мощности).
Совместное измерение --- одновременное измерение нескольких неодноименных величин для
нахождения зависимости между ними (например, ВАХ диода).
Совокупное измерение~--- это проведение ряда измерений нескольких величин одинаковой
размерности в различных сочетаниях с нахождением искомых величин из решения системы уравнений
(например, измерение $R$ включенных треугольником резисторов).
\end{block}
\end{frame}
\begin{frame}{Представление результатов}
\begin{block}{Табличное}
Позволяет избежать многократной записи единиц измерения, обозначений измеряемой величины,
используемых множителей. В таблицы, помимо основных измерений, могут быть включены и результаты
промежуточных измерений.
Для удобства импортирования данных и одновременно наглядности чтения удобно хранить в формате TSV.
SED позволит легко преобразовать TSV в таблицу латеха.
\end{block}
\begin{block}{Графическое}
На основе графика легко можно сделать вывод о соответствии
теоретических представлений данным эксперимента, определить вид функциональной
зависимости измеряемой величины.
\end{block}
\end{frame}
\section{Сигналы и их виды}
\begin{frame}{Сигналы и их виды}
\begin{defin}
Если некоторая изменяющаяся величина измеряется непрерывно (или квазинепрерывно), мы
имеем дело с потоком информации, или сообщением.
В теории информации физический процесс, значения параметров которого отображают
передаваемое сообщение, называется сигналом.
\end{defin}
\begin{block}{}
Модуляция--демодуляция. Зашумление.
{\bf Помехи}: аддитивные, мультипликативные, фазовые.
\end{block}
\end{frame}
\begin{frame}{Виды сигналов}
\only<1>{
\begin{block}{Аналоговый}
Описывается непрерывной (или кусочно--непрерывной) функцией $x(t)$: $t\in[t_0,t_1]$,
$x\in[x_0,x_1]$. Аудиосигналы, телевизионные сигналы.
\end{block}
\img[0.3]{oscill}
}
\only<2>{
\begin{block}{Дискретный}
Описывается решетчатой функцией (последовательностью, временн\'ым рядом) $x(nT)$: $x\in[x_0,x_1]$,
$n=\overline{1,N}$, $T$~-- интервал дискретизации. Величину $f=1/T$
называют частотой дискретизации. Если интервал дискретизации является
постоянной величиной, дискретный сигнал можно задать в виде ряда $\{x_1,\ldots, x_N\}$.
\end{block}
\img[0.6]{disc_sig}
}
\only<3>{
\begin{block}{Цифровой}
Описывается квантованной решетчатой функцией и отличается от обычного дискретного сигнала тем, что
каждый уровень квантования кодируется двоичным кодом. Таким образом, если
величина $x\in[x_0,x_1]$ квантуется $N$~разрядным кодом, для
обратного представления из кода $K_x$ в значение $x$ применяется
преобразование: $x=x_0+K_x\cdot (x_1-x_0)/2^{N}$. К цифровым сигналам относятся
сигналы, используемые в системах связи с импульсно--кодовой модуляцией.
\end{block}
\img[0.4]{digital_signal}
}
\end{frame}
\begin{frame}{Дискретизация}
\begin{block}{}
Дискретизация строит по заданному аналоговому сигналу $x(t)$ дискретный сигнал $x_n(nT)$, причем
$x_n(nT)=x(nT)$. Операция восстановления состоит в том, что по заданному дискретному сигналу
строится аналоговый сигнал.
\end{block}
\begin{block}{Теорема Котельникова--Найквиста}
\begin{itemize}
\item любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным
отсчётам, взятым с частотой $f > 2f_c$, где $f_c$~-- максимальная частота, которой ограничен спектр
реального сигнала;
\item если максимальная частота в сигнале равна или превышает половину частоты дискретизации
(наложение спектра), то способа восстановить сигнал из дискретного в аналоговый без искажений не
существует.
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{Теорема Котельникова--Найквиста}
\begin{block}{}
$$X_{s}(f)\ {\stackrel {\mathrm {def} }{=}}\sum _{n=-\infty }^{\infty }T\cdot x(nT)\ e^{-i2\pi
nTf}$$
$$X(f) = \sum _{n=-\infty }^{\infty }x(nT)\cdot \underbrace {T\cdot \mathrm {rect} (Tf)\cdot
e^{-i2\pi nTf}} _{{\mathcal {F}}\left\{\mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]\right\}}$$
\end{block}
\begin{columns}\column{0.5\textwidth}
\img{ReconstructFilter}
\column{0.5\textwidth}
\begin{block}{Формула Уиттекера--Шеннона}
$$x(t)=\sum _{n=-\infty }^{\infty }x(nT)\cdot \mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]$$
\end{block}
\end{columns}
\end{frame}
\begin{frame}{Квантование}
\begin{defin}
Для преобразования дискретного сигнала в цифровой вид применяется операция квантования или
аналогово--цифрового преобразования~(АЦП), которая по заданному дискретному сигналу $x_n(nT)$
строит цифровой кодированный сигнал $x_d(nT)$, причем $x_n(nT)\approx x_d(nT)$. Обратная квантованию
операция называется операцией цифро--аналогового преобразования~(ЦАП).
\end{defin}
\only<1>{\img[0.7]{ADC}}
\only<2>{\img{DAC}}
\end{frame}
\section{Методы анализа сигналов}
\begin{frame}{Методы анализа сигналов}
\begin{block}{Группы методов}
\begin{description}
\item[В пространственной области] над сигналом производят какие--либо преобразования, одинаковые
для всего сигнала (аддитивные, мультипликативные или матричные) --- бинаризация, гистограммы,
свертка, выделение компонент, сглаживание\dots
\item[В частотной области] работа производится не с сигналом, а с его спектром (обычно Фурье) ---
свертка через Фурье, сглаживание \slash фильтрация, выделение деталей, деконволюция\dots
\end{description}
\end{block}
\begin{block}{}
Процесс зашумления сигнала $x(t)$ импульсной (аппаратной) функцией шума $n(t)$ описывается
сверткой:
$x'(t)=x(t)\otimes n(t)$. В пространстве Фурье:
$$\FT{x'(t)}=\FT{x(f)}\cdot\FT{n(t)}\text{ или }X'(f)=X(f)\cdot N(f).$$
$N(f)$~-- передаточная функция.
\end{block}
\end{frame}
\begin{frame}{Вейвлет--анализ}
\only<1>{\begin{block}{}
Локализованный в пространственной и частотной области набор ортонормированных функций.
$$T_{m,n}=\int\limits_{-\infty}^{\infty }x(t)\,\psi_{m,n}^{*}(t)\,dt,$$
$$x(t)=K_{\psi}\sum\limits_{m=-\infty }^{\infty }\sum\limits_{n=-\infty
}^{\infty}T_{m,n}\psi_{m,n}(t).$$
\end{block}}
\only<2>{\img{Continuous_wavelet_transform}}
\only<3>{\begin{block}{}Детализирующие и аппроксимирующие коэффициенты\end{block}
\img[0.5]{wavelet_img}}
\end{frame}
\section{Обзор программы}
\begin{frame}{Обзор программы}
\tableofcontents[currentsection,hideothersubsections,sectionstyle=hide]
\end{frame}
\subsection{Статистика и вероятность. Случайные величины и распределения}
\begin{frame}{Статистика и вероятность}
\begin{block}{}
Вероятность, плотность вероятности, закон больших чисел, характеристики набора случайных величин,
законы распределения, корреляция и ковариация, шум, SNR.
\end{block}
\img[0.7]{binopdf}
\end{frame}
\subsection{Теория физических измерений. Систематические и случайные погрешности}
\begin{frame}{Теория физических измерений}
\begin{block}{}
Меры и значения величин, абсолютная и относительная погрешности, промахи, систематические и
случайные погрешности, класс точности прибора, доверительный интервал, критерий Стьюдента, правила
вычисления погрешностей косвенных измерений, аппроксимация наименьшими квадратами.
\end{block}
\img[0.7]{lesssquare}
\end{frame}
\subsection{Теория оценок}
\begin{frame}{Теория оценок}
\begin{block}{}
Правило ,,трех сигм``, теорема Ляпунова, распределение $\chi^2$, распределение Стьюдента, оценки:
их виды и надежность.
\end{block}
\img[0.5]{chi2}
\end{frame}
\subsection{Системы уравнений. Степенные и дифференциальные уравнения}
\begin{frame}{Системы уравнений}
\begin{block}{}
Методы решения систем линейных уравнений: Гаусса, простой итерации, Зейделя, наименьших квадратов,
численные методы; степенные и прочие нелинейные уравнения и метод бисекции; численное
интегрирование (прямоугольник, трапеция, Симпсона); обыкновенные дифференциальные уравнения.
\end{block}
\img[0.4]{bisect}
\end{frame}
\subsection{Анализ временных рядов. Фурье-- и Вейвлет--анализ}
\begin{frame}{Анализ временных рядов}
\begin{block}{}
Аппроксимация, интерполяция, сплайны, преобразование Лапласа, Z--преобразования, ряды Фурье,
Фурье--преобразование, Фурье--фильтрация, вейвлет--анализ и вейвлет--фильтрация.
\end{block}
\img[0.7]{Four-filter}
\end{frame}
\subsection{Обработка изображений}
\begin{frame}{Обработка изображений}
\vspace{-2em}
\begin{block}{}
Цифровые изображения, модели цветовых пространств; преобразования в пространственной области:
логарифмическое преобразование, растяжение контрастности, свертка с различными масками, медианный
фильтр; гистограмма и эквализация гистограммы; преобразования в частотной области: ДПФ, частотные
фильтры; ФРТ и ОПФ; адаптивная медианная фильтрация; инверсная и винеровская фильтрация;
геометрические преобразования изображений; вейвлет--преобразования; морфологические операции;
проблема распознавания изображений.
\end{block}
\smimg[0.33]{Noiced}
\smimg[0.33]{MF3}
\smimg[0.33]{MF5}
\end{frame}
\section{Литература}
\begin{frame}{Основная литература}
\begin{thebibliography}{9}
\bibitem{} Интернет--энциклопедия: http:/\!/wikipedia.org (Википедия).
\bibitem{} Гонсалес~Р., Вудс~Р. Цифровая обработка изображений.~--- М.: Техносфера, 2012.~---
1104~с.
\bibitem{} Витязев~В.В. Вейвлет-анализ временных рядов: Учеб. пособие.~---
СПб.: Изд-во С.-Петерб. ун-та., 2001.~--- 58~с.
\bibitem{} Гонсалес~Р., Вудс~Р., Эддинс~С. Цифровая обработка изображений
в среде MATLAB.~--- М.: Техносфера, 2006~--- 616~с.
\bibitem{} Гмурман~В.\,Е. Теория вероятностей и математическая статистика.
Учеб. пособие для вузов.~--- Изд. 7-е, стер.~--- М.: Высш. шк., 2001.~--- 479~с.
\bibitem{} Говорухин~В., Цибулин~В. Компьютер в математическом исследовании.
Учебный курс.~--- СПб.: Питер, 2001.~--- 624~с.
\bibitem{} Сергиенко~А.\,Б. Цифровая обработка сигналов.~--- СПб.: Питер, 2005.~---
604~с.
\bibitem{} Чен~К., Джиблин~П., Ирвинг~А. MATLAB в математических исследованиях:
Пер. с англ.~--- М.: Мир, 2001.~--- 346~с.
\end{thebibliography}
\end{frame}
\begin{frame}{Дополнительная литература}
\begin{thebibliography}{9}
\bibitem{} Бахвалов~Н.\,С., Жидков~Н.\,П., Кобельков~Г.\,М. Численные методы.~---
М.: Высш. шк., 1987.~--- 630~с.
\bibitem{} Кнут~Д.\,Э. Все про \TeX./ Пер. с англ. М.\,В.~Лисиной.~---
Протвино: АО~RD\TeX, 1993.~--- 592~с.: ил.
\bibitem{} Львовский~С.\,М. Набор и верстка в системе \LaTeX.~--- 3-е изд.,
исрп. и доп.~--- М.: МЦНМО, 2003.~--- 448~с.
\bibitem{} Физическая энциклопедия/ Гл. ред. А.М.~Прохоров.~--- М.: Сов.
энциклопедия. Тт. I~--~V. 1988.
\bibitem{} Цифровая обработка сигналов: Справочник/ Л.М.~Гольденберг,
Б.Д.~Матюшкин, М.Н.~Поляк.~--- М.: Радио и связь, 1985.~--- 312~с., ил.
\bibitem{} Pan~G.\,W. Wavelets in electromagnetic and device modeling.~---
John~Wiley \& Sons, Inc., Hobocen, New Jersey, 2003.~--- 531~p.
\end{thebibliography}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

Binary file not shown.

View File

@ -1,319 +0,0 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 2]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 2. Статистика и вероятность. Случайные величины и распределения}
\date{12 июля 2016 года}
\begin{document}
% Титул
\begin{frame}
\maketitle
\end{frame}
% Содержание
\begin{frame}
\tableofcontents
\end{frame}
\section{Случайные величины, вероятность}
\begin{frame}{Случайные величины, вероятность}
\begin{defin}
Случайной величиной называется величина~$X$, если все ее возможные значения образуют конечную
или бесконечную последовательность чисел~$x_1,\ldots$, $x_N$, и если принятие ею каждого из этих
значений есть случайное событие.
\end{defin}
\begin{defin}\begin{columns}\column{0.75\textwidth}
Вероятность наступления данного события~--- это предел относительной частоты наступления
данного события~$n_k/N$:\column{0.25\textwidth}
$$P(x_k)=\lim_{N\to\infty}\frac{n_k}{N}.$$
\end{columns}
\end{defin}
\begin{block}{}
Совместные и несовместные события, полная группа, свойства вероятности.
Для непрерывных случайных величин вводят понятие плотности вероятности:
$$\rho(x)=\lim_{\Delta x\to 0}\frac{P(x<X<x+\Delta x)}{\Delta
x}=\frac{dP}{dx}.$$
$$P(x_1<X<x_2)=\Int_{x_1}^{x_2}\rho(x)\,dx.$$
\end{block}
\end{frame}
\section{Характеристики случайных величин}
\begin{frame}{Характеристики случайных величин}
\begin{block}{Независимые случайные величины}
$P(x_ny_n)=P(x_n)P(y_n)$.
\end{block}
\begin{block}{Среднее арифметическое и математическое ожидание}
$$\aver{X}=\frc1{N}\sum_{n=1}^N x_n,$$
$$M(X)\equiv\mean{X}=\lim_{N\to\infty}\frac1{N}\sum_{n=1}^N x_n\quad\text{и}\quad
M(X)=\Infint x\phi(x)\,dx.$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{Свойства математического ожидания}
\begin{itemize}\setlength{\itemsep}{2pt}
\item $\mean\const=\const$;
\item $\mean{\sum\C_n\cdot X_n}=\sum\C_n\cdot \mean{X_n}$,
где $\C_n$~-- постоянная величина;
\item $\mean{\prod X_n}=\prod \mean{X_n}$ (для независимых случайных величин);
\item $\mean{f(x)}=\Infint f(x)\phi(x)\,dx$ (для непрерывных случайных величин).
\end{itemize}
\end{block}
\begin{block}{$\mean{X}\Leftrightarrow\aver{X}$? Закон больших чисел}
Неравенство Чебыш\"ева: $P(|X-\mean{X}|<\epsilon)\ge 1-D(X)/\epsilon^2\quad\Rightarrow$
$$\lim_{n\to\infty} P\Bigl(\Bigl|\frac{\sum
X_n}{n}-\frac{\sum\mean{X_n}}{n}\Bigr|<\epsilon\Bigr)=1.$$
Теорема Бернулли: $\lim\limits_{n\to\infty} P(|m/n-p|<\epsilon)=1$.
\end{block}
\end{frame}
\begin{frame}{Характеристические значения распределений}
\only<1>{\begin{block}{Медиана и мода}
{ Мода}~--- наиболее часто встречающееся значение (но вполне могут быть мультимодальные
распределения). { Медиана} делит площадь распределения пополам.
\end{block}
\img[0.6]{mode_median}}
\only<2>{\begin{block}{Моменты}
Если $f(x)=(x-x_0)^n$, то $\mean{f(x)}$~--- момент порядка~$n$. Если $x_0=0$~--- начальный
момент, если $x_0=\mean{X}$--- центральный момент.
Моменты нулевого порядка равны~1, начальный момент первого порядка равен математическому ожиданию
случайной величины; центральный момент первого порядка равен нулю.
Центральный момент второго порядка называют дисперсией: $D(X)=\mean{(x-\mean{x})^2}\equiv
\mean{x^2}-\mean{x}^2$, $\sigma=\sqrt{D}$.
\smallskip
Свойства дисперсии:
\begin{itemize}
\item $D(\const)=0$;
\item $D(\const X)=C^2 D(X)$, где $\C$~-- постоянная величина;
\item $D(\sum X_n)=\sum D(X_n)$.
\end{itemize}
\end{block}
}
\end{frame}
\section{Законы распределения}
\begin{frame}{Законы распределения}
\begin{defin}
Закон распределения дискретной случайной величины~--- соответствие между возможными
значениями и их вероятностями.
\end{defin}
\begin{block}{Функция распределения}
$$F(x)\equiv P(X\le x)=\Int_{-\infty}^x\phi(x)\,dx, \qquad
\Infint\phi(x)\,dx=1.$$
$$P(a\le X\le b)=F(b)-F(a).$$
\end{block}
\end{frame}
\begin{frame}{Равномерное распределение}
\begin{columns}\column{0.45\textwidth}
\begin{block}{}
$$
\phi(x)=\begin{cases}\frac1{b-a}, & x\in [a,b] \\ 0, & x\not\in [a,b]
\end{cases}.
$$
$$F(x)= \begin{cases} 0, & x < a \\ \frac{x-a}{b-a}, & a \le x < b \\ 1, & x \ge
b \end{cases}.
$$
\end{block}\column{0.45\textwidth}
\begin{block}{}
$\mean{X}=\med(X)=(a+b)/2$, $\moda(X)=\forall x\in[a,b]$,
$\displaystyle\sigma^2_X = \frac{(b-a)^2}{12}$.
\end{block}
\end{columns}
\smimg[0.45]{Uniform_distribution_PDF}\hspace{3pt}
\smimg[0.45]{Uniform_distribution_CDF}
\end{frame}
\begin{lightframe}{Биномиальное распределение}
\vspace*{-0.8em}\begin{block}{}
Формула Бернулли:
$\displaystyle P_n(k)=C_n^k p^k q^{n-k},\quad C_n^k=\frac{n!}{k!(n-k)!},\quad
q=1-p.$
$$(p+q)^n=C_n^n p^n+\cdots+C_n^k p^k q^{n-k}+\cdots+C_n^0 q^k.$$
Описывает вероятность наступления события~$k$
раз в~$n$ независимых испытаниях
\end{block}\vspace*{-1em}
\begin{columns}
\column{0.45\textwidth}
\img{Binomial_Distribution}
\column{0.55\textwidth}
\begin{block}{}
$$
F(k;n,p)=P(X\leq k)=\sum_{i=0}^\floor{k} C_n^i p^i(1-p)^{n-i}.$$
$\mean{X}=np$, $\moda(X)=\floor{(n+1)p}$, $\floor{np}\le\med(X)\le\ceil{np}$,
$\sigma^2_X = npq$.
\end{block}
\end{columns}
\end{lightframe}
\begin{frame}{Распределение Пуассона}
\vspace*{-2em}\begin{block}{}
При $n\to\infty$ распределение Бернулли преобразуется в распределение Пуассона ($\lambda=np$):
$$P_n(k)=\frac{\lambda^k}{k!}\exp(-\lambda).$$
\end{block}
\begin{columns}\column{0.48\textwidth}
\begin{block}{}
$F(k, \lambda) = \displaystyle\frac{\Gamma(k+1,\lambda)}{k!}$,
$\mean{X} = \lambda$, $\moda(X) = \floor{\lambda}$,
$\med{X}\approx\floor{\lambda+1/3-0.02/\lambda}$,
$\sigma^2_X = \lambda$.
С ростом $\lambda$ распределение Пуассона стремится к распределению Гаусса.
\end{block}
\column{0.48\textwidth}
\img{poissonpdf}
\end{columns}
\end{frame}
\begin{frame}{Распределение Гаусса}
\vspace*{-2em}\begin{block}{}
$$
\phi (x) = \frac 1 {\sigma \sqrt {2 \pi}} \exp \left( -\frac {(x -\mean{x})^2}{2
\sigma^2} \right)
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$F(x) = \displaystyle\frac 1{\sigma \sqrt {2 \pi}} \Int_{-\infty}^x \exp \left( -\frac{(t
-\mean{x})^2}{2 \sigma^2} \right)\, dt$,
$\moda(X) = \med{X} = \mean{X}$.
\end{block}
\vspace*{-1em}\img[0.6]{normpdf}
\end{frame}
\begin{frame}{Показательное (экспоненциальное) распределение}
\vspace*{-1em}\begin{block}{}
Время между двумя последовательными свершениями события
$$f(x)=\begin{cases}
0,& x<0,\\
\lambda\exp(-\lambda x),& x\ge0;
\end{cases}\qquad
F(x)=\begin{cases}
0,& x<0,\\
1-\exp(-\lambda x),& x\ge0,
\end{cases}
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$\mean{X} = \lambda^{-1}$,
$\moda(X) = 0$, $\med{X} = \ln(2)/\lambda$,
$\sigma^2_X = \lambda^{-2}$.
\end{block}
\vspace*{-1em}\img[0.5]{exppdf}
\end{frame}
\section{Корреляция и ковариация}
\begin{frame}{Корреляция и ковариация}
\begin{defin}
{}Ковариация является мерой линейной зависимости случайных величин и определяется формулой:
$\mathrm{cov}(X,Y)=\mean{(X-\mean{X})(Y-\mean{Y})}$ $\Longrightarrow$ $\mathrm{cov}(X,X) =
\sigma^2_X$.
Ковариация независимых случайных величин равна нулю, обратное неверно.
\end{defin}
\begin{block}{}
Если ковариация положительна, то с ростом значений одной случайной величины, значения второй имеют
тенденцию возрастать, а если знак отрицательный~--- убывать.
Масштаб зависимости величин пропорционален их дисперсиям $\Longrightarrow$ масштаб можно
отнормировать ({}коэффициент корреляции Пирсона):
$$\rho_{X,Y}=\frac{\mathrm{cov}(X,Y)}{\sigma X\sigma Y}, \qquad \mathbf{r}\in[-1,1].$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{}
Коэффициент корреляции равен~$\pm1$ тогда и только тогда, когда~$X$ и~$Y$ линейно зависимы. Если
они независимы, $\rho_{X,Y}=0$ ({}обратное неверно!). Промежуточные значения коэффициента
корреляции не позволяют однозначно судить о зависимости случайных величин, но позволяет предполагать
степень их зависимости.
\end{block}
\begin{block}{Корреляционная функция}
Одна из разновидностей~--- автокорреляционная функция:
$$
\Psi(\tau) = \Int f(t) f(t-\tau)\, dt\equiv
\Int f(t+\tau) f(t)\,dt.
$$
Для дискретных случайных величин автокорреляционная функция имеет вид
$$
\Psi(\tau) = \aver{X(t)X(t-\tau)}\equiv\aver{X(t+\tau)X(t)}.
$$
\end{block}
\end{frame}
\begin{blueframe}{}
\begin{block}{Взаимно корреляционная функция}
Другая разновидность~--- кросс--корреляционная функция:
$$(f\star g)(t)\stackrel{\mathrm{def}}{=}\Infint f^{*}(\tau)g(t+\tau)\,d\tau$$
свертка:
$$ (f*g)(x)\stackrel{\mathrm{def}}{=}\Infint f(y)\,g(x-y)\,dy = \Infint f(x-y)\,g(y)\, dy.$$
\end{block}
\img[0.5]{convcorr}
\end{blueframe}
\begin{frame}{}
\begin{block}{}
Если $X$ и $Y$~--- два независимых случайных числа с функциями распределения вероятностей
$f$ и $g$, то $f\star g$ соответствует распределению вероятностей выражения $-X+Y$, а $f*g$~---
распределению вероятностей суммы $X + Y$.
ВКФ часто используется для поиска в длинной последовательности более короткой заранее известной,
определения сдвига (см.~рис).
Связь со сверткой: $f(t)\star g(t) = f^*(-t) * g(t)$, если $f$ и $g$ четны, то
$f(t)\star g(t) = f(t) * g(t)$. Через преобразование Фурье:
$\FT{f \star g} = \FT{f}^*\cdot\FT{g}$.
\end{block}\img[0.6]{autocorr}
\end{frame}
\section{Шум}
\begin{frame}{Шум}
\begin{defin}
Шум~--- беспорядочные колебания различной физической природы, отличающиеся сложной временной и
спектральной структурой.
\end{defin}
\begin{block}{}
Белый шум, $\xi(t)$, имеет время корреляции много меньше всех характерных времен физической
системы; $\mean{\xi(t)}=0$, $\Psi(t,\tau)=\aver{\xi(t+\tau)\xi(t)}=\sigma^2(t)\delta(\tau)$.
Разновидность~--- AWGN.
Дробовой шум имеет пуассонову статистику~\so $\sigma_X\propto\sqrt{x}$ и
$\SNR(N)\propto\sqrt{N}$. Суточные и вековые корреляции.
Шум вида <<соль--перец>> обычно характерен для изображений, считываемых с ПЗС.
\end{block}
\end{frame}
\begin{frame}{SNR}
\begin{defin}
SNR~--- безразмерная величина, равная отношению мощности полезного сигнала к мощности шума.
\end{defin}
\begin{block}{}
$$\SNR = {P_\mathrm{signal} \over P_\mathrm{noise}} = \left ({A_\mathrm{signal} \over
A_\mathrm{noise} } \right )^2, \quad
\SNR(dB) = 10 \lg \left ( {P_\mathrm{signal} \over P_\mathrm{noise}}
\right )
= 20 \lg \left ( {A_\mathrm{signal} \over A_\mathrm{noise}} \right ).
$$
\end{block}
\img[0.6]{SNR}
\centerline{\tiny (10, 0, -10~дБ.)}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

View File

@ -6,7 +6,7 @@
\title[Компьютерная обработка. Лекции 3, 4.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 3. Теория физических измерений. Систематические и случайные погрешности.\\
Лекция 4. Теория оценок.}
\date{28 сентября 2016 года}
\date{22 марта 2021 года}
\begin{document}
% Титул
@ -21,7 +21,7 @@
\section{Измерения и величины}
\begin{frame}{Измерения и величины}
\begin{defin}
Мерой называется средство измерений, предназначенное для воспроизведения и хранения значения
Мерой называется средство измерений, предназначенное для воспроизведения и хранения значения
физической величины.
Результатом сравнения оцениваемой вещи с мерой является именованное число,
называемое значением величины.
@ -42,21 +42,21 @@
\begin{description}
\only<1>{
\item[Прямое] при котором искомое значение физической величины получают непосредственно.
\item[Косвенное] на основании результатов прямых измерений других физических величин,
\item[Косвенное] на основании результатов прямых измерений других физических величин,
функционально связанных с искомой величиной.
\item[Совместные] проводимые одновременно для нескольких неодноименных величин для определения
\item[Совместные] проводимые одновременно для нескольких неодноименных величин для определения
зависимости между ними.
\item[Совокупные] при которых искомые значения величин определяют путем решения системы уравнений,
\item[Совокупные] при которых искомые значения величин определяют путем решения системы уравнений,
получаемых при измерениях этих величин в различных сочетаниях.
\item[Равноточные] выполненные одинаковыми по точности средствами измерений.
\item[Неравноточные] выполненных различающимися по точности средствами измерений и (или) в разных
\item[Неравноточные] выполненных различающимися по точности средствами измерений и (или) в разных
условиях.}
\only<2>{
\item[Однократное, многократное]
\item[Статическое] для величины, принимаемой в соответствии с конкретной измерительной задачей за
\item[Статическое] для величины, принимаемой в соответствии с конкретной измерительной задачей за
неизменную на протяжении времени измерения.
\item[Динамическое] для изменяющейся по размеру физической величины.
\item[Абсолютное] основанное на прямых измерениях одной или нескольких основных
\item[Абсолютное] основанное на прямых измерениях одной или нескольких основных
величин и (или) использовании значений физических констант.
\item[Относительное] сравнение с эталонными мерами.}
\end{description}
@ -77,17 +77,17 @@
\begin{frame}{Погрешность}
\only<1>{
\begin{defin}
Погрешность --- отклонение измеренного значения величины от её истинного (действительного)
значения.
Погрешность --- отклонение измеренного значения величины от её истинного (действительного)
значения.
\end{defin}
\begin{block}{}
Абсолютная погрешность, $\Delta x$ (напр., RMS); относительная погрешность, $\delta x=\Delta
Абсолютная погрешность, $\Delta x$ (напр., RMS); относительная погрешность, $\delta x=\Delta
x/\mean{x}$; приведенная погрешность $\gamma x=\Delta x/N_x$ (нормировочный коэффициент).
\end{block}
\begin{block}{По причине возникновения}
\begin{description}
\item[Инструментальные] определяются погрешностями применяемых средств измерений.
\item[Методические] обусловлены несовершенством метода, а также упрощениями, положенными в основу
\item[Методические] обусловлены несовершенством метода, а также упрощениями, положенными в основу
методики.
\item[Субъективные] обусловлены качествами экспериментатора.
\end{description}
@ -96,15 +96,15 @@ x/\mean{x}$;
\begin{block}{По характеру проявления}
\begin{description}
\item[Случайные] обусловлены совокупностью внешних факторов, влияющих на результат эксперимента.
\item[Систематические] связаны с влиянием прибора на измеряемую величину или методическими
\item[Систематические] связаны с влиянием прибора на измеряемую величину или методическими
ошибками, выявляются лишь сменой прибора\slash метода\slash экспериментатора.
\item[Промахи] наиболее сильно себя проявляют и связаны с неисправностью прибора или
\item[Промахи] наиболее сильно себя проявляют и связаны с неисправностью прибора или
экспериментатора.
\end{description}
\end{block}
\begin{block}{Средняя квадратическая погрешность среднего арифметического}
$$
\sigma_{\mean{x}}=\frac{\sigma_x}{\sqrt{n}}=
\sigma_{\aver{x}}=\frac{\sigma_x}{\sqrt{n}}=
\sqrt{\frac{\sum\limits_{i=1}^n(\mean{x_i}-\aver{x})^2}{n(n-1)}}.
$$
\end{block}
@ -117,38 +117,54 @@ $$
$p = P(X_0 \le x \le X_1)$
\end{block}
\begin{block}{Математическое ожидание}
Если известен закон распределения (мат. ожидание и дисперсия: $\mu$ и $\sigma$), то
$$P\Bigl(\mean{X}-z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}} \le \mu \le
\mean{X}+z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}}\Bigr) = 1 - \alpha,$$
Если известен закон распределения (мат. ожидание и дисперсия: $\mu$ и $\sigma$), то
$$P\Bigl(\aver{X}-z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}} \le \mu \le
\aver{X}+z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}}\Bigr) = 1 - \alpha,$$
где $z_\alpha$~-- $\alpha$--квантиль нормального распределения
\end{block}
\column{0.4\textwidth}
\img{Boxplot_vs_PDF}
Квантили: первый, второй (медиана) и третий.
Квартили: первый (0.25-квантиль), второй (0.5-квантиль, медиана) и третий (0.75-квантиль).
\end{columns}
}
\only<2>{
\begin{defin} $\alpha$--квантилем называется число $x_\alpha$:
$P(X\le x_\alpha)\ge\alpha$ и $P(X\ge x_\alpha)\ge1-\alpha$. Т.е. по интегральной функции распределения
$F(x_\alpha)=\alpha$. А т.к. $P(a\le X\le b)=F(b)-F(a)$, получаем:
$$P(x_{1-\frac{\alpha}2}\le X\le x_{1+\frac{\alpha}2})=\alpha.$$
\end{defin}
\begin{block}{Пример}
В 64 наблюдениях получено: $S_1=\sum x=600$, $S_2=\sum (x-\mean{x})^2=3800$. Вычислить 90\% доверительный
интервал
матожидания.
Решение: $\sigma=\sqrt{S_2/(n-1)}=7.72$; $\aver{x}=S_1/n=9.375$. $F(0.05)=1.96$, отсюда найдем границы интервала
$\aver{x}\pm F(0.05)\sigma/\sqrt{n}$:
$\mean{x}\in[7.484, 11.266]$ с точностью 90\%.
\end{block}
}
\only<3>{
\begin{block}{Математическое ожидание}
Если закон распределения неизвестен, то
$$P\Bigl(\mean{X}-t_{1-\frac{\alpha}2, n-1}\frac{S}{\sqrt{n}} \le \mu \le
\mean{X}+t_{1-\frac{\alpha}2,n-1}\frac{S}{\sqrt{n}}\Bigr) = 1 - \alpha,$$
где $S$~-- несмещенный RMS. Величина
$$T=\frac{\mean{X}-\mu}{S/\sqrt{n}}$$ имеет распределение Стьюдента, а $t_{\alpha, n-1}$~-- его
$$T=\frac{\mean{X}-\mu}{S/\sqrt{n}}$$ имеет распределение Стьюдента, а $t_{\alpha, n-1}$~-- его
квантили.
Пример: $\mean{X}=10$, $S_n=2$, $n=11$ (10~степеней свободы), по таблице для двухстороннего
Пример: $\mean{X}=10$, $S_n=2$, $n=11$ (10~степеней свободы), по таблице для двухстороннего
распределения Стьюдента с вероятностью~95\% $T_{10}^{95}=2.228$. Тогда доверительный интервал есть
$\mean{X}\pm TS_n/\sqrt{n}$, т.е. $\mu\in(8.6565, 11.3440)$.
\end{block}
}
\only<3>{
\only<4>{
\begin{block}{Дисперсия}
Если известно среднее, можно воспользоваться распределением $\chi^2$.
$$
P\Biggl(\frac{\displaystyle\sum_{i=1}^n (X_i-\mu)^2}{\chi^2_{(1+\alpha)/2,n}}\le\sigma^2\le
\frac{\displaystyle\sum_{i=1}^n (X_i-\mu)^2}{\chi^2_{(1-\alpha)/2,n}}\Biggr)=\alpha.
$$
Если же среднее неизвестно, то
Если же среднее неизвестно, то
$$
P\Bigl(\frac{(n-1)S^2}{\chi^2_{(1+\alpha)/2,n-1}}\le\sigma^2\le
\frac{(n-1)S^2}{\chi^2_{(1-\alpha)/2,n-1}}\Bigr)=\alpha.
@ -160,9 +176,9 @@ $$
\begin{frame}{Правила вычисления погрешностей}
\begin{block}{}
\begin{enumerate}
\item
\item
$$\Delta\bigl(\sum a_n\bigr)=\sum\Delta a_n.$$
\item
\item
$$\prod(a_i\pm\Delta a_i)=\prod a_i\prod(1\pm\delta a_i)\approx
\prod a_i(1\pm\sum\delta a_i),$$
$$\bigl(a[1\pm\delta a]\bigr)^n\approx a^n(1\pm n\delta a).$$
@ -183,11 +199,11 @@ $$
\section{Метод наименьших квадратов}
\begin{frame}{Метод наименьших квадратов}
\begin{block}{}
Пусть имеется функция $f(x|a)$, зависящая от аргумента $x$ и набора параметров~$a$. Данной функции
соответствует набор пар данных $(x_n,y_n)$, причем $y_n=f(x_n|a)+\epsilon_n$, где $\epsilon_n$~--
случайная ошибка. Математическое ожидание ошибки $\mean{\epsilon}=0$, ее среднеквадратическое
отклонение равно~$\sigma_n$. Для оценки~$a$ (аппроксимации набора данных заданной функцией)
необходимо минимизировать выражение
Пусть имеется функция $f(x|a)$, зависящая от аргумента $x$ и набора параметров~$a$. Данной функции
соответствует набор пар данных $(x_n,y_n)$, причем $y_n=f(x_n|a)+\epsilon_n$, где $\epsilon_n$~--
случайная ошибка. Математическое ожидание ошибки $\mean{\epsilon}=0$, ее среднеквадратическое
отклонение равно~$\sigma_n$. Для оценки~$a$ (аппроксимации набора данных заданной функцией)
необходимо минимизировать выражение
$$\Phi=\sum_{n=1}^N\Bigl(\frac{y_n-f(x_n|a)}{\sigma^2_n}\Bigr)^2.$$
При этом подразумевается, что число измерений превышает число параметров~$a$.
\end{block}
@ -195,7 +211,7 @@ $$\Phi=\sum_{n=1}^N\Bigl(\frac{y_n-f(x_n|a)}{\sigma^2_n}\Bigr)^2.$$
\begin{frame}{Пример: линейная зависимость}
\begin{block}{}
Пусть $y=ax+b$, $x_n$ известны с пренебрежимо малой погрешностью, $y_n$~-- результаты измерений
Пусть $y=ax+b$, $x_n$ известны с пренебрежимо малой погрешностью, $y_n$~-- результаты измерений
с нормальным распределением, $\mean{y_i}=ax_i+b$. Минимизируем величину $Y=\sum(y_i-\mean{y_i})^2$,
$\partder{Y}{a}=0$, $\partder{Y}{b}=0$:
$$
@ -221,16 +237,16 @@ $$
\only<1>{\img{lesssquare}}
\only<2>{
\begin{block}{}
Некоторые зависимости, можно свести к линейным. Например, $y=\e^{ax+b}$ \so $\ln y=ax+b$.
Некоторые зависимости, можно свести к линейным. Например, $y=\e^{ax+b}$ \so $\ln y=ax+b$.
Возможно также сведение зависимостей к системам линейных уравнений $A\vec{x}=\vec{b}$, ранг матрицы
$A$ должен быть больше количества искомых переменных. Минимизируем
Возможно также сведение зависимостей к системам линейных уравнений $A\vec{x}=\vec{b}$, ранг матрицы
$A$ должен быть больше количества искомых переменных. Минимизируем
$(A\vec{x}-\vec{b})^T(A\vec{x}-\vec{b})$, что приводит к системе уравнений
$$
A^TA\vec{x}=A^T\vec{b}\quad\so\quad
\vec{x}=(A^TA)^{-1}A^T\vec{b}.
$$
Или $\vec{x}=A^{+}\vec{b}$ (псевдообратная матрица), в Octave~--- <<левое деление>> $A\backslash
Или $\vec{x}=A^{+}\vec{b}$ (псевдообратная матрица), в Octave~--- <<левое деление>> $A\backslash
b$.
\end{block}
}
@ -257,20 +273,42 @@ A = T\y
\section{Правило <<трех сигм>>}
\begin{frame}{Правило <<трех сигм>>}
\begin{block}{}
При гауссовом распределении случайной величины вероятность
При гауссовом распределении случайной величины вероятность
$$P(|x-\mean{x}|<3\sigma)=2\Phi(3)=0.9973.$$
($\Phi$~-- нормальное интегральное распределение).
\end{block}
\begin{defin}
Правило трех сигм: если случайная величина распределена нормально, то абсолютная величина ее
Правило трех сигм: если случайная величина распределена нормально, то абсолютная величина ее
отклонения от математического ожидания не превосходит утроенного среднего квадратичного отклонения.
\end{defin}
\begin{defin}
Теорема Ляпунова: случайная величина, являющаяся суммой большого числа взаимно независимых
Теорема Ляпунова: случайная величина, являющаяся суммой большого числа взаимно независимых
случайных величин, имеет нормальное распределение.
\end{defin}
\end{frame}
\section{Иррегулярно распределенные данные}
\begin{frame}{}
\begin{columns}
\column{0.65\textwidth}
\begin{block}{Иррегулярно распределенные данные}
БПФ, корреляция, периодограммы и т.п.
\begin{itemize}
\item Resampling (если данные достаточно плотно расположены).
\item Определение периода как расстояния между минимумами (максимумами) из аппроксимации.
\item Auto Regressive Moving Average (ARMA).
\item Фильтрация Калмана.
\item Метод Ваничека (аппроксимация набора данных рядом синусоид).
\item Периодограмма Ломба-Скаргла (ортогонализация пар синусоид введением задержки во времени,
Scargle, 1981).
\item Irregular Autoregressive Model (IAR).
\item Complex IAR (CIAR).
\end{itemize}
\end{block}
\column{0.32\textwidth}
\vspace*{-2em}\img{irregular}
\end{columns}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering

Binary file not shown.

View File

@ -3,10 +3,10 @@
\usepackage{ed}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 5.]{Компьютерная обработка результатов
\title[Компьютерная обработка. Лекция 5.]{Компьютерная обработка результатов
измерений}
\subtitle{Лекция 5. Системы уравнений}
\date{29 сентября 2016 года}
\date{22 марта 2021 года}
\begin{document}
% Титул
@ -34,9 +34,9 @@ a_{n1}x_1+a_{n2}x_2&+\cdots+a_{nn}x_n&=b_n.
$$
\end{defin}
\begin{defin}
Если существует вектор--столбец~$\B x$, обращающий выражение~$\B{Ax=b}$ в тождество, говорят,
Если существует вектор--столбец~$\B x$, обращающий выражение~$\B{Ax=b}$ в тождество, говорят,
что~$\B x$ является решением данной системы уравнений.
$|\B A|\ne0$.
$\mathrm{det}\,A\equiv |\B A|\ne0$.
\end{defin}
\end{frame}
@ -45,14 +45,19 @@ $|\B A|\ne0$.
$\delta=\B{Ax-b}$.
Приближенные методы: $\mathrm{min}(\delta)$. Точные методы: $\delta=0$.\\
\end{block}
\begin{block}{Метод простой итерации}
$\B{x=Bx+c}$, $\B x_{n+1}=\B B\B x_n+\B c$.\\
Сложностью метода простой итерации при решении матриц больших размерностей является особое свойство
таких матриц~--- существование почти собственных значений, $\lambda$:
$||\B{Ax}-\lambda\B x||\le\epsilon||\B x||$ при $||\B x||\ne0$.\\
\end{block}
\begin{block}{Матричный метод}
$\B x = \B A^{-1}\B b$
$\B x = \B A^{-1}\B b$\\
$\B A \cdot \B A^{-1} = \B A^{-1} \cdot \B A = \B E$.
Нахождение обратной матрицы:
\begin{itemize}
\item с помощью присоединенной: $(\B A | \B E )$ \so $(\B E | \B A^{-1})$;
\item $\B A^{-1} = \dfrac{\mathrm{adj\,}\B A}{|\B A|}$, присоединенная матрица $\mathrm{adj\,}\B A$
является транспонированной матрицей алгебраических дополнений ($(-1)^{i+j}M_{ij}$, $M_ij$~--
соответствующий дополнительный минор~--- определитель матрицы с вычеркнутыми $i$-й строкой и $j$
столбцом).
\item и т.д., и т.п.
\end{itemize}
Формулы Крамера: $x_j = |A_j|/|A|$, $A_j$ получается из $A$ заменой $j$-го столбца на $\B b$.
\end{block}
}
\only<2>{
@ -82,20 +87,19 @@ $N\propto n^3$~---
\end{block}
}
\only<3>{
\begin{block}{}
Метод Зейделя: \\
\begin{block}{Метод Зейделя}
$$\B{Bx}_{n+1}+\B{Cx}_n=\B b,$$
где
$$\B B=\begin{pmatrix}
a_{11}&0&0&\cdots&0\\
a_{21}&a_{22}&0&\cdots&0\\
\cdot&\cdot&\cdot&\cdots&\cdot\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
a_{m1}&a_{m2}&a_{m3}&\cdots&a_{mm}
\end{pmatrix},\qquad
\B C=\begin{pmatrix}
0&a_{12}&a_{13}&\cdots&a_{1m}\\
0&0&a_{23}&\cdots&a_{2m}\\
\cdot&\cdot&\cdot&\cdots&\cdot\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\cdots&0
\end{pmatrix}.
$$
@ -104,6 +108,49 @@ $$\B x_{n+1}=-\B B^{-1}\B{Cx}_n +\B B^{-1}\B b.$$
\end{block}
}
\only<4>{
\begin{block}{LU-метод}
$$\B A=\B L\cdot \B U,$$
где
$$\B L=\begin{pmatrix}
l_{11}&0&0&\cdots&0\\
l_{21}&l_{22}&0&\cdots&0\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
l_{m1}&l_{m2}&l_{m3}&\cdots&l_{mm}
\end{pmatrix},\qquad
\B U=\begin{pmatrix}
1&u_{12}&u_{13}&\cdots&u_{1m}\\
0&1&u_{23}&\cdots&u_{2m}\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\cdots&1
\end{pmatrix}.
$$
Прямой ход: $\B L\cdot \B U\cdot \B x \equiv \B L\cdot\B y= \B b$, находим $\B y$,
из $\B U\cdot \B x =\B y$ находим $\B x$.
$$\begin{cases}
l_{ij}=a_{ij}-\Sum_{s=1}^{j-1}l_{is}u_{sj},& i\ge j;\\
u_{ij}=\frac1{l_{ii}}\Bigl(a_{ij}-\Sum_{s=1}^{j-1}l_{is}u_{sj}\Bigr), & i < j.
\end{cases}
$$
LU-разложение возможно для матриц с преобладанием диагональных элементов
\end{block}
}
\only<5>{
\begin{block}{Разложение Холецкого}
$\B A=\B L\cdot \B L^T$, либо $\B A=\B U^T\cdot \B U$, где $\B L$~-- нижняя треугольная матрица
со строго положительными элементами на диагонали, $\B U$~-- верхняя треугольная матрица.
Разложение Холецкого всегда существует и единственно для любой симметричной (относительно главной
диагонали) положительно-определенной матрицы (все диагональные миноры положительны).
$$\begin{cases}
l_{ii}=\sqrt{a_{ii} - \Sum_{s=1}^{i-1}l^2_{is}}; \\
l_{ij} = \frac1{l_{ii}}\Bigl( a_{ij} - \Sum_{s=1}^{j-1}l_{is}l_{js}\Bigr), & j < i.
\end{cases}
$$
Прямой и обратный ходы аналогичны LU-разложению.
\end{block}
}
\only<6>{
\begin{block}{}
Если $\B A$ содержит~$m$ строк и~$n$ столбцов, то:
\begin{description}
@ -115,38 +162,80 @@ $$\B x_{n+1}=-\B B^{-1}\B{Cx}_n +\B B^{-1}\B b.$$
данной системы может существовать и точное решение).
\end{description}
\end{block}
\begin{block}{Приближенные решения}
МНК ($\B{x=A\backslash b}$), псевдообратная матрица, \dots
}
\only<7>{
\begin{block}{Метод наименьших квадратов ($m > n$)}
$\B{x=A\backslash b}$, %), псевдообратная матрица, \dots
$S=\sum_i(\sum_j a_{ij}x_j - b_i)$, $\partder{S}{x_j}=0$ \so
$\B C\B x = \B d$, где
$c_{kj} = \sum_i a_{ik}a_{ij}$, $k,j=\overline{1,n}$, $d_k = \sum_i a_{ik}b_i$.
Т.о. $\B C = \B A^T\cdot \B A$, $\B d=\B A^T\B b$.
\end{block}
\begin{block}{Метод простой итерации}
$\B{x=Bx+c}$, $\B x_{n+1}=\B B\B x_n+\B c$.\\
Сложностью метода простой итерации при решении матриц больших размерностей является особое свойство
таких матриц~--- существование почти собственных значений, $\lambda$:
$||\B{Ax}-\lambda\B x||\le\epsilon||\B x||$ при $||\B x||\ne0$.\\
\end{block}
}
\end{frame}
\begin{frame}{Число обусловленности матрицы}
\begin{block}{Оценка ошибки решения}
Пусть $\B x'$~-- приближенное решение. Абсолютная и относительная ошибки: $||\B x-\B x'||$
и $\frc{||\B x-\B x'||}{||\B x||}$. Нам известна невязка $\B r=\B b-A\B x'$:
$$\B r=A\B x-A\B x'=A(\B x-\B x')\so ||\B x-\B x'||=||A^{-1}\B r||\le ||A^{-1}||\,||\B r||,$$
а т.к. $||\B b||\le||A||\,||\B x||$, $\frc{1}{||\B x||}\le\frc{||A||}{||\B b||}$:
$$\frac{||\B x-\B x'||}{||\B x||}\le||A^{-1}||\,||\B r||\,\frac{||A||}{||\B b||}=k(A)\frac{||\B
r||}{||\B b||}.$$
Число обусловленности: $k(A)=||A||\,||A^{-1}||$. Чем оно больше, тем больше флуктуации $\B x$
влияют на общее решение. У хорошо обусловленных матриц $K(A)\equiv1$ (напр., ортогональные матрицы,
у которых $A^T=A^{-1}$).
\end{block}
\end{frame}
\section{Степенные уравнения}
\begin{frame}{Степенные уравнения}
\begin{defin}
Степенное уравнение имеет вид $p_n(x)=0$, где $p_n(x)$~-- полином~$n$~-й степени вида
Степенное уравнение имеет вид $p_n(x)=0$, где $p_n(x)$~-- полином~$n$~-й степени вида
$p_n(x)=\sum_{i=0}^n C_nx^n$.
\end{defin}
\begin{block}{Методы решения}
Точные~--- до третьей степени включительно (в общем случае) и итерационные:
\begin{description}
\item[бисекция] деление пополам отрезка, где находится корень;
\item[метод хорд] замена полинома хордой, проходящей через точки $(x_1, p_n(x_1)$ и $(x_2,
\item[метод хорд] замена полинома хордой, проходящей через точки $(x_1, p_n(x_1)$ и $(x_2,
p_n(x_2)$;
\item[метод Ньютона] имеет быструю сходимость, но требует знакопостоянства $f'(x)$ и $f''(x)$ на
\item[метод Ньютона] имеет быструю сходимость, но требует знакопостоянства $f'(x)$ и $f''(x)$ на
выбранном интервале $(x_1, x_2)$.
\end{description}
\end{block}
\end{frame}
\begin{frame}{Бисекция (дихотомия)}
\img{bisect}
Отрезок делится вплоть до заданной точности $b_n-a_n\le\epsilon$, корень $x\approx(b_n+a_n)/2$.
Применяется и для поиска значений в упорядоченном ряду.
\end{frame}
\begin{frame}{Метод хорд (секущих)}
\begin{block}{}
$$x_{i+1}=x_{i-1}+\frac{y_{i-1}\cdot(x_i-x_{i-1})}{y_i-y_{i-1}}.$$
\end{block}
\begin{pict}\smimg[0.5]{chords1}\,\smimg[0.5]{chords2}\end{pict}
\end{frame}
\begin{blueframe}{Метод Ньютона}
\img[0.7]{Newton_iteration}
\begin{block}{}
$$x_{i+1}=x_i+\frac{y_i}{y'_i}.$$
\end{block}
\begin{pict}\smimg[0.5]{newton1}\,\smimg[0.5]{newton2}\end{pict}
\end{blueframe}
\section{Численное интегрирование и дифференцирование}
\begin{frame}{Численное интегрирование и дифференцирование}
\only<1>{
\begin{block}{Численное интегрирование}
\begin{frame}{Численное интегрирование}
\begin{block}{}
Для численного решения уравнения $\displaystyle I=\Int_a^b f(x)\,dx$ наиболее популярны:
\begin{description}
\item[метод прямоугольников] $I\approx\sum_{i=1}^n f(x_i)[x_i-x_{i-1}]$;
@ -156,18 +245,91 @@ $I\approx\frac{b-a}{6n}\Bigl(f(x_0)+f(x_n)+2\sum_{i=1}^{n/2-1}
f(x_{2i}) + 4\sum_{i=1}^{n/2}f(x_{2i-1})\Bigr)$.
\end{description}
и многие другие.
\end{block}}
\only<2>{
\begin{block}{Численное дифференцирование}
Аппроксимация функции интерполяционным многочленом (Ньютона, Стирлинга и т.п.), разделенные
разности.
В нулевом приближении можно заменить производную $f^{(n)}$ разделенной разностью $n$-го порядка:
$$f(x_0; x_1; \ldots; x_n) = \sum_{i=0}^n \frac{f(x_i)}{\displaystyle
\prod_{j=0, j\ne i}^n\!\!(x_i - x_j)}.$$
\end{block}}
\end{block}
\end{frame}
\begin{frame}{Метод прямоугольников}
\begin{columns}
\column{0.45\textwidth}
\begin{block}{}
$$\int_a^b f(x)\,dx\approx$$
\begin{list}{}{}
\item $\displaystyle\sum_{i=0}^{n-1}f(x_{i})(x_{i+1}-x_{i})$;
\item $\displaystyle\sum_{i=1}^{n}f(x_{i})(x_i-x_{i-1})$;
\item $\displaystyle\sum_{i=0}^{n-1}f\bigl(\frac{x_{i}+x_{i+1}}{2}\bigr)(x_{i+1}-x_{i})$.
\end{list}
Для равномерных сеток:
$\displaystyle h\sum_{i=0}^{n-1} f_i$;
$\displaystyle h\sum_{i=1}^{n} f_i$;
$\displaystyle h\bigl(\sum_{i=1}^{n-1} f_i + \frac{f_0+f_n}{2}\bigr)$.
\end{block}
\column{0.45\textwidth}
\img{rectangmeth}
\end{columns}
\end{frame}
\begin{lightframe}{Метод трапеций}
\begin{columns}
\column{0.6\textwidth}
\begin{block}{}
$$\int_a^b f(x)\,dx\approx
\sum_{i=0}^{n-1}\frac{f(x_i)+f(x_{i+1})}{2}(x_{i+1}-x_i).$$
Для равномерных сеток~--- формула Котеса:
$$\int_a^b f(x)\,dx =
h\left(\frac{f_0+f_n}{2}+\sum_{i=1}^{n-1}f_i\right) + E_n(f),$$
$$E_n(f)=-\frac{f''(\xi)}{12}(b-a)h^2, \xi\in[a,b].$$
\end{block}
\column{0.4\textwidth}
\img{trapezmeth}
\end{columns}
\end{lightframe}
\begin{blueframe}{Метод Симпсона}
\begin{columns}
\column{0.6\textwidth}
\begin{block}{}
$$\int_a^b f(x)\,dx\approx \frac{b-a}{6}\left(f(a)+4f\bigl(\frac{a+b}{2}\bigr)\right)$$
\end{block}
\column{0.4\textwidth}
\img{Simpsons_method_illustration}
\end{columns}
\begin{block}{}
Формула Котеса:
$$I\approx \frac{h}{3}\Bigl(f(x_0)+
2\sum_{i=1}^{N/2-1}f(x_{2i}) + 4\sum_{i=1}^{N/2}f(x_{2i-1} + f(x_N)\Bigr).$$
\end{block}
\end{blueframe}
\begin{frame}{Численное дифференцирование}
\begin{block}{}
Аппроксимация функции интерполяционным многочленом (Ньютона, Стирлинга и т.п.), разделенные
разности.
\end{block}
\begin{block}{Аппроксимация многочленом}
$$f(x)\approx P_N(x)\quad\Arr\quad f^{(r)}(x)\approx P_N^{(r)}(x).$$
Полином Ньютона:
$$P_N(x)=\sum_{m=0}^{N}C_x^m\sum _{k=0}^{m}(-1)^{m-k}\,C_m^k\,f(k).$$
Полином Лагранжа:
$$P_N(x) = \sum_{k=0}^N y_k \frac {(x-x_0)(x-x_1) \ldots (x-x_{k-1})(x-x_{k+1}) \ldots (x-x_n)} {(x_k-x_0)(x_k-x_1) \ldots
(x_k-x_{k-1})(x_k-x_{k+1}) \ldots (x_k-x_n)}.$$
А также: интерполяция кубическими сплайнами, разложение по базису тригонометрических функций и т.п.
\end{block}
\end{frame}
\begin{block}{Разделенные разности}
В нулевом приближении можно заменить производную $f^{(n)}$ разделенной разностью $n$-го порядка.
$$f(x_{0};\;x_{1};\;\ldots ;\;x_{n})=\sum _{j=0}^{n}{\frac {f(x_j)}{\prod \limits _{i=0 \atop i\neq j}^{n}(x_{j}-x_{i})}}.$$
В частности:
$$f(x_0;\;x_1)={\frac {f(x_1)}{x_1-x_0}}+{\frac {f(x_0)}{x_0-x_1}},$$
$$f(x_0;\;x_1;\;x_2)={\frac {f(x_2)}{(x_2-x_1)(x_2-x_0)}}+{\frac {f(x_1)}{(x_1-x_2)(x_1-x_0)}}+{\frac
{f(x_0)}{(x_0-x_2)(x_0-x_1)}}\ldots$$
\end{block}
\section{Дифференциальные уравнения}
\begin{frame}{Дифференциальные уравнения}
\only<1>{
@ -181,7 +343,7 @@ $$y'=f(x,y) \so \phi(y)\,dy=\psi(x)\,dx \so y=y_0+\Int_0^{x}\psi(x)\,dx.$$
ОДУ второго порядка:
$$Ay''+By'+Cy+Dx=0.$$
Если $D\equiv0$, а множители $A$, $B$ и~$C$~--- константы, имеем однородное ОДУ.
Если $D\equiv0$, а множители $A$, $B$ и~$C$~--- константы, имеем однородное ОДУ.
$y=\C_1\exp(k_1x)+\C_2\exp(k_2x)$, где~$k_1$ и~$k_2$~-- корни
характеристического уравнения $Ak^2+Bk+C=0$.
\end{block}}
@ -208,12 +370,31 @@ $$f(z,x,y,\partder{z}{x},\partder{z}{y})=0.$$
\begin{block}{Методы решения}
Рунге--Кутты, Эйлера, Адамса, конечных разностей и т.п.
Дифференциальные уравнения высших порядков сводят путем замены переменных к системе ОДУ первого
Дифференциальные уравнения высших порядков сводят путем замены переменных к системе ОДУ первого
порядка.
\end{block}
}
\end{frame}
\begin{blueframe}{}
\begin{block}{Метод Эйлера}
Аппроксимация интегральной кривой кусочно-линейной функцией. Задача Коши в простейшем виде:
$\frac{dy}{dx}=f(x,y)$, $y|_{x=x_0}=y_0$. Решение ищется на интервале $(x_0, b]$.
$$y_i=y_{i-1}+(x_i-x_{i-1})f(x_{i-1},y_{i-1}),\qquad i=\overline{1,n}.$$
\end{block}
\img[0.5]{Euler_method}
\end{blueframe}
\begin{frame}{}
\begin{block}{Метод Рунге-Кутты}
$$y_{n+1}=y_n+\frac{h}{6}\bigl(k_1+2k_2+2k_3+k_4\bigr),\qquad \text{где}$$
$k_1=f(x_n,y_n)$, $k_2=f\bigl(x_n+\frc{h}2, y_n+\frc{h}2 k_1\bigr)$,
$k_3=f\bigl(x_n+\frc{h}2, y_n+\frc{h}2 k_2\bigr)$,
$k_4=f(x_n+h,y_n+hk_3)$ ($h$~-- шаг сетки по $x$).
\end{block}
\img[0.5]{Runge-Kutta}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering

Binary file not shown.

View File

@ -1,11 +1,11 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
%\hypersetup{pdfpagemode=FullScreen}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{ed}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 6.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 6. Анализ временных рядов. Фурье-- и Вейвлет--анализ}
\date{5 октября 2016 года}
\date{29 марта 2021 года}
\begin{document}
% Титул
@ -21,14 +21,14 @@
\begin{frame}{Аппроксимация и интерполяция}
\only<1>{
\begin{defin}
Аппроксимация. Некоторую функцию $f(x)$, $x\in(x_0, x_1)$ требуется приближенно заменить
Аппроксимация. Некоторую функцию $f(x)$, $x\in(x_0, x_1)$ требуется приближенно заменить
некоторой функцией~$g(x)$ так, чтобы отклонение~$g(x)$ от~$f(x)$ в заданной области было наименьшим.
\end{defin}
\begin{block}{}
Точечная (интерполяция, среднеквадратичное приближение и т.п.) и непрерывная аппроксимации.
\end{block}
\begin{defin}
Интерполяция является частным случаем аппроксимации, позволяющем вычислить промежуточные
Интерполяция является частным случаем аппроксимации, позволяющем вычислить промежуточные
значения дискретной функции.
\end{defin}}
\begin{block}{Ряд Тейлора}
@ -49,7 +49,7 @@ $\Delta^k y_n = \Delta^{k-1}y_{n+1} - \Delta^{k-1}y_n$).
\begin{frame}{}
\begin{defin}
Сплайн~--- кусочная полиномиальная функция, которая на заданном отрезке может принимать очень
Сплайн~--- кусочная полиномиальная функция, которая на заданном отрезке может принимать очень
простую форму, в то же время имея гибкость и гладкость.
\end{defin}
@ -57,14 +57,14 @@ $\Delta^k y_n = \Delta^{k-1}y_{n+1} - \Delta^{k-1}y_n$).
Набор полиномов степени $k$ со следующими ограничениями:
\begin{itemize}
\item сплайны должны совпадать в узловых точках с задающей функцией: $p_n(x_n) = f(x_n)$;
\item предыдущий сплайн должен переходить в следующий в точках сшивания,
\item предыдущий сплайн должен переходить в следующий в точках сшивания,
$p_n(x_n)=p_{n+1}(x_n)$;
\item все производные до $f^{(k-1)}$ должны быть непрерывными и гладкими:
$p^i_n(x_n)=p^i_{n+1}(x_n)$ для $i=\overline{1,k-1}$;
\end{itemize}
$n-1$ полином степени $k$ имеют $(k+1)(n-1)=(k+1)n-k-1$ свободных коэффициентов. Данные ограничения
$n-1$ полином степени $k$ имеют $(k+1)(n-1)=(k+1)n-k-1$ свободных коэффициентов. Данные ограничения
дают нам
$n+(n-2)\cdot k=(k+1)n-2k$ уравнений. Чтобы получить еще $k-1$ уравнений, нужны дополнительные
$n+(n-2)\cdot k=(k+1)n-2k$ уравнений. Чтобы получить еще $k-1$ уравнений, нужны дополнительные
условия. Чем больше $k$, тем тяжелей. Поэтому обычно дальше $k=3$ не идут.
\end{block}
\end{frame}
@ -72,18 +72,326 @@ $n+(n-2)\cdot k=(k+1)n-2k$
\begin{frame}{}
\only<1>{
\begin{block}{B--сплайн}
Базисные сплайны менее подвержены влиянию изменения отдельных точек данных (изменение одной вершины
B--сплайна степени $k$ ведет к изменению лишь $k+1$ соседних сплайнов). При этом, однако, теряются
точные интерполяционные свойства: $p_n(x_n)\ne f(x_n)$ \so снижается влияние шумов (B--сплайн
проходит только через первый и последний узлы, повышаем степень~--- улучшаем сглаживание данных).
Базисные сплайны менее подвержены влиянию изменения отдельных точек данных (изменение одной вершины
B--сплайна степени $k$ ведет к изменению лишь $k+1$ соседних сплайнов). При этом, однако, теряются
точные интерполяционные свойства: $p_n(x_n)\ne f(x_n)$ \so снижается влияние шумов (B--сплайн
проходит только через первый и последний узлы, повышаем степень~--- улучшаем сглаживание данных).
Количество узлов: $n\ge k+1$.
\end{block}
\begin{block}{Сплайны Акимы}
Дают меньшие осцилляции.
\end{block}}
Также кубические. Устойчивы к осцилляциям. Локальность (окрестность из 5--6 точек) "--- существенно
более быстрое разложение.
\end{block}
\begin{block}{Кривые Безье}
Параметрические полиномиальны кривые, проходящие через опорны точки только в начале и конце области
определения.
\end{block}
}
\only<2>{
\img[0.7]{1D_Inter_polation}
}
\only<3>{
\img{bezier}
\centering{Интерполяция кривой Безье}
}
\end{frame}
\section{Модель ARMA}
\begin{frame}{Модель ARMA (авторегрессия и скользящее среднее)}
\only<1>{
\begin{block}{Авторегрессия}
Процесс авторегрессии выражается уравнением
$$x_k=\C + \sum_{i=1}^{n}\phi_i x_{k-i} + \epsilon_k,\qquad\text{где $\C$~-- константа,
$\epsilon$~--
шум.}$$
Процесс будет стационарным, лишь если $\phi_i$ заключены в определенном диапазоне, что не приведет
к негораниченному росту~$x_k$.
\end{block}
\begin{block}{Скользящее среднее}
$$x_k=\C + \epsilon_k - \sum_{i=1}^{n}\theta_i\epsilon_{k-i},\qquad\text{объект~-- сумма ошибок.}$$
\end{block}}
\only<2>{
\begin{block}{ARMA}
$$x_k=\C + \epsilon_k + \sum_{i=1}^{p}\phi_i x_{k-i} + \sum_{i=1}^{q}\theta_i\epsilon_{k-i}\qquad
\text{--- процесс ARMA(p,q).}$$
Для определения порядков $p$ и $q$ может применяться, например, автокорреляция и частичная
автокорреляция, ЧАКФ. Для нахождения коэффициентов~--- метод наименьших квадратов и т.п.
В ЧАКФ из переменных вычисляется их регрессия (удаляются линейные зависимости):
$$PACF(k)=corr(x_{t+k}-x_{t+k}^{k-1}, x_t-x_{t}^{k-1}),$$
$$x_{t}^{k-1}=\sum_{i=1}^{k-1}\beta_i x_{t+k-i}\qquad\text{--- СЛАУ.}$$
\end{block}
}
\end{frame}
\section{Преобразования Лапласа, Z--преобразования}
\begin{frame}{Преобразование Лапласа}
\only<1>{
\begin{block}{}
В линейной теории управления аналогами преобразований Фурье выступают
преобразования Лапласа и Z--преобразования.
Для комплексного переменного $s$ преобразование Лапласа определяется так:
$$
F(s)=\LT{f(t)}(s)=\Int_0^{\infty}f(t)\e^{-st}dt.
\label{Laplas_transform}
$$
Использование преобразований Лапласа имеет тот смысл, что управляющая
функция $f(t)$ чаще всего является чисто действительной, а ее
состояние в момент времени $t<0$ не определено или же не
интересует исследователя.
$$f(t)=\ILT{F(s)}= \frac{1}{2\pi i}\lim_{\omega\to\infty}\Int_{\gamma-\omega}^{\gamma+\omega}
\e^{st}F(s)\,ds,$$
где $\gamma$ определяет область сходимости $F(s)$.
\end{block}}
\only<2>{
\begin{block}{Связь с преобразованием Фурье}
$$
\FT{F}\equiv F(u)=\Infint f(x)\e^{-2\pi i ux}\,dx
$$
$$\LT{f(t)}(2\pi u)=\Int_0^{\infty}f(t)\e^{-2\pi iut}dt=\FT{f(t)},\qquad f(t)=0\when{t<0}.$$
Лаплас \arr Фурье: $s \arr2\pi iu $ \Arr расширение свойств ПФ на ПЛ.
Сведение линейных диф. уравнений к алгебраическим \Arr теория управления:
$$\LT{\dfrac{df(t)}{dt}}(s)=s^{1}\LT{f(t)}(s)-f(0)\quad\Arr$$
$$\quad\LT{f^{(n)}(t)}(s)=s^{n}\LT{f(t)}-\sum_{k=1}^n s^{n-k}f^{(k-1)}(0).$$
\end{block}
}
\only<3>{
\begin{block}{Передаточная функция}
$i(t)$~--- входной сигнал управляющей системы, $o(t)$~---
выходной сигнал; $I(s)=\LT{i}$, $O(s)=\LT{o}$.
{ Передаточная функция} с нулевыми начальными условиями:
$$
T(s)=\frac{O(s)}{I(s)}.
$$
$T(s)$ описывает динамику системы, совершенно отвлекаясь от ее внутреннего функционирования.
$$o(t)=\ILT{T\cdot I}.$$
\end{block}
}
\end{frame}
\begin{frame}{Преобразование Лапласа, примеры}
\only<1>{
\begin{block}{Функция Хевисайда}
\begin{columns}
\column{0.3\textwidth}
$$\eta(t)=\left\{\begin{aligned}
0,\quad t<0,\\
1,\quad t\ge0.
\end{aligned}\right.$$
\column{0.7\textwidth}
$$\displaystyle F(p)=\Int_0^\infty \eta(t)\,\e^{-st}dt=\Int_0^\infty\e^{-st}dt=\frac{1}{s},\quad\Re(
s) > 0.$$
\end{columns}
\end{block}
\begin{block}{Экспонента}
$$\Int_0^\infty\e^t\e^{-st}dt=\Int_0^\infty\e^{-t(s-1)}dt=\left.\frac{\e^{-(s-1)t}}{-(s-1)}\right|_0^\infty=
\frac{1}{s-1},\quad \Re(s)>1;$$
$$\Int_0^\infty\e^{\lambda t}\e^{-st}dt=\frac{1}{s-\lambda},\quad \Re(s)>\lambda.$$
\end{block}
}
\only<2>{
\begin{block}{$\sin$, $\cos$}
$$\Int_0^\infty \sin\alpha t\e^{-st}dt=\Int_0^\infty\frac{\e^{i\alpha t}-\e^{-i\alpha
t}}{2i}\e^{-st}dt=\frac{\alpha}{s^2+\alpha^2},$$
$$\Int_0^\infty \cos\alpha t\e^{-st}dt=\Int_0^\infty\frac{\e^{i\alpha t}+\e^{-i\alpha
t}}{2i}\e^{-st}dt=\frac{s}{s^2+\alpha^2}.$$
\end{block}
\begin{block}{$\sh$, $\ch$}
$$\Int_0^\infty \sh\alpha t\e^{-st}dt=\frac{\alpha}{s^2-\alpha^2},$$
$$\Int_0^\infty \ch\alpha t\e^{-st}dt=\frac{s}{s^2-\alpha^2}.$$
\end{block}
}
\only<3>{\begin{block}{Диф. уравнения}
Решить задачу Коши $x'''+x'=1$, $x(0)=x'(0)=x''(0)=0$. Вычислим преобразование Лапласа (учитывая,
что все н.у. нулевые):
$$s^3F(s)+sF(s)=\frac{1}{s}\Arr F(s)=\frac{1}{s^2(s^2+1)}=\frac{1}{s^2}-\frac{1}{s^2+1},$$
Обратное преобразование:
$$x(t)=t-\sin t.$$
\end{block}
}
\only<4>{
\begin{block}{Конденсатор}
Ток $i=C\frac{du}{dt}$, Лаплас: $I(s)=C(sU(s)-u(0))$. Отсюда $U(s)=\frac{I(s)}{sC}+\frac{u(0)}{s}$.
Комплексное сопротивление $Z(s)=\left.\frac{U(s)}{I(s)}\right|_{u(0)=0}$. Импеданс
конденсатора: $Z=\frac{1}{sC}$.
\end{block}
\begin{block}{Индуктивность}
$u=L\frac{di}{dt}$, $U(s)=L(sI(s)-i(0))$, $Z(s)=\left.\frac{U(s)}{I(s)}\right|_{i(0)=0}$,
$Z=sL$.
\end{block}
}
\only<5>{
\begin{block}{Общая передаточная функция}
Рассмотрим диф. уравнение
$$\sum_{i=0}^n a_i y^{(i)}(t)=\sum_{j=0}^m b_j x^{(j)}(t).$$
При нулевых начальных условиях его преобразование Лапласа:
$$Y(s)\sum a_i s^i = X(s)\sum b_j s^j,\quad\Arr\quad
Y(s)=\frac{b_0 + b_1 s + \ldots + b_m s^m}{a_0 + a_1 s + \ldots + a_n s^n}X(s).$$
Передаточная функция:
$$W(s)=\frac{Y(s)}{X(s)}=\frac{b_0 + b_1 s + \ldots + b_m s^m}{a_0 + a_1 s + \ldots + a_n s^n}.$$
Корни $b_i$~-- нули передаточной функции, корни $a_i$~-- ее полюса.
\end{block}
}
\only<6>{
\begin{block}{Переходная характеристика}
ПХ~--- реакция системы на ступенчатую функцию (Хевисайда): $$Y(s)=\dfrac{1}{s}W(s).$$
Основные виды: апериодическая (монотонная)~-- плавное возрастание или затухание с постоянным знаком
производной; периодическая колебательная~-- бесконечное количество раз смены знака производной с
постоянным периодом; колебательная апериодическая~-- период смены знака производной непостоянен,
его количество конечно.
Для последовательных звеньев $W(s)=\prod_{i=1}^n W_i(s)$. У параллельных суммирующих звеньев
$W(s)=\sum_{i=1}^n W_i(s)$.
Обратная связь: $Y=W_1X_1$, $X_1=X\pm X_2=X\pm W_2 W_1 X_1$, $X_1=X\pm X_1 W_1 W_2$
$$X_1 = \frac{X}{1\mp W_1 W_2},\quad Y=\frac{W_1 X}{1\mp W_1 W_2},\quad
W=\frac{W_1}{1\mp W_1 W_2}.$$
\end{block}
}
\end{frame}
\begin{frame}{Z--преобразования (преобразования Лорана)}
\begin{block}{}
Являются дискретными аналогами преобразований Лапласа.
Z--преобразование дискретного сигнала $\mathrm{i}={i_k}$, где
$k=0,\ldots,\infty$,
имеет следующий вид:
$$
I(z)\equiv\ZT{\mathrm{i}}=\sum_{k=0}^\infty i_k(t)z^{-k},
$$
$$
i_n = \IZT{I}=
\frac1{2\pi}\Oint_C I(z)z^{n}dz,
$$
где $C$~-- контур, охватывающий область сходимости $Z$.
\end{block}
\begin{block}{}
Отклик на сдвиг:
$$\ZT{\strut\mathrm{i}(t+n\Delta t)}=z^n\ZT{\strut\mathrm{i}(t)}.$$
Связь с преобразованием Лапласа ($t\ll\Delta T$):
$$\LT{\strut\mathrm{i}(t)}(s)=\ZT{\strut\mathrm{i}(t)}\e^{-st}.$$
\end{block}
\end{frame}
\section{Фурье--анализ}
\begin{frame}{Фурье--анализ}
\only<1>{
\begin{block}{Ряд Фурье}
$$f(x)=\sum_{n=0}^\infty a'_n\cos(nx)+\sum_{n=1}^\infty b'_n\sin(nx).$$
Коэффициенты $a_n$ и~$b_n$ рассчитываются по формулам
$$a_n=\rev\pi\Int_{-\pi}^\pi f(x)\cos(nx)\,dx,\qquad
b_n=\rev\pi\Int_{-\pi}^\pi f(x)\sin(nx)\,dx.$$
$$\text{Если}\quad S_k(x) = \sum_{n=0}^k a'_n\cos(nx)+\sum_{n=1}^k b'_n\sin(nx),\quad\text{то}$$
$$\lim_{n\to\infty}\Int_{-\pi}^\pi\Bigl(f(x)-S_k(x)\Bigr)dx = 0.$$
\end{block}
}
\only<2>{
\img{aliasing_fourier}
\centering{Ложная синусоида (<<aliasing>>, муар).}
}
\only<3>{
\begin{block}{Свойства}
\begin{itemize}
\item свертка: $\FT{f\cdot g}=\sqrt{2\pi}\FT{f}\cdot\FT{g}$,
\item дифференцирование: $\FT{f^{n}} = (2\pi i\nu)^n\FT{f}$,
\item сдвиг: $\FT{f(x-x_0)\strut}=\e^{-2\pi i\nu x_0}\FT{f}$,
\item частотный сдвиг: $\FT{\e^{iat}f(t)}=F(2\pi\nu-a)$,
\item масштабирование: $\FT{\C f}=\rev{|\C|}\FT{f}(\nu/a)$,
\item $\FT{\delta(t)\strut}=\frac1{\sqrt{2\pi}}$,
\item $\FT{1}=\sqrt{2\pi}\delta(2\pi\nu)$,
\item $\FT{\e^{iat}}=\sqrt{2\pi}\delta(2\pi\nu-a)$.
\end{itemize}
\end{block}
}
\end{frame}
\begin{frame}{}
\only<1>{
\img{FM-AM}
\centering{Спектры ЧМ~(сверху) и АМ~(снизу) сигналов, образованных из двух
одинаковых гармонических сигналов}
}
\only<2>{
\img{Four-filter}
\centering{Фурье-фильтрация. Точками обозначен оригинальный сигнал, линией~---
зашумленный сигнал, кружками~--- отфильтрованный.}
}
\end{frame}
\section{Вейвлет--анализ}
\begin{frame}{Вейвлет--анализ}
\only<1>{
\begin{defin}
Вейвлеты~--- класс функций, использующихся для пространственной и масштабируемой локализации
заданной функции. Семейство вейвлетов может быть образовано из функции~$\psi(x)$ (ее иногда
называют <<материнским вейвлетом>>), ограниченной на конечном интервале. <<Дочерние>> вейвлеты
$\psi^{a,b}(x)$ образуются из <<материнского>> путем сдвига и масштабирования.
\end{defin}
\begin{block}{}
Отдельный вейвлет можно определить как
$$\psi^{a,b}(x)=|a|^{-1/2}\psi\Bigl(\frac{x-b}{a}\Bigr).$$
Тогда базис вейвлетов (\it{}прямое вейвлет--преобразование),
соответствующих функции~$f(x)$ определяется как
$$W_\psi(f)(a,b)=\rev{\sqrt a}\Infint f(t)\psi^*\Bigl(\frac{t-b}{a}\Bigr)\,dt.
\label{waveletb}$$
где $a, b\in \mathbb{R}$, $a\ne0$.
\end{block}
}
% \only<2>{
% \begin{block}{Коэффициенты}
% $$C_{j,k}=W_\psi(f)(2^{-j},k\cdot2^{-j}).$$
%
% \end{block}
% }
\only<2>{
\begin{block}{Дискретное вейвлет--преобразование}
$a=a_{0}^{m},\quad b=nb_{0}$, в этом случае
$$\psi_{{m,n}}=a_{0}^{-m/2}\psi \left(\frac {t-nb_0}{a_0^m}\right).$$
$$W_{m,n}=\Int_{-\infty }^{\infty }x(t)\,\psi_{m,n}^{*}(t)\,dt.$$
$$x(t)=K_\psi \Sum_{m=-\infty}^{\infty }\Sum_{n=-\infty }^\infty W_{m,n}\psi _{m,n}(t),$$
где $K_\psi$~-- постоянная нормировки.
\end{block}
}
% \only<2>{
% \begin{block}{Свойства вейвлетов и требования}
% \begin{itemize}
% \item $\Infint\psi(t)\,dt=0$; $\Infint|\psi(t)|^2 dt<\infty$;
% \item $\WT{af(t)+bg(t)}=a\WT{f(t)}+b\WF{g(t)}$;
% \item $\WT{f(t-t_0)}=
% \end{itemize}
%
% \end{block}
% }
\end{frame}
\begin{frame}{}
\only<1>{
\img[0.9]{wavelet}
\centering{Локализация}
}
\only<2>{
\img[0.6]{scale}
\centering{Масштабирование}
}
\only<3>{
\img[0.8]{fourwav}
\centering{Фурье и вейвлеты}
}
\only<4>{
\img[0.5]{curvelet}
\centering{Курвлеты}
}
\end{frame}

BIN
Komp_obr/07-iproc_1.pdf Normal file

Binary file not shown.

309
Komp_obr/07-iproc_1.tex Normal file
View File

@ -0,0 +1,309 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
%\usepackage{ed}
\usepackage{lect}
\title[ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ. ìÅËÃÉÑ 7.1.]{ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ ÒÅÚÕÌØÔÁÔÏ× ÉÚÍÅÒÅÎÉÊ}
\subtitle{ìÅËÃÉÑ 7.1. ïÂÒÁÂÏÔËÁ ÉÚÏÂÒÁÖÅÎÉÊ}
\date{31 ÍÁÒÔÁ 2021 ÇÏÄÁ}
\begin{document}
% ôÉÔÕÌ
\begin{frame}
\maketitle
\end{frame}
% óÏÄÅÒÖÁÎÉÅ
\begin{frame}
\tableofcontents
\end{frame}
\section{ãÉÆÒÏ×ÙÅ ÉÚÏÂÒÁÖÅÎÉÑ}
\begin{frame}{ãÉÆÒÏ×ÙÅ ÉÚÏÂÒÁÖÅÎÉÑ}
\begin{defin}
éÚÏÂÒÁÖÅÎÉÅ ÐÒÅÄÓÔÁ×ÌÑÅÔ ÓÏÂÏÊ Ä×ÕÍÅÒÎÕÀ ÆÕÎËÃÉÀ $f(x,y)$, ÇÄÅ~$x$ É~$y$~---
ÐÒÏÓÔÒÁÎÓÔ×ÅÎÎÙÅ ËÏÏÒÄÉÎÁÔÙ, Á ÕÒÏ×ÅÎØ~$f$ ÎÁÚÙ×ÁÅÔÓÑ
ÉÎÔÅÎÓÉ×ÎÏÓÔØÀ ÉÚÏÂÒÁÖÅÎÉÑ × ÄÁÎÎÏÊ ÔÏÞËÅ (Ã×ÅÔÎÏÅ ÉÚÏÂÒÁÖÅÎÉÅ Ñ×ÌÑÅÔÓÑ
ÓÏ×ÏËÕÐÎÏÓÔØÀ ÐÏ ËÒÁÊÎÅÊ ÍÅÒÅ ÔÒÅÈ ÆÕÎËÃÉÊ $r(x,y)$, $g(x,y)$ É~$b(x,y)$).
åÓÌÉ ×ÅÌÉÞÉÎÙ~$x$, $y$ É~$f$ ÐÒÉÎÉÍÁÀÔ ÄÉÓËÒÅÔÎÙÅ ÚÎÁÞÅÎÉÑ, ÇÏ×ÏÒÑÔ Ï ÃÉÆÒÏ×ÏÍ
ÉÚÏÂÒÁÖÅÎÉÉ. üÌÅÍÅÎÔÁÒÎÁÑ ÅÄÉÎÉÃÁ ÃÉÆÒÏ×ÏÇÏ ÉÚÏÂÒÁÖÅÎÉÑ ÎÁÚÙ×ÁÅÔÓÑ
ÐÉËÓÅÌÅÍ.
\end{defin}
\begin{block}{äÉÓËÒÅÔÉÚÁÃÉÑ}
ðÒÏÃÅÄÕÒÕ Ë×ÁÎÔÏ×ÁÎÉÑ (\bf ÄÉÓËÒÅÔÉÚÁÃÉÉ) Ë×ÁÚÉÎÅÐÒÅÒÙ×ÎÏÇÏ ÉÚÏÂÒÁÖÅÎÉÑ $I_0(X,Y)$ ÍÏÖÎÏ ÐÒÅÄÓÔÁ×ÉÔØ × ×ÉÄÅ:
$$
I(x,y)=\mathrm{round}\Bigl(\frac{2^N-1}{I_{max}}\Int_{S_{x,y}}I_0(X,Y)
\,dXdY\Bigr)+\delta_{x,y}.
$$
\end{block}
\end{frame}
\begin{frame}{RGB-ÍÏÄÅÌØ}
\only<1>{
\img[0.6]{RGB}
\centering{áÄÄÉÔÉ×ÎÁÑ RGB-ÍÏÄÅÌØ}
}\only<2>{
\img[0.6]{sRGB}
}
\end{frame}
\begin{blueframe}{CMYK-ÍÏÄÅÌØ}
\only<1>{
\img[0.5]{CMYK}
\centering{óÕÂÓÔÒÁËÔÉ×ÎÁÑ CMYK-ÍÏÄÅÌØ}
}\only<2>{
\img[0.6]{colormodels}
}
\end{blueframe}
\begin{frame}{}
\img[0.6]{Bayer_pattern}
\centering{íÁÓËÁ âÁÊÅÒÁ}
\end{frame}
\section{íÁÔÅÍÁÔÉÞÅÓËÉÊ ÁÐÐÁÒÁÔ}
\begin{frame}{íÁÔÅÍÁÔÉÞÅÓËÉÊ ÁÐÐÁÒÁÔ}
\only<1>{\img[0.7]{neighbourhoods}
\centering{óÏÓÅÄÓÔ×Ï}}
\only<2>{\img[0.6]{connregs}
\centering{ó×ÑÚÎÏÓÔØ}
}
\only<3>{\img[0.6]{msquare}
\centering{çÒÁÎÉÃÙ, ËÏÎÔÕÒÙ}
}
\end{frame}
\begin{frame}{}
\begin{block}{òÁÓÓÔÏÑÎÉÅ}
\begin{itemize}
\item å×ËÌÉÄÏ×Ï: $D_{e(p,q)}=\sqrt{(x_p-x_q)^{2}+(y_{p}-y_{q})^{2}}$.
\item íÅÔÒÉËÁ $L_{1}$: $D_{4}(p,q)=|x_{p}-x_{q}|+|y_{p}-y_{q}|$.
\item íÅÔÒÉËÁ $L_{\infty}$: $D_{8}(p,q)=\max\bigl(|x_{p}-x_{q}|,|y_{p}-y_{q}|\bigr)$.
\end{itemize}
\end{block}
\begin{block}{ðÏÜÌÅÍÅÎÔÎÙÅ É ÍÁÔÒÉÞÎÙÅ ÏÐÅÒÁÃÉÉ}
$$A=\begin{bmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{bmatrix},\quad{}
B=\begin{bmatrix}b_{11}&b_{12}\\b_{21}&b_{22}\end{bmatrix}.$$
ðÏÜÌÅÍÅÎÔÎÏÅ ÐÒÏÉÚ×ÅÄÅÎÉÅ:
$$A\cdot B = \begin{bmatrix}a_{11}b_{11}&a_{12}b_{12}\\a_{21}b_{21}&a_{22}b_{22}\end{bmatrix}.$$
íÁÔÒÉÞÎÏÅ ÐÒÏÉÚ×ÅÄÅÎÉÅ:
$$A\times B = \begin{bmatrix}a_{11}b_{11}+a_{12}b_{21}&a_{11}b_{12}+a_{12}b_{22}\\
a_{21}b_{11}+a_{22}b_{21}&a_{21}b_{12}+a_{22}b_{22}\end{bmatrix}.$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{áÆÆÉÎÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
$$\begin{pmatrix}x'&y'&1\end{pmatrix}=\begin{pmatrix}x&y&1\end{pmatrix}\times\B{T}.$$
\end{block}
\begin{columns}\column{0.5\textwidth}
\begin{block}{}
ôÏÖÄÅÓÔ×Ï: $\B{T}=\begin{pmatrix}1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
íÁÓÛÔÁÂ: $\B{T}=\begin{pmatrix}c_{x} & 0 & 0\\ 0 & c_{y} & 0\\ 0 & 0 & 1\end{pmatrix},$\\
ðÏ×ÏÒÏÔ: $\B{T}=\begin{pmatrix}\cos\theta & \sin\theta & 0\\ -\sin\theta & \cos\theta & 0\\ 0 & 0 & 1\end{pmatrix},$\\
óÄ×ÉÇ: $\B{T}=\begin{pmatrix}1 & 0 & 0\\ 0 & 1 & 0\\ t_{x} & t_{y} & 1\end{pmatrix},$\\
\end{block}
\column{0.45\textwidth}
\begin{block}{}
óËÏÓ $y$: $\B{T}=\begin{pmatrix}1 & 0 & 0\\ s_{v} & 1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
óËÏÓ $x$: $\B{T}=\begin{pmatrix}1 & s_{h} & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
ïÔÒÁÖÅÎÉÅ $x$: $\B{T}=\begin{pmatrix}1 & 0 & 0\\ 0 & -1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
ïÔÒÁÖÅÎÉÅ $y$: $\B{T}=\begin{pmatrix}-1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
\end{block}
\end{columns}
\begin{block}{}ëÏÍÂÉÎÁÃÉÑ ÐÒÅÂÒÁÚÏ×ÁÎÉÊ: $\B{M}=\prod_{i}\B{T_{i}}$\end{block}
\end{frame}
\section{ðÒÏÓÔÒÁÎÓÔ×ÅÎÎÙÅ É ÇÒÁÄÁÃÉÏÎÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
\begin{frame}{ðÒÏÓÔÒÁÎÓÔ×ÅÎÎÙÅ É ÇÒÁÄÁÃÉÏÎÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
\begin{defin}
ðÒÅÏÂÒÁÚÏ×ÁÎÉÑ × ÐÒÏÓÔÒÁÎÓÔ×ÅÎÎÏÊ ÏÂÌÁÓÔÉ ÒÁÂÏÔÁÀÔ ÎÅÐÏÓÒÅÄÓÔ×ÅÎÎÏ Ó ÐÉËÓÅÌÑÍÉ ÉÚÏÂÒÁÖÅÎÉÑ:
$$T(u,v)=\Sum_{x=0}^{M-1}\Sum_{y=0}^{N-1}f(x,y)r(x,y,u,v),\qquad\text{ÇÄÅ $r$~-- ÑÄÒÏ
ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ.}$$
\end{defin}
\begin{block}{çÒÁÄÁÃÉÏÎÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ ($I\in[0, L-1]$, $I'=r(I)$)}
\begin{itemize}
\item ÎÅÇÁÔÉ×: $r = L-1 -I$;
\item ÌÏÇÁÒÉÆÍÉÞÅÓËÏÅ: $r=\C\ln(1+I)$;
\item ÇÁÍÍÁ-ËÏÒÒÅËÃÉÑ: $r=\C(L-1)\cdot i^\gamma$, $i=\dfrac{I}{L-1}$;
\item ËÕÓÏÞÎÏ-ÌÉÎÅÊÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ (ÕÓÉÌÅÎÉÅ ËÏÎÔÒÁÓÔÁ).
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{}
\only<1>{
\img[0.8]{bitplanes}
\centering{âÉÔÏ×ÙÅ ÐÌÏÓËÏÓÔÉ}
}\only<2>{
\img[0.4]{graycode}
\centering{âÉÔÏ×ÙÅ ÐÌÏÓËÏÓÔÉ × ËÏÄÁÈ çÒÅÑ}
}
\end{frame}
\begin{frame}{çÉÓÔÏÇÒÁÍÍÁ}
\img[0.9]{histogram}
\end{frame}
\begin{frame}{}
\only<1>{
\begin{block}{üË×ÁÌÉÚÁÃÉÑ ÇÉÓÔÏÇÒÁÍÍÙ}
$$s_k=(L-1)\Sum_{j=0}^{k}p_j=\frac{L-1}{MN}\Sum_{j=0}^{k}n_j.$$
\end{block}
\img[0.7]{histeq}
}
\only<2>{
\begin{block}{ðÒÉ×ÅÄÅÎÉÅ ÇÉÓÔÏÇÒÁÍÍÙ $p_r\arr p_z$}
\begin{enumerate}
\item ðÏÌÕÞÅÎÉÅ ÜË×ÁÌÉÚÏ×ÁÎÎÏÊ ÇÉÓÔÏÇÒÁÍÍÙ, $s_k$.
\item ÷ÙÞÉÓÌÅÎÉÅ ÆÕÎËÃÉÉ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ $G(z_q)=(L-1)\Sum_{j=0}^{q}p_z(z_j)$.
\item îÁÈÏÖÄÅÎÉÅ ÄÌÑ ËÁÖÄÏÇÏ $s_k$ ÓÏÏÔ×ÅÔÓÔ×ÕÀÝÅÇÏ ÚÎÁÞÅÎÉÑ $z_q$, ÄÌÑ ËÏÔÏÒÏÇÏ $G(z_q)$ ÎÁÉÂÏÌÅÅ
ÂÌÉÚËÏ Ë~$s_k$.
\item æÏÒÍÉÒÏ×ÁÎÉÅ ÐÒÉ×ÅÄÅÎÎÏÇÏ ÉÚÏÂÒÁÖÅÎÉÑ.
\end{enumerate}
\end{block}
}
\only<3,4>{
\begin{block}{ìÏËÁÌØÎÁÑ ÇÉÓÔÏÇÒÁÍÍÎÁÑ ÏÂÒÁÂÏÔËÁ}
\only<3>{\img[0.8]{h1}}
\only<4>{\img[0.8]{h2}}
\end{block}
}
\end{frame}
\begin{frame}{üË×ÁÌÉÚÁÃÉÑ ÇÉÓÔÏÇÒÁÍÍÙ}
\only<1>{M13: ÂÅÚ É Ó ÜË×ÁÌÉÚÁÃÉÅÊ:\\
\smimg[0.48]{M13_nohisteq}\hfil\smimg[0.48]{M13_histeq}
}
\only<2>{M29: ÂÅÚ É Ó ÜË×ÁÌÉÚÁÃÉÅÊ:\\
\smimg[0.48]{M29_nohisteq}\hfil\smimg[0.48]{M29_histeq}
}
\end{frame}
\def\svec#1{\begin{smallmatrix}#1\end{smallmatrix}}
\def\smat#1{\begin{pmatrix}#1\end{pmatrix}}
\def\pb#1#2{\parbox{0.4\textwidth}{\centering{#1}\par\noindent\centering{\includegraphics{#2}}}}
\begin{frame}{ðÒÏÓÔÒÁÎÓÔ×ÅÎÎÁÑ ÆÉÌØÔÒÁÃÉÑ}
\only<1>{
\begin{block}{}
$$f=\svec{0&0&0&1&0&0&0&0},\qquad w=\svec{1&2&3&4&5}.$$
\end{block}
\begin{columns}
\column{0.48\textwidth}
\begin{block}{ëÏÒÒÅÌÑÃÉÑ, $v=f\star w$}
$$0:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\1&2&3&4&5\\}$$
$$3:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\0&0&0&1&2&3&4&5\\}$$
$$7:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\0&0&0&0&0&0&0&1&2&3&4&5\\}$$
$$a:\qquad\svec{0&0&0&5&4&3&2&1&0&0&0&0}$$
$$v:\qquad\svec{0&5&4&3&2&1&0&0}$$
\end{block}
\column{0.48\textwidth}
\begin{block}{ó×ÅÒÔËÁ, $v=f*w$}
$$0:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\5&4&3&2&1\\}$$
$$3:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\0&0&0&5&4&3&2&1\\}$$
$$7:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\0&0&0&0&0&0&0&5&4&3&2&1\\}$$
$$a:\qquad\svec{0&0&0&1&2&3&4&5&0&0&0&0}$$
$$v:\qquad\svec{0&1&2&3&4&5&0&0}$$
\end{block}
\end{columns}
}\only<2>{
\begin{columns}
\column{0.48\textwidth}
\begin{block}{}
\pb{éÄÅÎÔÉÞÎÏÓÔØ}{Vd-Orig} $\smat{0&0&0\\0&1&0\\0&0&0}$\\[2pt]
\pb{$f'(x,y)$}{Vd-Edge1} $\smat{1&0&-1\\0&0&0\\-1&0&1}$\\[2pt]
\pb{ìÁÐÌÁÓÉÁÎ}{Vd-Edge2} $\smat{0&1&0\\1&-4&1\\0&1&0}$\\[2pt]
\pb{ìÁÐÌÁÓÉÁÎ}{Vd-Edge3} $\smat{1&1&1\\1&-8&1\\1&1&1}$
\end{block}
\column{0.48\textwidth}
\begin{block}{}
\pb{òÅÚËÏÓÔØ}{Vd-Sharp} $\smat{0&-1&0\\-1&5&-1\\0&-1&0}$\\[2pt]
\pb{òÁÚÍÙÔÉÅ}{Vd-Blur2} $\dfrac{1}{9}\smat{1&1&1\\1&1&1\\1&1&1}$\\[2pt]
\pb{çÁÕÓÓ}{Vd-Blur1} $\dfrac{1}{16}\smat{1&2&1\\2&4&2\\1&2&1}$\\[2pt]
\pb{LoG}{Vd-LOG} $\dfrac{1}{64}\smat{11&27&11\\27&-202&27\\11&27&11}$
\end{block}
\end{columns}
}
\end{frame}
\begin{frame}{ðÒÏÓÔÒÁÎÓÔ×ÅÎÎÁÑ ÆÉÌØÔÒÁÃÉÑ FITS}
\only<1>{ïÒÉÇÉÎÁÌ:\\
\smimg[0.5]{objFull}\;\smimg[0.5]{objCrop}
}
\only<2>{æÉÌØÔÒ çÁÕÓÓÁ $1\times1$ ÐÉËÓÅÌØ:\\
\smimg[0.5]{gaussFull}\;\smimg[0.5]{gaussCrop}
}
\only<3>{æÉÌØÔÒ ÌÁÐÌÁÓÉÁÎÁ ÇÁÕÓÓÉÁÎÙ $1\times1$ ÐÉËÓÅÌØ:\\
\smimg[0.5]{lapgaussFull}\;\smimg[0.5]{lapgaussCrop}
}
\only<4>{æÉÌØÔÒ ðÒÀÉÔÔÁ (ÇÏÒÉÚÏÎÔÁÌØÎÙÊ):\\
\smimg[0.5]{prewitthFull}\;\smimg[0.5]{prewitthCrop}
}
\only<5>{æÉÌØÔÒ ðÒÀÉÔÔÁ (×ÅÒÔÉËÁÌØÎÙÊ):\\
\smimg[0.5]{prewittvFull}\;\smimg[0.5]{prewittvCrop}
}
\only<6>{ðÒÏÓÔÏÊ ÇÒÁÄÉÅÎÔ (ÞÅÒÅÚ ÆÉÌØÔÒÙ ðÒÀÉÔÔÁ):\\
\smimg[0.5]{gradientFull}\;\smimg[0.5]{gradientCrop}
}
\end{frame}
\begin{frame}{}
\only<1>{
\begin{block}{íÅÄÉÁÎÎÁÑ ÆÉÌØÔÒÁÃÉÑ}
\centering{\includegraphics[width=0.4\textwidth]{image020} \hspace{3em}
\includegraphics[width=0.4\textwidth]{image021}}
\end{block}
}\only<2>{
\begin{block}{áÄÁÐÔÉ×ÎÙÊ ÍÅÄÉÁÎÎÙÊ ÆÉÌØÔÒ}
úÏÎÁ $K\times K$ ÐÉËÓÅÌÅÊ, $I_{min}$, $I_{max}$, $I_{med}$, $I_{xy}$ (ÉÎÔÅÎÓÉ×ÎÏÓÔØ × ÄÁÎÎÏÊ
ÔÏÞËÅ), $K_{max}$~-- ÍÁËÓÉÍÁÌØÎÙÊ ÒÁÚÍÅÒ ÚÏÎÙ.
\begin{enumerate}
\item $A_1=I_{med}-I_{min}$, $A_2=I_{med}-I_{max}$; ÅÓÌÉ $A_1>0$ É $A_2<0$ ÐÅÒÅÈÏÄ ÎÁ 2, ÉÎÁÞÅ
$++K$; ÅÓÌÉ $K<K_{max}$, ÐÏ×ÔÏÒÉÔØ, ÉÎÁÞÅ ×ÅÒÎÕÔØ $I_{xy}$.
\item $B_1=I_{xy}-I_{min}$, $B_2=I_{xy}-I_{max}$; ÅÓÌÉ $B_1>0$ É $B_2<0$, ×ÅÒÎÕÔØ $I_{xy}$, ÉÎÁÞÅ
×ÅÒÎÕÔØ $I_{med}$.
\end{enumerate}
\end{block}
}\only<3>{
\centering{\includegraphics[width=0.35\textwidth]{imf_ori} \hspace{3em}
\includegraphics[width=0.377\textwidth]{imf_mean}}
\centering{\includegraphics[width=0.377\textwidth]{imf_median} \hspace{3em}
\includegraphics[width=0.35\textwidth]{imf_adpmed}}
}
\only<4>{íÅÄÉÁÎÎÁÑ ÆÉÌØÔÒÁÃÉÑ $r=1$\,ÐÉËÓÅÌØ É $r=5$\,ÐÉËÓÅÌÅÊ:\\
\smimg[0.5]{median1}\;\smimg[0.5]{median5}
}
\only<5>{ïÒÉÇÉÎÁÌ, ÁÄÁÐÔÉ×ÎÁÑ ÍÅÄÉÁÎÁ ($r=1$) É ÍÅÄÉÁÎÁ ($r=1$):\\
\img{oriadpmed}
}
\end{frame}
\section{þÁÓÔÏÔÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
\begin{frame}{þÁÓÔÏÔÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
\begin{block}{ä×ÕÍÅÒÎÏÅ äðæ}
$$F(u,v)=\Sum_{x=0}^{M-1}\Sum_{y=0}^{N-1} f(x,y) \exp\Bigl(-2\pi
i\bigl(\frc{ux}{M}+\frc{vy}{N}\bigr)\Bigr).$$
$$f(x,y)=\frac{1}{MN}\Sum_{u=0}^{M-1}\Sum_{v=0}^{N-1} F(u,v) \exp\Bigl(2\pi
i\bigl(\frc{ux}{M}+\frc{vy}{N}\bigr)\Bigr).$$
\end{block}
\centering{\includegraphics[width=0.4\textwidth]{Vd-Fpwr} \hspace{3em}
\includegraphics[width=0.4\textwidth]{Vd-phase}}
\end{frame}
\begin{frame}{}
\img{fft}
\end{frame}
\begin{frame}{óÐÁÓÉÂÏ ÚÁ ×ÎÉÍÁÎÉÅ!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

BIN
Komp_obr/07-iproc_2.pdf Normal file

Binary file not shown.

273
Komp_obr/07-iproc_2.tex Normal file
View File

@ -0,0 +1,273 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ. ìÅËÃÉÑ 7.2.]{ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ ÒÅÚÕÌØÔÁÔÏ× ÉÚÍÅÒÅÎÉÊ}
\subtitle{ìÅËÃÉÑ 7.2. ïÂÒÁÂÏÔËÁ ÉÚÏÂÒÁÖÅÎÉÊ}
\date{1 ÁÐÒÅÌÑ 2021 ÇÏÄÁ}
\begin{document}
% ôÉÔÕÌ
\begin{frame}
\maketitle
\end{frame}
% óÏÄÅÒÖÁÎÉÅ
\begin{frame}
\tableofcontents
\end{frame}
\section{÷ÅÊ×ÌÅÔÙ}
\begin{frame}{÷ÅÊ×ÌÅÔÙ}
\only<1>{\img[0.6]{pyramid}
\begin{block}{ðÉÒÁÍÉÄÁ ÉÚÏÂÒÁÖÅÎÉÊ}
ðÉÒÁÍÉÄÁ ÐÒÉÂÌÉÖÅÎÉÊ (ÁÐÐÒÏËÓÉÍÉÒÕÀÝÉÅ ËÏÜÆÆÉÃÉÅÎÔÙ), ÐÉÒÁÍÉÄÁ ÏÛÉÂÏË (ÄÅÔÁÌÉÚÉÒÕÀÝÉÅ ËÏÜÆÆÉÃÉÅÎÔÙ).
ðÉÒÁÍÉÄÁ ìÁÐÌÁÓÁ (ÔÏÌØËÏ ÐÉÒÁÍÉÄÁ ÏÛÉÂÏË, ËÏÍÐÒÅÓÓÉÑ); ÇÁÕÓÓÏ×Á ÐÉÒÁÍÉÄÁ (ÔÏÌØËÏ ÐÒÉÂÌÉÖÅÎÉÑ, ÓÉÎÔÅÚ
ÔÅËÓÔÕÒ).\end{block}}
\only<2>{\img[0.7]{lappyramid}}
\only<3>{\img[0.5]{orapple}\centerline{
ïÂßÅÄÉÎÅÎÉÅ ÐÉÒÁÍÉÄ ìÁÐÌÁÓÁ.}}
\end{frame}
\begin{frame}{÷ÅÊ×ÌÅÔÙ}
\only<1>{\img[0.6]{2d-haar-basis}}
\only<2>{\img[0.8]{wvpyramid01}}
\only<3>{\img[0.8]{wvpyramid02}}
\only<4>{\img[0.8]{wvpyramid}}
\only<5>{\img[0.8]{wvpyramid03}}
\end{frame}
\begin{frame}{ðÁËÅÔÙ ×ÅÊ×ÌÅÔÏ×}
\only<1>{\img[0.95]{wpack01}}
\only<2>{\img[0.95]{wpack02}}
\only<3>{\img[0.7]{wpack03}}
\only<4>{\img[0.8]{wpack04}\tiny (a) normal brain; (b) 2-level DWT of normal brain; (c) 2-level
DWPT of normal brain; (d) AD brain; (e) 2-level DWT of AD brain; (f) 2-level DWPT of AD brain.}
\end{frame}
\section{íÏÒÆÏÌÏÇÉÞÅÓËÉÅ ÏÐÅÒÁÃÉÉ}
\begin{frame}{íÏÒÆÏÌÏÇÉÞÅÓËÉÅ ÏÐÅÒÁÃÉÉ}
\only<1>{
\begin{block}{ïÓÎÏ×ÎÙÅ ÐÏÎÑÔÉÑ}
\begin{itemize}
\item ðÕÓÔØ $A$~-- ÎÅËÏÔÏÒÁÑ ÏÂÌÁÓÔØ ÎÁ ÂÉÎÁÒÎÏÍ ÉÚÏÂÒÁÖÅÎÉÉ, $a=(a_1,a_2)\in A$~-- ÔÏÞËÁ, ÅÊ
ÐÒÉÎÁÄÌÅÖÁÝÁÑ; ÉÎÔÅÎÓÉ×ÎÏÓÔØ × ÔÏÞËÅ $a$ ÏÂÏÚÎÁÞÉÍ ËÁË $v(a)$.
\item {\bf ïÂßÅËÔ}: $A=\{a\;|\;v(a)==1, \forall a \text{ 4/8-connected}\}$.
\item {\bf æÏÎ}: $B=\{b\;|\;b==0 \cup b\text{ not connected}\}$.
\item {\bf óÄ×ÉÇ}: $A_x=\{c\;|\;c=a+x, \forall a\in A\}$.
\item {\bf ïÔÒÁÖÅÎÉÅ}: $\hat A=\{c \;|\; c=-a, \forall a\in A\}$.
\item {\bf äÏÐÏÌÎÅÎÉÅ}: $A^C=\{c \;|\; c\notin A\}$.
\item {\bf óÕÍÍÁ}: $A+B=\{c \;|\; c\in (A\cup B)\}=A\cup B$.
\item {\bf òÁÚÎÏÓÔØ}: $A-B=\{c \;|\; c\in A, c\notin B\}=A \cap B^C$.
\end{itemize}
\end{block}}
\only<2>{\img[0.8]{baseimop}}
\end{frame}
\begin{frame}{üÒÏÚÉÑ (ÕÓÅÞÅÎÉÅ)}
\begin{block}{}
$$A\ominus B=\{x \;|\; B_x\subseteq A\}\text{ ÉÌÉ }
A\ominus B=\{x \;|\; B_x\cap A^C=\varnothing\}\text{ ÉÌÉ }
A\ominus B=\bigcap_{b\in B}A_b
$$
\end{block}
\only<1>{\img[0.7]{erosion}}
\only<2>{\img[0.7]{erosion01}}
\only<3>{\img{erosion02}}
\end{frame}
\begin{frame}{äÉÌÁÔÁÃÉÑ (ÎÁÒÁÝÉ×ÁÎÉÅ)}
\begin{block}{}
$$A\oplus B = \{x \;|\; \hat B_z\cap A \ne\varnothing\} \text{ ÉÌÉ }
A\oplus B = \bigcup_{b\in B}A_b=\bigcup_{a\in A}B_a
$$
\end{block}
\only<1>{\img[0.7]{dilation}}
\only<2>{\img{dilation01}}
\end{frame}
\begin{frame}{ó×ÏÊÓÔ×Á}
\begin{block}{}
\centerline{ëÏÍÍÕÔÁÔÉ×ÎÏÓÔØ:}
$$A\oplus B = B\oplus A\qquad A\ominus B \ne B\ominus A$$
\centerline{áÓÓÏÃÉÁÔÉ×ÎÏÓÔØ:}
$$A\oplus (B\cup C)=(A\oplus B)\cup(A\oplus C)\qquad A\ominus (B\cup C)=(A\ominus B)\cap(A\ominus
C)$$
$$(A\ominus B)\ominus C = A\ominus(B\oplus C)$$
\centerline{ä×ÏÊÓÔ×ÅÎÎÏÓÔØ:}
$$(A\ominus B)^C=A^C\oplus\hat B\qquad
(A\oplus B)^C =A^C\ominus\hat B$$
\end{block}
\end{frame}
\begin{frame}{ïÔËÒÙÔÉÅ (ÒÁÚÍÙËÁÎÉÅ)}
\begin{block}{}$$A\circ B = (A\ominus B)\oplus B$$\end{block}
\img{opening01}
\end{frame}
\begin{frame}{úÁËÒÙÔÉÅ (ÚÁÍÙËÁÎÉÅ)}
\begin{block}{}
$$A\bullet B = (A\oplus B)\ominus B$$
\img{closing01}
\end{block}
\end{frame}
\begin{frame}{}
\img{morph01}
\end{frame}
\begin{frame}{<<Top hat>> É <<Bottom hat>>}
\begin{block}{}
$$A\hat\circ B = A\backslash (A\circ B), \qquad
A\hat\bullet B = (A\bullet B)\backslash A$$
\end{block}
\only<1>{\img[0.8]{tophat}}
\only<2>{\img[0.8]{bottomhat}}
\end{frame}
\begin{frame}{Hit-and-miss}
\only<1,2>{\begin{block}{}$$A \circledast B = (A\ominus B_1)\cap(A^C\ominus B_2),\quad\text{ÇÄÅ}$$
$$B_1=\{b \;|\; b\in B, b=1\},\; B_2=\{\tilde b \;|\; b\in B, b=0\}$$
\end{block}}
\only<1>{\img[0.8]{hitamiss01}}
\only<2>{\img[0.8]{hitamiss02}}
\only<3>{\img[0.8]{hit_and_miss_skel}$$S=A\backslash \bigcup_{i}(A\circledast B_i)$$}
\only<4>{\img{skel01}}
\only<5>{\img{skel02}}
\end{frame}
\section{óÅÇÍÅÎÔÁÃÉÑ ÉÚÏÂÒÁÖÅÎÉÊ}
\begin{frame}{óÅÇÍÅÎÔÁÃÉÑ ÉÚÏÂÒÁÖÅÎÉÊ}
\begin{block}{ïÓÎÏ×Ù}
\begin{itemize}
\item óÅÇÍÅÎÔÁÃÉÑ: $\cup_{i=1}^n R_i \,\cup\, \cup_{i=1}^n B_i= R$, ×ÓÅ $R_i$ Ó×ÑÚÎÙÅ, $B_i$~--
ÆÏÎ.
\item $R_i\cap R_j=\varnothing$ $\forall i\ne j$.
\item $Q(R_i) = 1$, $i=\overline{1,n}$, $Q$~-- ÌÏÇÉÞÅÓËÉÊ ÐÒÅÄÉËÁÔ.
\item $Q(R_i\cup R_j)=0$ $\forall i\ne j$.
\end{itemize}
\end{block}
\begin{block}{ðÒÏÉÚ×ÏÄÎÙÅ}
\begin{itemize}
\item $\partder{f}{x}\equiv f'_x=f(x+1)-f(x)$
\item $\dpartder{f}{x}\equiv f''_x = f'_x(x+1)-f'_x(x)=f(x+2)+f(x)-2f(x+1)$
\item $\nabla^2f(x,y) = f''_x(x,y)+f''_y(x,y) \Arr$
$\nabla^2 f(x,y)=f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1)-4f(x,y)$
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{ðÒÉÍÅÒÙ (M13)}
\only<1>{ïÒÉÇÉÎÁÌ:\\
\smimg[0.5]{origFull}\;\smimg[0.5]{origCrop}
}
\only<2>{âÉÎÁÒÉÚÁÃÉÑ ÐÏ ÐÏÓÔÏÑÎÎÏÍÕ ÐÏÒÏÇÕ:\\
\smimg[0.5]{binFull}\;\smimg[0.5]{binCrop}
}
\only<3>{þÅÔÙÒÅÈËÒÁÔÎÁÑ ÜÒÏÚÉÑ:\\
\smimg[0.5]{erosion4Full}\;\smimg[0.5]{erosion4Crop}
}
\only<4>{þÅÔÙÒÅÈËÒÁÔÎÏÅ ÒÁÚÍÙËÁÎÉÅ:\\
\smimg[0.5]{opening4Full}\;\smimg[0.5]{opening4Crop}
}
\only<5>{ïÒÉÇÉÎÁÌ Ó ÐÒÅÄÙÄÕÝÅÊ ÍÁÓËÏÊ:\\
\smimg[0.5]{objE4D4Full}\;\smimg[0.5]{objE4D4Crop}
}
\only<6>{ä×ÁÄÃÁÔÉÐÑÔÉËÒÁÔÎÁÑ ÜÒÏÚÉÑ:\\
\smimg[0.5]{erosion25Full}\;\smimg[0.5]{erosion25Crop}
}
\only<7>{íÁÓËÁ (25 ÜÒÏÚÉÊ É 200 ÄÉÌÁÔÁÃÉÊ):\\
\smimg[0.5]{opE25D200Full}\;\smimg[0.5]{opE25D200Crop}
}
\only<8>{ïÒÉÇÉÎÁÌ Ó ÐÒÅÄÙÄÕÝÅÊ ÍÁÓËÏÊ:\\
\smimg[0.5]{objE25D200Full}\;\smimg[0.5]{objE25D200Crop}
}
\only<9>{÷ÙÄÅÌÅÎÎÙÅ ÏÂßÅËÔÙ (ÒÁÚÍÙËÁÎÉÅ È4 É È10; 237 É 9 ÏÂßÅËÔÏ× × ÐÏÌÅ ÓÏÏÔ×ÅÔÓÔ×ÅÎÎÏ):\\
\smimg[0.5]{count4}\;\smimg[0.5]{count10}
}
\end{frame}
\begin{frame}{ïÂÎÁÒÕÖÅÎÉÅ ÌÉÎÉÊ, ÔÏÞÅË É ÐÅÒÅÐÁÄÏ×}
\only<1>{\centerline{ôÏÞËÉ --- ÌÁÐÌÁÓÉÁÎ, ÌÉÎÉÉ, ÐÅÒÅÐÁÄÙ --- ÇÒÁÄÉÅÎÔ}\img[0.8]{prewitt}
\centerline{Prewitt}}
\only<2>{\img[0.7]{compmask}}
\only<3>{\begin{block}{çÒÁÄÉÅÎÔ}
$$\nabla \vec f = (f'_x, f'_y) = \bigl(f(x+1,y)-f(x,y), f(x,y+1)-f(x,y)\bigr)$$
\end{block}\img[0.8]{imgrad}}
\end{frame}
\begin{frame}{÷ÙÄÅÌÅÎÉÅ ÇÒÁÎÉÃ}
\only<1>{\begin{block}{íÏÒÆÏÌÏÇÉÞÅÓËÉÊ ÇÒÁÄÉÅÎÔ}
$$\beta(A)=A\backslash(A\ominus B)\qquad
\beta'(A)=(A\oplus B)\backslash A\qquad
\beta''(A)=(A\oplus B)\backslash(A\ominus B)$$
\end{block}\img{morphgrad}}
\only<2>{\begin{block}{Canny}
\begin{enumerate}
\item òÁÚÍÙ×ÁÎÉÅ ÉÚÏÂÒÁÖÅÎÉÑ ÇÁÕÓÓÏ×ÙÍ ÆÉÌØÔÒÏÍ.
\item ÷ÙÞÉÓÌÅÎÉÅ ÞÁÓÔÎÙÈ ÐÒÏÉÚ×ÏÄÎÙÈ $I'_x$ É $I'_y$ (òÏÂÅÒÔÓ, óÏÂÅÌØ, ðÒÀÉÔÔ, LoG, DoG\dots) É
ËÏÍÐÏÎÅÎÔÏ× ÇÒÁÄÉÅÎÔÁ: $M=\sqrt{(I'_x)^2+(I'_y)^2}$, $\theta=\arctg\frc{I'_y}{I'_x}$.
\item ðÏÒÏÇÏ×ÏÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÅ $M$: $M_T = M$, ÅÓÌÉ $M>T$, ÉÎÁÞÅ $M_T=0$.
\item ïÂÎÕÌÅÎÉÅ ÎÅÍÁËÓÉÍÁÌØÎÙÈ $M_T$ ÐÏ ÎÁÐÒÁ×ÌÅÎÉÀ $\theta$ (ÐÏ Ä×ÕÍ ÓÏÓÅÄÑÍ).
\item ðÏÌÕÞÅÎÉÅ Ä×ÕÈ ÐÏÒÏÇÏ×ÙÈ ÚÎÁÞÅÎÉÊ: $M_{T_1}$ É $M_{T_2}$; $T_1<T_2$.
\item úÁÐÏÌÎÅÎÉÅ ÐÒÏÐÕÓËÏ× × $M_{T_2}$ ÐÏ ÓÏÓÅÄÎÉÍ ÚÎÁÞÅÎÉÑÍ × $M_{T_1}$.
\end{enumerate}
\end{block}}
\only<3>{\img[0.6]{canny01}\centerline{ïÂÒÁÚÅÃ}}
\only<4>{\img[0.6]{canny02}\centerline{Sobel}}
\only<5>{\img[0.6]{canny03}\centerline{Prewitt}}
\only<6>{\img[0.6]{canny04}\centerline{DoG}}
\only<7>{\img[0.6]{canny05}\centerline{Canny, $\sigma=5$, $T_1=0.8$, $T_2=0.95$}}
\end{frame}
\begin{frame}{ïÂÎÁÒÕÖÅÎÉÅ ÐÒÑÍÙÈ É ÏËÒÕÖÎÏÓÔÅÊ}
\only<1>{\begin{block}{ðÒÅÏÂÒÁÚÏ×ÁÎÉÅ èÁÆÁ}
$$r = x\cos\theta + y\sin\theta$$
\end{block}
\img[0.5]{R_theta_line}}
\only<2>{\img{htdiagram}}
\only<3>{\img[0.7]{htexample}}
\only<4>{\img{htEx}}
\only<5>{\includegraphics[width=0.48\textwidth]{h01}\hfil
\includegraphics[width=0.48\textwidth]{h02}}
\only<6>{\begin{block}{ðÒÅÏÂÒÁÚÏ×ÁÎÉÅ èÁÆÁ ÄÌÑ ÐÏÉÓËÁ ÏËÒÕÖÎÏÓÔÅÊ}
$$(x-x_c)^2+(y-y_c)^2=r^2$$
\end{block}\img{htcirc01}}
\only<7>{\img{htcirc02}\centerline{ôÒÅÈÍÅÒÎÙÊ ÍÁÓÓÉ× × ÓÌÕÞÁÅ ÎÅÉÚ×ÅÓÔÎÙÈ ÃÅÎÔÒÁ É ÒÁÄÉÕÓÁ.}}
\end{frame}
\begin{frame}{ðÒÉÍÅÒ: ÄÁÔÞÉË ×ÏÌÎÏ×ÏÇÏ ÆÒÏÎÔÁ}
\img{Hough_ex}
\end{frame}
\begin{frame}{óÅÇÍÅÎÔÁÃÉÑ ÐÏ ÍÏÒÆÏÌÏÇÉÞÅÓËÉÍ ×ÏÄÏÒÁÚÄÅÌÁÍ}
\only<1>{\begin{block}{}
âÉÎÁÒÎÙÅ ÉÚÏÂÒÁÖÅÎÉÑ: ÉÔÅÒÁÔÉ×ÎÙÅ ÄÉÌÁÔÁÃÉÉ Ó ÐÏÓÔÒÏÅÎÉÅÍ ÐÅÒÅÇÏÒÏÄÏË × ÍÅÓÔÁÈ
ÏÂÒÁÚÏ×Á×ÛÉÈÓÑ ÐÅÒÅÓÅÞÅÎÉÊ.
\end{block}}
\only<2,3>{\begin{block}{}âÉÎÁÒÎÙÅ ÉÚÏÂÒÁÖÅÎÉÑ: ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ ÒÁÓÓÔÏÑÎÉÊ\end{block}}
\only<1>{\img[0.5]{watershed}}
\only<2>{\img[0.4]{wat01}}
\only<3>{\img[0.75]{wat02}}
\only<4>{\begin{block}{}
÷ ÏÂÝÅÍ ÓÌÕÞÁÅ: ÒÁÚÌÉÞÎÙÅ ÁÌÇÏÒÉÔÍÙ ÚÁÐÏÌÎÅÎÉÑ.
\end{block}
\img[0.7]{watershed01}}
\end{frame}
\begin{frame}{óÐÁÓÉÂÏ ÚÁ ×ÎÉÍÁÎÉÅ!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\begin{block}{ìÉÔÅÒÁÔÕÒÁ}
\begin{itemize}
\item Gonzalez \& Woods. Digital Image Processing, 3rd edition. 2008.
\item Gonzalez \& Woods \& Eddins. Digital Image Processing Using MATLAB, 2nd edition. 2009.
\item \url{http://www.imageprocessingplace.com/root_files_V3/tutorials.htm}
\end{itemize}
\end{block}
\end{frame}
\end{document}

BIN
Komp_obr/07-iproc_3.pdf Normal file

Binary file not shown.

287
Komp_obr/07-iproc_3.tex Normal file
View File

@ -0,0 +1,287 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 7.3.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 7.3. Обработка астрономических изображений}
\date{5 апреля 2021 года}
\begin{document}
% Титул
\begin{frame}
\maketitle
\end{frame}
% Содержание
\begin{frame}
\tableofcontents
\end{frame}
\section{Сигнал--шум}
\begin{blueframe}{}
\only<1>{
\begin{block}{SNR}
$$\SNR = \frac{N}{\sqrt{N}}= \sqrt{N},\qquad N=N_{star}+N_{sky}\quad\Arr$$
$$\SNR\approx\frac{N_{star}}{\sqrt{N_{star}+2N_{sky}}},\qquad N=t_{exp}\cdot R\quad\Arr$$
$$\SNR\approx\frac{R_{star}\sqrt{t_{exp}}}{\sqrt{R_{star}+2R_{sky}}}\quad\Arr\quad
\SNR\propto\sqrt{t_{exp}}$$
$$R=R_0\cdot S_{mirror}\propto D_{mirror}^2\quad\Arr\quad \SNR\propto D_{mirror}$$
$$N_{meas}\text{ коротких экспозиций вместо
одной:}\quad\sigma_{mean}=\frac{\sigma_{individ}}{\sqrt{N_{meas}}}\propto\frac{\sqrt{S}}{N_{meas}}$$
$$\SNR_{mean}=\frac{S/N_{meas}}{\sigma_{mean}}\propto\sqrt{S}=\SNR_{long}\quad\text{только если }
\sigma\approx\sigma_{phot}!!!$$
\end{block}
}
\only<2>{
\begin{block}{Коррекция апертуры} % CCDPhotometryBook.pdf
Почему изображение яркой звезды шире: несмотря на совершенно одинаковую PSF у обеих звезд, при сечении
одинаковым порогом яркая звезда всегда <<больше>>. Увеличение апертуры \Arr увеличение шумов, необходимо
использовать как можно меньшую апертуру.
$$\Delta_N^{bright} = m(N\cdot \FWHM) - m(1\cdot\FWHM)\quad\Arr\quad
m^{faint} = m(1\cdot\FWHM) + \Delta_N^{bright},$$
$m(x)$~-- звездная величина на апертуре~$x$.
\end{block}\vspace*{-1em}
\img[0.6]{fwhm}
}
\end{blueframe}
\section{Деконволюция}
\begin{frame}{Деконволюция}
\only<1>{
\begin{block}{}
$$I(x,y) = P(x,y)*O(x,y)+N(x,y),\quad\text{$P$~-- PSF}\quad\text{или}$$
$$\FT{I}=\FT{O}\cdot\FT{P}+\FT{N}\quad\Arr\quad
\FT{O}=\frac{\FT{I} - \FT{N}}{\FT{P}}$$
$$\text{Наименьшие квадраты:}\quad
\FT{O}=\frac{\FT{P}^*\FT{I}}{|\FT{P}|^2}$$
$$\text{Регуляризация Тихонова, $\min(J_T)$ ($H$~-- HPF):}\quad
\quad J_T=||I-P*O|| - \lambda||H*O||,$$
$$\FT{O}=\frac{\FT{P}^*\FT{I}}{|\FT{P}|^2+\lambda|\FT{H}|^2}$$
\end{block}
}\only<2>{
\begin{block}{Регуляризация по Байесу}
$$p(O|I)=\frac{p(I|O)\cdot p(O)}{p(I)}$$
$$\text{Maximum likelihood:}\quad \mathrm{ML}(O)=\max_O p(I|O)$$
$$\text{Maximum-a-posteriori solution:}\quad
\mathrm{MAP}(O)=\max_O p(I|O)\cdot p(O)$$
\end{block}
\begin{block}{}
\begin{itemize}
\item Итерационная регуляризация
\item Вейвлет-регуляризация
\item \dots
\end{itemize}
\end{block}
}
\end{frame}
\begin{frame}{Функция рассеяния точки}
\only<1>{\img[0.6]{moffat}}
\only<2>{\begin{block}{}
\begin{itemize}
\item Гаусс: $f(x) = f_0\exp\Bigl(\dfrac{-(x-x_0)^2}{2\sigma^2}\Bigr)$, $\FWHM\approx2.355\sigma$
\item Моффат: $f(x) = f_0\Bigl(1+\dfrac{(x-x_0)^2}{\alpha^2}\Bigr)^{-\beta}$,
$\FWHM\approx2\alpha\sqrt{2^{1/\beta}-1}$
\item Фрид: $\FT{f} \propto \exp\Bigl[-(bu)^{5/3}\Bigr]$,
$\FWHM\approx 2.921 b$ (Моффат с $\beta=4.765$, типичные же $\beta=2.5\cdots4.5$).
\end{itemize}
\end{block}
}
\end{frame}
\section{Обнаружение}
\begin{frame}{Обнаружение}
\begin{block}{Простейший алгоритм}
\begin{enumerate}
\item Вычисление и вычитание фона
\item Свертка с маской и бинаризация
\item Обнаружение связных областей
\item Уточнение фона, goto 1
\item Классификация, фотометрия и т.п.
\end{enumerate}
\end{block}
\end{frame}
\begin{blueframe}{}
\img{objdet}
\end{blueframe}
\begin{blueframe}{Изофоты}
\only<1>{\begin{block}{Метод шагающих квадратов}
Бинаризуем изображение по заданному порогу. По соседям каждого пикселя вычисляем битовую маску
($0\div15$). От точки $1\div14$ строим изолинию, соответственно меняя значения в пикселях маски. Каждый узел
изолинии~--- линейная или другая интерполяция интенсивности в пикселях оригинала.
\end{block}
\img[0.5]{isophotes}
}
\only<2>{\img{Marching_squares_algorithm}}
\end{blueframe}
\begin{frame}{WCS-привязка}
\only<1>{
\img[0.6]{WCS_triangles}
\centerline{A.~P\'al, G.\'A.~Bakos. PASP {\bf 118}: 1474--1483, 2006. }}
\only<2>{
\img[0.65]{WCS_quad}
\centerline{\url{astrometry.net}}}
\only<3>{\begin{block}{}
\begin{itemize}
\item Положение нескольких звезд характеризуется параметром, инвариантным к зеркалированию, масштабированию,
вращению и переносу. Устойчивым к шуму.
\item Квадрату ABCD соответствует четырехмерный код в относительных координатах точек C и D.
\item Проблема вырождения: при смене порядка A, B или C, D код <<отражается>>.
\item На небе строится сетка с масштабируемым шагом, по каталожным данным в ее ячейках определяются квадраты
с ниспадающей яркостью звезд.
\item Полученный набор кодов позволяет идентифицировать участки неба вплоть до самых мелких масштабов (нужны
хотя бы четыре звезды в кадре).
\item Чем больше звезд на кадре, тем надежней будет идентификация.
\end{itemize}
\end{block}
}
\end{frame}
\begin{blueframe}{Триангуляция Делоне}
\img[0.6]{delaunay}
\end{blueframe}
\begin{blueframe}{Диаграммы Вороного}
\only<1>{\img[0.6]{voronoi}}
\only<2>{\img[0.6]{delvor}}
\end{blueframe}
\begin{frame}{Свойства триангуляции Делоне}
\begin{block}{}
\begin{itemize}
\item ТД взаимно однозначно соответствует диаграмме Вороного для того же множества точек.
Как следствие: если никакие четыре точки не лежат на одной окружности, ТД единственна.
\item ТД максимизирует минимальный угол среди всех углов всех построенных треугольников, тем
самым избегаются <<тонкие>> треугольники.
\item ТД максимизирует сумму радиусов вписанных окружностей.
\item ТД минимизирует максимальный радиус минимального объемлющего шара.
\item ТД на плоскости обладает минимальной суммой радиусов окружностей, описанных около
треугольников, среди всех возможных триангуляций.
\end{itemize}
\end{block}
\end{frame}
\begin{blueframe}{K-nearest}
\begin{columns}
\column{0.5\textwidth}
\begin{block}{}
Классификация объекта по $k$~ближайшим соседям. В случае первой выборки~--- треугольник, в случае второй~---
квадрат.
$k$ может быть дробным, если применять взвешенные расстояния.
\end{block}
\column{0.5\textwidth}
\img{knearest}
\end{columns}
\end{blueframe}
\section{Анализ разреженных данных}
\begin{frame}{Анализ разреженных данных}
\only<1>{
\begin{block}{Корреляция}
$$C(\tau)=\frac{[a(t)-\aver{a}][b(t+\tau)-\aver{b}]}{\sigma_a\sigma_b}$$
$$\text{Unbinned: } U_{ij}=\frac{(a_i-\aver{a})(b_j-\aver{b})}{
\sqrt{(\sigma_a^2-e^2_a)(\sigma_b^2-e^2_b)}},\qquad \Delta t_{ij}=t_j-t_i\qquad$$
$$C(\tau)=\frac1{N_\tau}U_{ij,\tau},\qquad
\tau-\Delta\tau/2\le\Delta t_{ij}\le\tau+\Delta\tau/2$$
Не нужна интерполяция!
\end{block}
}\only<2>{
\img[0.8]{scatter_corr}\centerline{Пунктир~--- корреляция через интерполяцию}}
\end{frame}
\begin{frame}{}
\only<1>{
\begin{block}{Периодограмма Ломба--Скаргла (Lomb--Scargle)}
$$P_{x}(\omega )={\frac {1}{2}}\left({\frac {\left[\sum _{j}X_{j}\cos \omega (t_{j}-\tau
)\right]^{2}}{\sum _{j}\cos ^{2}\omega (t_{j}-\tau )}}+{\frac {\left[\sum _{j}X_{j}\sin \omega
(t_{j}-\tau )\right]^{2}}{\sum _{j}\sin ^{2}\omega (t_{j}-\tau )}}\right)$$
$$\tg{2\omega \tau }={\frac {\sum _{j}\sin 2\omega t_{j}}{\sum _{j}\cos 2\omega t_{j}}}$$
\end{block}
\img{lombscargle}
}\only<2>{
\begin{block}{Преобразование Фурье}
$$ P_m=\Sum_{n=1}^N p_n\e^{-i\frac{2\pi}{N}mn}\quad\Arr\quad
P_m=\Sum_{n=1}^N p_n\e^{-i\frac{2\pi}{T}mt_n},\quad T=t_N-t_1$$
В octave: \tt{irsa\_dft(X,Y,freq)}:
$\displaystyle P(\nu)=\Sum_{n=1}^N p_n\e^{-i \nu_n\cdot t_n}$
\end{block}}
\only<3>{\img[0.8]{scat01}}
\only<4>{\img[0.8]{scatFFT}}
\only<3,4>{\centerline{$T=111.5\quad\Arr\quad \nu\approx0.00897$}}
\end{frame}
% \begin{frame}{}
% \only<1>{
% \begin{block}{}
% \end{block}
% }\only<2>{
% \img[0.8]{}
% }
% \end{frame}
\section{Робастные методы}
\begin{frame}{Робастные методы}
\begin{block}{}
Робастная надежность МНК~--- 0!
Простейшая робастная оценка~--- медиана (можно <<засорить>> до 50\% данных!).
Оценка <<плохости>>: $MAD=\med(x_i-\med(x))$.
Группировка данных и метод усеченных квадратов.
Метод наименьших медиан квадратов: $\min\bigl(\med(x^2)\bigr)$.
Оценка дисперсии: $\med(|x_i-\med(x)|)\approx0.67\sigma$.
M-, R-, S-, Q- оценки.
\end{block}
\end{frame}
\begin{frame}{Программное обеспечение}
\begin{block}{\url{http://heasarc.gsfc.nasa.gov/docs/heasarc/astro-update/}}
\begin{itemize}
\item ASTROPY: A single core package for Astronomy in Python
\item Aladin: An interactive software sky atlas
\item CFITSIO: FITS file access subroutine library
\item GSL: GNU Scientific Library
\item IDLAUL: IDL Astronomical Users Library
\item IRAF: Image Reduction and Analysis Facility
\item MIDAS: Munich Image Data Analysis System
\item PyRAF: Run IRAF tasks in Python
\item SAOImage ds9: FITS image viewer and analyzer
\item SEXTRACTOR: Builds catalogue of objects from an astronomical image
\item WCSLIB: World Coordinate System software library
\item \dots~\url{http://tdc-www.harvard.edu/astro.software.html}
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{Литература}
\begin{itemize}
\item W. Romanishin. An Introduction to Astronomical Photometry Using CCDs.
\item Jean-Luc Starck and Fionn Murtagh. Handbook of Astronomical Data Analysis.
\item E.D.~Feigelson, G.J.~Babu. Modern Statistical Methods for Astronomy With R Applications.
\item R.A.~Edelson, J.H.~Krolik. The discrete correlation function --- A new method for analyzing
unevenly sampled variability data. ApJ, {\bf 333},1988, 646--659.
\end{itemize}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

View File

@ -1,6 +1,7 @@
\usepackage[T2A]{fontenc} %ÐÏÄÄÅÒÖËÁ ËÉÒÉÌÌÉÃÙ
\usepackage[koi8-r]{inputenc}
\usepackage[english,russian]{babel}
\usepackage{array}
\usepackage{xspace}
%\usepackage[intlimits]{amsmath}
@ -18,12 +19,15 @@
{\end{center}\end{figure}}
\setbeamercolor{color1}{bg=blue!50!black,fg=white}
\setbeamercolor{light1}{bg=blue!20!white,fg=black}
\setbeamercolor{normal text}{bg=blue!20!black,fg=cyan!70!white}
\setbeamercolor{frametitle}{fg=red,bg=blue!40!black}
\setbeamercolor{title}{fg=red,bg=blue!40!black}
\setbeamercolor{block title}{fg=cyan,bg=blue!40!black}
\newenvironment{defin}{\begin{beamercolorbox}[shadow=true, rounded=true]{color1}}%
{\end{beamercolorbox}}
\newenvironment{light}{\begin{beamercolorbox}[shadow=false,rounded=false]{light1}}%
{\end{beamercolorbox}}
\newcommand{\img}[2][]{\begin{pict}\includegraphics[width=#1\columnwidth]{#2}\end{pict}}
\newcommand{\smimg}[2][]{\includegraphics[width=#1\columnwidth]{#2}}
\logo{\includegraphics[width=1cm,height=1cm,keepaspectratio]{saologo.jpg}}
@ -64,22 +68,65 @@
\newenvironment{blueframe}{\bgroup\setbeamercolor{normal text}%
{bg=cyan!70!white}\begin{frame}}{\end{frame}\egroup}
\newsavebox{\hght} % for ddotvec
\newlength{\lngth}
\def\arr{\ensuremath{\,\rightarrow\,}} % óÔÒÅÌËÁ ×ÐÒÁ×Ï
\def\Arr{\ensuremath{\,\Rightarrow\,}} % ÖÉÒÎÁÑ -//-
\def\aver#1{\bgroup\mathopen{<}#1\mathclose{>}\egroup}
\def\Ang{\mbox{\rm\AA}} % áÎÇÓÔÒÅÍ
\def\B#1{\ensuremath{\mathbf{#1}}}
\def\ceil#1{\bgroup\lceil #1\rceil\egroup}
\def\const{\ensuremath{\mathfrak{const}}}
\def\C{\ensuremath{\mathfrak{C}}}
\def\degr{\ensuremath{^\circ}} % çÒÁÄÕÓ
\def\ddotvec#1{ % ×ÔÏÒÁÑ ÐÒÏÉÚ×ÏÄÎÁÑ ×ÅËÔÏÒÁ ÐÏ ×ÒÅÍÅÎÉ
\savebox{\hght}{$\vec{#1}$}\ddot{\raisebox{0pt}[.8\ht\hght]{$\vec{#1}$}}}
\def\dotvec#1{ % ðÒÏÉÚ×ÏÄÎÁÑ ×ÅËÔÏÒÁ ÐÏ ×ÒÅÍÅÎÉ
\savebox{\hght}{$\vec{#1}$}\dot{\raisebox{0pt}[.8\ht\hght]{$\vec{#1}$}}}
\def\dpartder#1#2{\dfrac{\partial^2 #1}{\partial #2^2}} % ×ÔÏÒÁÑ ÞÁÓÔÎÁÑ ÐÒÏÉÚ×ÏÄÎÁÑ
\def\e{\mathop{\mathrm e}\nolimits}
\renewcommand{\epsilon}{\varepsilon} % ëÒÁÓÉ×ÙÊ ÜÐÓÉÌÏÎ
\def\frc#1#2{\raisebox{2pt}{$#1$}\big/\raisebox{-3pt}{$#2$}} % a/b, a ×ÙÛÅ, b ÎÉÖÅ
\def\floor#1{\bgroup\lfloor #1\rfloor\egroup}
\def\frc#1#2{\bgroup\raisebox{2pt}{$#1$}\big/\raisebox{-3pt}{$#2$}\egroup}
\def\FT#1{\mathcal{F}(#1)}
\def\F{\ensuremath{\mathop{\mathfrak F}}\nolimits} % ëÒÁÓÉ×ÁÑ æ
\def\FT#1{\mathcal{F}\left(#1\right)}
\def\FWHM{\mathrm{FWHM}}
\renewcommand{\ge}{\geqslant}
\def\grad{\mathop{\mathrm{grad}}\nolimits} % çÒÁÄÉÅÎÔ
\def\ind#1{_{\text{\scriptsize #1}}} % îÉÖÎÉÊ ÉÎÄÅËÓ ÒÕÓÓ. ÂÕË×ÁÍÉ
\def\indfrac#1#2{\raisebox{2pt}{$\frac{\mbox{\small $#1$}}{\mbox{\small $#2$}}$}}
\def\I{\ensuremath{\mathfrak{I}}} % éÎÔÅÇÒÁÌ
\def\IFT#1{\mathcal{F}^{-1}\left(#1\right)} % ïÂÒÁÔÎÏÅ æð
\def\IInt{\mathop{{\int\!\!\!\int}}\limits} % ä×ÏÊÎÏÊ ÂÏÌØÛÏÊ ÉÎÔÅÇÒÁÌ
\def\ILT#1{\mathop{\mathfrak{L}}\nolimits^{-1}\left(#1\right)} % ïÂÒÁÔÎÏÅ ÐÒÅÏÂÒ. ìÁÐÌÁÓÁ
\def\Int{\int\limits}
\def\Infint{\int\limits_{-\infty}^\infty}
\def\IZT#1{\mathop{\mathcal{Z}}\nolimits^{-1}\left(#1\right)} % ïÂÒÁÔÎÏÅ Z-ÐÒÅÏÂÒÁÚÏ×ÁÎÉÅ
\renewcommand{\kappa}{\varkappa} % ëÒÁÓÉ×ÁÑ ËÁÐÐÁ
\renewcommand{\le}{\leqslant} % íÅÎØÛÅ ÉÌÉ ÒÁ×ÎÏ
\def\ltextarrow#1{\ensuremath{\stackrel{#1}\leftarrow}} % óÔÒÅÌËÁ ×ÌÅ×Ï Ó ÐÏÄÐÉÓØÀ Ó×ÅÒÈÕ
\def\lvec{\overrightarrow} % äÌÉÎÎÙÊ ×ÅËÔÏÒ
\def\LT#1{\mathop{\mathfrak{L}}\nolimits\left(#1\right)} % ðÒÅÏÂÒÁÚÏ×ÁÎÉÅ ìÁÐÌÁÓÁ
\def\mean#1{\overline{#1}}
\def\med{\mathop{\mathrm{med}}\nolimits}
\def\moda{\mathop{\mathrm{Mo}}\nolimits}
\def\Oint{\oint\limits} % âÏÌØÛÏÊ ÉÎÔÅÇÒÁÌ
\def\partder#1#2{\dfrac{\partial #1}{\partial #2}}
\renewcommand{\phi}{\varphi} % ëÒÁÓÉ×ÁÑ ÆÉ
\def\rev#1{\frac{1}{#1}} % ïÂÒÁÔÎÁÑ ×ÅÌÉÞÉÎÁ
\def\rot{\mathop{\mathrm{rot}}\nolimits} % òÏÔÏÒ
\def\rtextarrow#1{\ensuremath{\stackrel{#1}\rightarrow}} % óÔÒÅÌËÁ ×ÐÒÁ×Ï Ó ÐÏÄÐÉÓØÀ
\def\R{\ensuremath{\mathbb{R}}} % ÒÁÃÉÏÎÁÌØÎÙÅ ÞÉÓÌÁ
\def\so{\ensuremath{\Longrightarrow}\xspace} % ÓÌÅÄÏ×ÁÔÅÌØÎÏ
\def\sinc{\mathop{\mathrm{sinc}}\nolimits} % éÎÔÅÇÒÁÌØÎÙÊ ÓÉÎÕÓ
\def\SNR{\mathop{\mathrm{SNR}}\nolimits}
\def\Sum{\sum\limits}
\def\Tr{\mathop{\mathrm{Tr}}\nolimits} % óÌÅÄ ÍÁÔÒÉÃÙ
\def\veci{{\vec\imath}} % i-ÏÒÔ
\def\vecj{{\vec\jmath}} % j-ÏÒÔ
\def\veck{{\vec{k}}} % k-ÏÒÔ
\def\when#1{\ensuremath{\Bigr|_{#1}}} % ÷ÅÒÔ. ÌÉÎÉÑ Ó ÎÉÖÎÉÍ ÉÎÄÅËÓÏÍ
\def\WT#1{\ensuremath{\mathop{\mathrm{WT}\left(#1\strut\right)}}} % ×ÅÊ×ÌÅÔ-ÐÒÅÏÂÒÁÚÏ×ÁÎÉÅ
\def\ZT#1{\mathop{\mathcal{Z}}\nolimits\left(#1\right)} % Z-ÐÒÅÏÂÒÁÚÏ×ÁÎÉÅ

Binary file not shown.

After

Width:  |  Height:  |  Size: 48 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 28 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 37 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 147 KiB

Binary file not shown.

BIN
Komp_obr/pic/CMYK.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

Binary file not shown.

BIN
Komp_obr/pic/FM-AM.pdf Normal file

Binary file not shown.

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 35 KiB

BIN
Komp_obr/pic/Hough_ex.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 1.2 MiB

BIN
Komp_obr/pic/M13_histeq.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 896 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 734 KiB

BIN
Komp_obr/pic/M29_histeq.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 2.6 MiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 482 KiB

Binary file not shown.

Binary file not shown.

BIN
Komp_obr/pic/RGB.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 30 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 11 KiB

Binary file not shown.

Binary file not shown.

BIN
Komp_obr/pic/Vd-Blur1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

BIN
Komp_obr/pic/Vd-Blur2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

BIN
Komp_obr/pic/Vd-Edge1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 18 KiB

BIN
Komp_obr/pic/Vd-Edge2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 17 KiB

BIN
Komp_obr/pic/Vd-Edge3.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

BIN
Komp_obr/pic/Vd-Fpwr.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 34 KiB

BIN
Komp_obr/pic/Vd-LOG.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 1.1 KiB

BIN
Komp_obr/pic/Vd-Orig.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

BIN
Komp_obr/pic/Vd-Sharp.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 28 KiB

BIN
Komp_obr/pic/Vd-phase.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 46 KiB

BIN
Komp_obr/pic/WCS_quad.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 51 KiB

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 66 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 30 KiB

BIN
Komp_obr/pic/baseimop.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 32 KiB

BIN
Komp_obr/pic/bezier.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 3.5 KiB

BIN
Komp_obr/pic/binCrop.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 232 KiB

BIN
Komp_obr/pic/binFull.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 1.4 MiB

BIN
Komp_obr/pic/bisect.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 11 KiB

BIN
Komp_obr/pic/bitplanes.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 169 KiB

BIN
Komp_obr/pic/bottomhat.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 27 KiB

BIN
Komp_obr/pic/canny01.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 26 KiB

BIN
Komp_obr/pic/canny02.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 38 KiB

BIN
Komp_obr/pic/canny03.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 35 KiB

BIN
Komp_obr/pic/canny04.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 39 KiB

BIN
Komp_obr/pic/canny05.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 2.6 KiB

BIN
Komp_obr/pic/chords1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 69 KiB

BIN
Komp_obr/pic/chords2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 47 KiB

BIN
Komp_obr/pic/closing01.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 68 KiB

Binary file not shown.

BIN
Komp_obr/pic/compmask.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 19 KiB

BIN
Komp_obr/pic/connregs.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 9.8 KiB

BIN
Komp_obr/pic/count10.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 13 KiB

BIN
Komp_obr/pic/count4.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

BIN
Komp_obr/pic/curvelet.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 407 KiB

BIN
Komp_obr/pic/delaunay.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/delvor.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/dilation.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 797 B

BIN
Komp_obr/pic/dilation01.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 27 KiB

BIN
Komp_obr/pic/edge_DoG.gif Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 5.8 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 3.5 KiB

BIN
Komp_obr/pic/edge_Sobel.gif Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 4.2 KiB

BIN
Komp_obr/pic/edge_canny.gif Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 647 B

BIN
Komp_obr/pic/erosion.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 883 B

BIN
Komp_obr/pic/erosion01.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 4.6 KiB

BIN
Komp_obr/pic/erosion02.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 5.3 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 18 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 465 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 46 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 514 KiB

BIN
Komp_obr/pic/fft.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 91 KiB

BIN
Komp_obr/pic/fourwav.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 64 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 49 KiB

BIN
Komp_obr/pic/fwhm.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/gaussCrop.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 57 KiB

BIN
Komp_obr/pic/gaussFull.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 134 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 264 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 349 KiB

BIN
Komp_obr/pic/graph1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 108 KiB

BIN
Komp_obr/pic/graph2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 107 KiB

Some files were not shown because too many files have changed in this diff Show More