modify computing

This commit is contained in:
Edward Emelianov 2021-04-06 11:35:34 +03:00
parent e0005fb547
commit 028d6a1bf6
188 changed files with 2099 additions and 731 deletions

Binary file not shown.

View File

@ -0,0 +1,566 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекции 1, 2.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 1. Общие сведения об измерениях. Виды сигналов и методы их анализа.\\
Лекция 2. Статистика и вероятность. Случайные величины и распределения}
\date{18~марта 2021~года}
\begin{document}
% Титул
\begin{frame}{}
\maketitle
\end{frame}
% Содержание
\begin{frame}{}
\tableofcontents[hideallsubsections]
\end{frame}
\section{Физические измерения}
\begin{frame}{Физические измерения}
\begin{defin}
Экспериментальное определение значения измеряемой величины с применением средств
измерений называется {\bf измерением}.
\end{defin}
\begin{block}{}
Важнейшей особенностью измерений является {\it принципиальная невозможность
получения результатов измерения, в точности равных истинному значению
измеряемой величины} (особенно эта особенность проявляется в микромире, где
господствует принцип неопределенности).
Эта особенность приводит к необходимости оценки степени близости результата
измерения к истинному значению измеряемой величины, т.е. вычислять
{\bf погрешность измерения}.
\end{block}
\end{frame}
\begin{frame}{Виды измерений}
\begin{block}{}
Статическими называют такие измерения, при
которых зависимость погрешности измерения от скорости измерения пренебрежимо
мала и ее можно не учитывать. Динамические
измерения противоположны статическим.
Результаты прямых измерений находят непосредственно из опыта, косвенных же измерений~---
путем расчета по известной зависимости измеряемой величины от величин, находимых
прямыми измерениями (например, измерение мощности).
Совместное измерение --- одновременное измерение нескольких неодноименных величин для
нахождения зависимости между ними (например, ВАХ диода).
Совокупное измерение~--- это проведение ряда измерений нескольких величин одинаковой
размерности в различных сочетаниях с нахождением искомых величин из решения системы уравнений
(например, измерение $R$ включенных треугольником резисторов).
\end{block}
\end{frame}
\begin{frame}{Представление результатов}
\only<1>{
\begin{block}{Табличное}
Позволяет избежать многократной записи единиц измерения, обозначений измеряемой величины,
используемых множителей. В таблицы, помимо основных измерений, могут быть включены и результаты
промежуточных измерений.
Для удобства импортирования данных и одновременно наглядности чтения удобно хранить в формате TSV
(tab separated values) или CSV (comma separated values).
SED позволит легко преобразовать TSV/CSV в таблицу \LaTeX.
\end{block}
\begin{block}{Графическое}
На основе графика легко можно сделать вывод о соответствии
теоретических представлений данным эксперимента, определить вид функциональной
зависимости измеряемой величины.
\end{block}
}
\only<2>{\img{table1}}
\only<3>{\vspace*{-1em}\img[0.9]{table2}}
\only<4>{\vspace*{-2em}\img{graph1}}
\only<5>{\vspace*{-2em}\img{graph2}}
\end{frame}
\section{Сигналы и их виды}
\begin{frame}{Сигналы и их виды}
\only<1>{
\begin{defin}
Если некоторая изменяющаяся величина измеряется непрерывно (или квазинепрерывно), мы
имеем дело с потоком информации, или сообщением.
В теории информации физический процесс, значения параметров которого отображают
передаваемое сообщение, называется сигналом.
\end{defin}
\begin{block}{}
Модуляция--демодуляция. Зашумление.
{\bf Помехи}: аддитивные, мультипликативные, фазовые.
\end{block}
}
\only<2>{\img[0.7]{Ampl_modulation}}
\only<3>{\img{Freq_modulation}}
\only<4>{\begin{light}\img[0.7]{Phase_modulation}\end{light}}
\only<5>{Add/mult\img[0.7]{add_mult_noise}}
\end{frame}
\begin{frame}{Виды сигналов}
\only<1>{
\begin{block}{Аналоговый}
Описывается непрерывной (или кусочно--непрерывной) функцией $x(t)$: $t\in[t_0,t_1]$,
$x\in[x_0,x_1]$. Аудиосигналы, телевизионные сигналы и т.п.
\end{block}
\img[0.4]{oscill}
}
\only<2>{
\begin{block}{Дискретный}
Описывается решетчатой функцией (последовательностью, временн\'ым рядом) $x(nT)$: $x\in[x_0,x_1]$,
$n=\overline{1,N}$, $T$~-- интервал дискретизации. Величину $f=1/T$
называют частотой дискретизации. Если интервал дискретизации является
постоянной величиной, дискретный сигнал можно задать в виде ряда $\{x_1,\ldots, x_N\}$.
\end{block}
\img[0.6]{disc_sig}
}
\only<3>{
\begin{block}{Цифровой}
Описывается квантованной решетчатой функцией и отличается от обычного дискретного сигнала тем, что
каждый уровень квантования кодируется двоичным кодом. Таким образом, если
величина $x\in[x_0,x_1]$ квантуется $N$~разрядным кодом, для
обратного представления из кода $K_x$ в значение $x$ применяется
преобразование: $x=x_0+K_x\cdot (x_1-x_0)/2^{N}$. К цифровым сигналам относятся
сигналы, используемые в системах связи с импульсно--кодовой модуляцией.
\end{block}
\img[0.4]{digital_signal}
}
\only<4>{\img{Analog_signal}}
\end{frame}
\begin{frame}{Дискретизация}
\begin{block}{}
Дискретизация строит по заданному аналоговому сигналу $x(t)$ дискретный сигнал $x_n(nT)$, причем
$x_n(nT)=x(nT)$. Операция восстановления состоит в том, что по заданному дискретному сигналу
строится аналоговый сигнал.
\end{block}
\begin{block}{Теорема Котельникова--Найквиста}
\begin{itemize}
\item любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным
отсчётам, взятым с частотой $f > 2f_c$, где $f_c$~-- максимальная частота, которой ограничен спектр
реального сигнала;
\item если максимальная частота в сигнале равна или превышает половину частоты дискретизации
(наложение спектра), то способа восстановить сигнал из дискретного в аналоговый без искажений не
существует.
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{Теорема Котельникова--Найквиста}
\begin{block}{}
$$\text{Фурье: }X_{s}(f)\ {\stackrel {\mathrm {def} }{=}}\sum _{n=-\infty }^{\infty }T\cdot x(nT)\
e^{-i2\pi
nTf}$$
$$\text{В окне: }X(f) = \sum _{n=-\infty }^{\infty }x(nT)\cdot \underbrace {T\cdot \mathrm {rect}
(Tf)\cdot
e^{-i2\pi nTf}} _{{\mathcal {F}}\left\{\mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]\right\}}$$
\end{block}
\begin{columns}\column{0.5\textwidth}
\img{ReconstructFilter}
\column{0.5\textwidth}
\begin{block}{Формула Уиттекера--Шеннона}
Восстановить непрерывную функцию из дискретной:
$$x(t)=\sum _{n=-\infty }^{\infty }x(nT)\cdot \mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]$$
\end{block}
\end{columns}
\end{frame}
\begin{frame}{Квантование}
\begin{defin}
Для преобразования дискретного сигнала в цифровой вид применяется операция квантования или
аналогово--цифрового преобразования~(АЦП), которая по заданному дискретному сигналу $x_n(nT)$
строит цифровой кодированный сигнал $x_d(nT)$, причем $x_n(nT)\approx x_d(nT)$. Обратная квантованию
операция называется операцией цифро--аналогового преобразования~(ЦАП).
\end{defin}
\only<1>{\img[0.7]{ADC}}
\only<2>{\img{DAC}}
\end{frame}
\section{Литература}
\begin{frame}{Основная литература}
\begin{itemize}
\item Интернет--энциклопедия: http:/\!/wikipedia.org (Википедия).
\item Гонсалес~Р., Вудс~Р. Цифровая обработка изображений.~--- М.: Техносфера, 2012.~---
1104~с.
\item Витязев~В.В. Вейвлет-анализ временных рядов: Учеб. пособие.~---
СПб.: Изд-во С.-Петерб. ун-та., 2001.~--- 58~с.
\item Гонсалес~Р., Вудс~Р., Эддинс~С. Цифровая обработка изображений
в среде MATLAB.~--- М.: Техносфера, 2006~--- 616~с.
\item Гмурман~В.\,Е. Теория вероятностей и математическая статистика.
Учеб. пособие для вузов.~--- Изд. 7-е, стер.~--- М.: Высш. шк., 2001.~--- 479~с.
\item Говорухин~В., Цибулин~В. Компьютер в математическом исследовании.
Учебный курс.~--- СПб.: Питер, 2001.~--- 624~с.
\item Сергиенко~А.\,Б. Цифровая обработка сигналов.~--- СПб.: Питер, 2005.~---
604~с.
\item Чен~К., Джиблин~П., Ирвинг~А. MATLAB в математических исследованиях:
Пер. с англ.~--- М.: Мир, 2001.~--- 346~с.
\end{itemize}
\end{frame}
\begin{frame}{Дополнительная литература}
\begin{itemize}
\item Бахвалов~Н.\,С., Жидков~Н.\,П., Кобельков~Г.\,М. Численные методы.~---
М.: Высш. шк., 1987.~--- 630~с.
\item Кнут~Д.\,Э. Все про \TeX./ Пер. с англ. М.\,В.~Лисиной.~---
Протвино: АО~RD\TeX, 1993.~--- 592~с.: ил.
\item Львовский~С.\,М. Набор и верстка в системе \LaTeX.~--- 3-е изд.,
исрп. и доп.~--- М.: МЦНМО, 2003.~--- 448~с.
\item Физическая энциклопедия/ Гл. ред. А.М.~Прохоров.~--- М.: Сов.
энциклопедия. Тт. I~--~V. 1988.
\item Цифровая обработка сигналов: Справочник/ Л.М.~Гольденберг,
Б.Д.~Матюшкин, М.Н.~Поляк.~--- М.: Радио и связь, 1985.~--- 312~с., ил.
\item \url{http://www.imageprocessingplace.com/}
\item Pan~G.\,W. Wavelets in electromagnetic and device modeling.~---
John~Wiley \& Sons, Inc., Hobocen, New Jersey, 2003.~--- 531~p.
\end{itemize}
\end{frame}
\begin{frame}{Лекция 2.}
\end{frame}
\section{Случайные величины, вероятность}
\begin{frame}{Случайные величины, вероятность}
\begin{defin}
Случайной величиной называется величина~$X$, если все ее возможные значения образуют
конечную
или бесконечную последовательность чисел~$x_1,\ldots$, $x_N$, и если принятие ею каждого из
этих
значений есть случайное событие.
\end{defin}
\begin{defin}\begin{columns}\column{0.75\textwidth}
Вероятностью наступления события называют предел относительной частоты
наступления данного события~$n_k/N$:\column{0.25\textwidth}
$$P(x_k)=\lim_{N\to\infty}\frac{n_k}{N}.$$
\end{columns}
\end{defin}
\begin{block}{}
Совместные и несовместные события, полная группа, свойства вероятности.
Для непрерывных случайных величин вводят понятие плотности вероятности:
$$\rho(x)=\lim_{\Delta x\to 0}\frac{P(x<X<x+\Delta x)}{\Delta
x}=\frac{dP}{dx}.$$
$$P(x_1<X<x_2)=\Int_{x_1}^{x_2}\rho(x)\,dx.$$
\end{block}
\end{frame}
\begin{frame}{Свойства вероятности}
\begin{block}{}\def\arraystretch{1.5}
\centering\begin{tabular}{>{\centering}p{0.45\textwidth}l}
$P(\emptyset) = 0$ &\\
$\forall A\subset B \quad P(A) \le P(B)$ & $B$ включает в себя $A$\\
$0\le P(A) \le 1$ & \\
$\forall A\subset B\quad P(B \setminus A) = P(B) - P(A)$ & $B$ наступит без $A$\\
$P(\overline{A}) =1 - P(A)$ &\\
$P(A+B) = P(A) + P(B) - P(AB)$ & вероятность одного из событий\\
$P(A\vert B) = \frc{P(AB)}{P(B)}$ & условная вероятность ($A$ при $B$) $\Longrightarrow$\\
$P(AB) = P(B)\cdot P(A\vert B)$ & или $P(AB) = P(A)\cdot P(B\vert A)$ $\Longrightarrow$\\
$P(A\vert B)=\dfrac{P(A)\cdot P(B\vert A)}{P(B)}$ & (теорема Байеса)\\[1em]
$P(AB) = P(A)\cdot P(B)$ & для независимых событий\\
\end{tabular}
\end{block}
\end{frame}
\section{Характеристики случайных величин}
\begin{frame}{Характеристики случайных величин}
\begin{block}{Среднее арифметическое и математическое ожидание}
$$\aver{X}=\frc1{N}\sum_{n=1}^N x_n,$$
$$M(X)\equiv\mean{X}=\lim_{N\to\infty}\frac1{N}\sum_{n=1}^N x_n\quad\text{и}\quad
M(X)=\Infint x\phi(x)\,dx.$$
\end{block}
\begin{block}{Свойства математического ожидания}
\begin{itemize}\setlength{\itemsep}{2pt}
\item $\mean\const=\const$;
\item $\mean{\sum\C_n\cdot X_n}=\sum\C_n\cdot \mean{X_n}$,
где $\C_n$~-- постоянная величина;
\item $\mean{\prod X_n}=\prod \mean{X_n}$ (для независимых случайных величин);
\item $\mean{f(x)}=\Infint f(x)\phi(x)\,dx$ (для непрерывных случайных величин).
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{Моменты}
Если $f(x)=(x-x_0)^n$, то $\mean{f(x)}$~--- момент порядка~$n$. Если $x_0=0$~---
начальный
момент, если $x_0=\mean{X}$--- центральный момент.
Центральный момент второго порядка называют дисперсией:
$D(X)=\mean{(x-\mean{x})^2}\equiv
\mean{x^2}-\mean{x}^2$, $\sigma=\sqrt{D}$.
\smallskip
Свойства дисперсии:
\begin{itemize}
\item $D(\C)=0$;
\item $D(\C X)=\C^2 D(X)$, где $\C$~-- постоянная величина;
\item $D(\sum X_n)=\sum D(X_n)$ (для независимых величин).
\end{itemize}
\end{block}
\begin{block}{$\mean{X}\Leftrightarrow\aver{X}$? Закон больших чисел}
Неравенство Чебыш\"ева: $P(|X-\mean{X}|\ge\epsilon)\le
\frc{D(X)}{\epsilon^2}\quad\Rightarrow$
$P(|X-\mean{X}|<\epsilon)=1-P(|X-\mean{X}|\ge\epsilon)\ge1-\frc{D(X)}{\epsilon^2}$.
$$\lim_{n\to\infty} P\Bigl(\Bigl|\frac{\sum
X_n}{n}-\frac{\sum\mean{X_n}}{n}\Bigr|<\epsilon\Bigr)=1,\;\text{ т.к. }\;
D(\frc{\sum X_n}{n})=\frc{D(X)}{n}
$$
Теорема Бернулли: $\lim\limits_{n\to\infty} P(m/n-p|<\epsilon)=1$ ($m$ событий в $n$
испытаний).
\end{block}
\end{frame}
\begin{frame}{Характеристические значения распределений}
\begin{block}{Медиана и мода}
{ Мода}~--- наиболее часто встречающееся значение (но вполне могут быть
мультимодальные
распределения). { Медиана} делит площадь распределения пополам.
\end{block}
\img[0.6]{mode_median}
\begin{block}{Поиск медианы}
Самый медленный~--- сортировкой ряда данных, $O(n\ln n)$. Quick Select, $O(n)$. Гистограмма (в т.ч.
дерево гистограмм), $O(n)$. Для фиксированных $n$~--- opt\_med (,,Numerical Recipes in C``), $O(n)$.
\end{block}
\end{frame}
\section{Законы распределения}
\begin{frame}{Законы распределения}
\begin{defin}
Закон распределения дискретной случайной величины~--- соответствие между
возможными значениями и их вероятностями.
\end{defin}
\begin{block}{Функция распределения}
$$F(x)\equiv P(X\le x)=\Int_{-\infty}^x\phi(x)\,dx, \qquad
\Infint\phi(x)\,dx=1.$$
$$P(a\le X\le b)=F(b)-F(a).$$
\end{block}
\end{frame}
\begin{frame}{Равномерное распределение}
\begin{columns}\column{0.45\textwidth}
\begin{block}{}
$$
\phi(x)=\begin{cases}\frac1{b-a}, & x\in [a,b] \\ 0, & x\not\in [a,b]
\end{cases}.
$$
$$F(x)= \begin{cases} 0, & x < a \\ \frac{x-a}{b-a}, & a \le x < b \\ 1, & x \ge
b \end{cases}.
$$
\end{block}\column{0.45\textwidth}
\begin{block}{}
$\mean{X}=\med(X)=(a+b)/2$, $\moda(X)=\forall x\in[a,b]$,
$\displaystyle\sigma^2_X = \frac{(b-a)^2}{12}$.
\end{block}
\end{columns}
\smimg[0.45]{Uniform_distribution_PDF}\hspace{3pt}
\smimg[0.45]{Uniform_distribution_CDF}
\end{frame}
\begin{lightframe}{Биномиальное распределение}
\vspace*{-0.8em}\begin{block}{}
Формула Бернулли:
$\displaystyle P_n(k)=C_n^k p^k q^{n-k},\quad C_n^k=\frac{n!}{k!(n-k)!},\quad
q=1-p.$
$$(p+q)^n=C_n^n p^n+\cdots+C_n^k p^k q^{n-k}+\cdots+C_n^0 q^k.$$
Описывает вероятность наступления события~$k$
раз в~$n$ независимых испытаниях
\end{block}\vspace*{-1em}
\begin{columns}
\column{0.45\textwidth}
\img{Binomial_Distribution}
\column{0.55\textwidth}
\begin{block}{}
$$
F(k;n,p)=P(X\leq k)=\sum_{i=0}^\floor{k} C_n^i p^i(1-p)^{n-i}.$$
$\mean{X}=np$, $\moda(X)=\floor{(n+1)p}$, $\floor{np}\le\med(X)\le\ceil{np}$,
$\sigma^2_X = npq$.
\end{block}
\end{columns}
\end{lightframe}
\begin{frame}{Распределение Пуассона}
\vspace*{-2em}\begin{block}{}
При $n\to\infty$ распределение Бернулли преобразуется в распределение Пуассона
($\lambda=np$):
$$P_n(k)=\frac{\lambda^k}{k!}\exp(-\lambda).$$
\end{block}
\begin{columns}\column{0.48\textwidth}
\begin{block}{}
$F(k, \lambda) = \displaystyle\frac{\Gamma(k+1,\lambda)}{k!}$,
$\mean{X} = \lambda$, $\moda(X) = \floor{\lambda}$,
$\med{X}\approx\floor{\lambda+1/3-0.02/\lambda}$,
$\sigma^2_X = \lambda$.
С ростом $\lambda$ распределение Пуассона стремится к распределению Гаусса.
\end{block}
\column{0.48\textwidth}
\img{poissonpdf}
\end{columns}
\end{frame}
\begin{frame}{Распределение Гаусса}
\vspace*{-2em}\begin{block}{}
$
\phi (x) = \dfrac 1 {\sigma \sqrt {2 \pi}} \exp \left( -\frac {(x -\mean{x})^2}{2
\sigma^2} \right)
$,
$F(x) = \displaystyle\frac 1{\sigma \sqrt {2 \pi}} \Int_{-\infty}^x \exp \left( -\frac{(t
-\mean{x})^2}{2 \sigma^2} \right)\, dt$,
$\moda(X) = \med{X} = \mean{X}$.
$P(\alpha < X < \beta) = \Phi\left(\frac{\beta - \mean{x}}{\sigma}\right) -
\Phi\left(\frac{\alpha - \mean{x}}{\sigma}\right) $,\\
функция Лапласа $\Phi(x)=\frac{1}{\sqrt{2\pi}}\int_0^x \exp\left(-\frc{t^2}{2}\right)$.
\end{block}
\img[0.6]{normpdf}
\end{frame}
\begin{frame}{Показательное (экспоненциальное) распределение}
\vspace*{-1em}\begin{block}{}
Время между двумя последовательными свершениями события
$$f(x)=\begin{cases}
0,& x<0,\\
\lambda\exp(-\lambda x),& x\ge0;
\end{cases}\qquad
F(x)=\begin{cases}
0,& x<0,\\
1-\exp(-\lambda x),& x\ge0,
\end{cases}
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$\mean{X} = \lambda^{-1}$,
$\moda(X) = 0$, $\med{X} = \ln(2)/\lambda$,
$\sigma^2_X = \lambda^{-2}$.
\end{block}
\vspace*{-1em}\img[0.5]{exppdf}
\end{frame}
\section{Корреляция и ковариация}
\begin{frame}{Корреляция и ковариация}
\begin{defin}
{}Ковариация является мерой линейной зависимости случайных величин и определяется
формулой:
$\mathrm{cov}(X,Y)=\mean{(X-\mean{X})(Y-\mean{Y})}$ $\Longrightarrow$ $\mathrm{cov}(X,X) =
\sigma^2_X$.
Ковариация независимых случайных величин равна нулю, обратное неверно.
\end{defin}
\begin{block}{}
Если ковариация положительна, то с ростом значений одной случайной величины, значения
второй имеют
тенденцию возрастать, а если знак отрицательный~--- убывать.
Масштаб зависимости величин пропорционален их дисперсиям $\Longrightarrow$ масштаб можно
отнормировать ({}коэффициент корреляции Пирсона):
$$\rho_{X,Y}=\frac{\mathrm{cov}(X,Y)}{\sigma X\sigma Y}, \qquad \mathbf{r}\in[-1,1].$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{}
Коэффициент корреляции равен~$\pm1$ тогда и только тогда, когда~$X$ и~$Y$ линейно зависимы.
Если
они независимы, $\rho_{X,Y}=0$ ({}обратное неверно!). Промежуточные значения
коэффициента
корреляции не позволяют однозначно судить о зависимости случайных величин, но позволяет
предполагать
степень их зависимости.
\end{block}
\begin{block}{Корреляционная функция}
Одна из разновидностей~--- автокорреляционная функция:
$$
\Psi(\tau) = \Int f(t) f(t-\tau)\, dt\equiv
\Int f(t+\tau) f(t)\,dt.
$$
Для дискретных случайных величин автокорреляционная функция имеет вид
$$
\Psi(\tau) = \aver{X(t)X(t-\tau)}\equiv\aver{X(t+\tau)X(t)}.
$$
\end{block}
\end{frame}
\begin{blueframe}{}
\begin{block}{Взаимно корреляционная функция}
Другая разновидность~--- кросс--корреляционная функция:
$$(f\star g)(t)\stackrel{\mathrm{def}}{=}\Infint f^{*}(\tau)g(t+\tau)\,d\tau$$
свертка:
$$ (f*g)(x)\stackrel{\mathrm{def}}{=}\Infint f(y)\,g(x-y)\,dy = \Infint f(x-y)\,g(y)\, dy.$$
\end{block}
\img[0.5]{convcorr}
\end{blueframe}
\begin{frame}{}
\begin{block}{}
Если $X$ и $Y$~--- две независимых случайных величины с функциями распределения вероятностей
$f$ и $g$, то $f\star g$ соответствует распределению вероятностей выражения $-X+Y$, а
$f*g$~---
распределению вероятностей суммы $X + Y$.
ВКФ часто используется для поиска в длинной последовательности более короткой заранее
известной,
определения сдвига (см.~рис).
Связь со сверткой: $f(t)\star g(t) = f^*(-t) * g(t)$, если $f$ и $g$ четны, то
$f(t)\star g(t) = f(t) * g(t)$. Через преобразование Фурье:
$\FT{f \star g} = \FT{f}^*\cdot\FT{g}$.
\end{block}\img[0.6]{autocorr}
\end{frame}
\section{Шум}
\begin{frame}{Шум}
\begin{defin}
Шум~--- беспорядочные колебания различной физической природы, отличающиеся сложной
временной и
спектральной структурой.
\end{defin}
\begin{block}{}
Белый шум, $\xi(t)$, имеет время корреляции много меньше всех характерных времен
физической
системы; $\mean{\xi(t)}=0$,
$\Psi(t,\tau)=\aver{\xi(t+\tau)\xi(t)}=\sigma^2(t)\delta(\tau)$.
Разновидность~--- AWGN.
Дробовой шум имеет пуассонову статистику~\so $\sigma_X\propto\sqrt{x}$ и
$\SNR(N)\propto\sqrt{N}$. Суточные и вековые корреляции.
Шум вида <<соль--перец>> обычно характерен для изображений, считываемых с ПЗС.
\end{block}
\end{frame}
\begin{frame}{SNR}
\begin{defin}
SNR~--- безразмерная величина, равная отношению мощности полезного сигнала к мощности
шума.
\end{defin}
\begin{block}{}
$$\SNR = {P_\mathrm{signal} \over P_\mathrm{noise}} = \left ({A_\mathrm{signal} \over
A_\mathrm{noise} } \right )^2, \quad
\SNR(dB) = 10 \lg \left ( {P_\mathrm{signal} \over P_\mathrm{noise}}
\right )
= 20 \lg \left ( {A_\mathrm{signal} \over A_\mathrm{noise}} \right ).
$$
\end{block}
\img[0.6]{SNR}
\centerline{\tiny (10, 0, -10~дБ.)}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

Binary file not shown.

View File

@ -1,322 +0,0 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 1.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 1. Общие сведения об измерениях. Виды сигналов и методы их анализа}
\date{30 июня 2016 года}
\begin{document}
% Титул
\begin{frame}{}
\maketitle
\end{frame}
% Содержание
\begin{frame}{}
\tableofcontents[hideallsubsections]
\end{frame}
\section{Физические измерения}
\begin{frame}{Физические измерения}
\begin{defin}
Экспериментальное определение значения измеряемой величины с применением средств
измерений называется {\bf измерением}.
\end{defin}
\begin{block}{}
Важнейшей особенностью измерений является {\it принципиальная невозможность
получения результатов измерения, в точности равных истинному значению
измеряемой величины} (особенно эта особенность проявляется в микромире, где
господствует принцип неопределенности).
Эта особенность приводит к необходимости оценки степени близости результата
измерения к истинному значению измеряемой величины, т.е. вычислять
{\bf погрешность измерения}.
\end{block}
\end{frame}
\begin{frame}{Виды измерений}
\begin{block}{}
Статическими называют такие измерения, при
которых зависимость погрешности измерения от скорости измерения пренебрежимо
мала и ее можно не учитывать. Динамические
измерения противоположны статическим.
Результаты прямых измерений находят непосредственно из опыта, косвенных же измерений~---
путем расчета по известной зависимости измеряемой величины от величин, находимых
прямыми измерениями (например, измерение мощности).
Совместное измерение --- одновременное измерение нескольких неодноименных величин для
нахождения зависимости между ними (например, ВАХ диода).
Совокупное измерение~--- это проведение ряда измерений нескольких величин одинаковой
размерности в различных сочетаниях с нахождением искомых величин из решения системы уравнений
(например, измерение $R$ включенных треугольником резисторов).
\end{block}
\end{frame}
\begin{frame}{Представление результатов}
\begin{block}{Табличное}
Позволяет избежать многократной записи единиц измерения, обозначений измеряемой величины,
используемых множителей. В таблицы, помимо основных измерений, могут быть включены и результаты
промежуточных измерений.
Для удобства импортирования данных и одновременно наглядности чтения удобно хранить в формате TSV.
SED позволит легко преобразовать TSV в таблицу латеха.
\end{block}
\begin{block}{Графическое}
На основе графика легко можно сделать вывод о соответствии
теоретических представлений данным эксперимента, определить вид функциональной
зависимости измеряемой величины.
\end{block}
\end{frame}
\section{Сигналы и их виды}
\begin{frame}{Сигналы и их виды}
\begin{defin}
Если некоторая изменяющаяся величина измеряется непрерывно (или квазинепрерывно), мы
имеем дело с потоком информации, или сообщением.
В теории информации физический процесс, значения параметров которого отображают
передаваемое сообщение, называется сигналом.
\end{defin}
\begin{block}{}
Модуляция--демодуляция. Зашумление.
{\bf Помехи}: аддитивные, мультипликативные, фазовые.
\end{block}
\end{frame}
\begin{frame}{Виды сигналов}
\only<1>{
\begin{block}{Аналоговый}
Описывается непрерывной (или кусочно--непрерывной) функцией $x(t)$: $t\in[t_0,t_1]$,
$x\in[x_0,x_1]$. Аудиосигналы, телевизионные сигналы.
\end{block}
\img[0.3]{oscill}
}
\only<2>{
\begin{block}{Дискретный}
Описывается решетчатой функцией (последовательностью, временн\'ым рядом) $x(nT)$: $x\in[x_0,x_1]$,
$n=\overline{1,N}$, $T$~-- интервал дискретизации. Величину $f=1/T$
называют частотой дискретизации. Если интервал дискретизации является
постоянной величиной, дискретный сигнал можно задать в виде ряда $\{x_1,\ldots, x_N\}$.
\end{block}
\img[0.6]{disc_sig}
}
\only<3>{
\begin{block}{Цифровой}
Описывается квантованной решетчатой функцией и отличается от обычного дискретного сигнала тем, что
каждый уровень квантования кодируется двоичным кодом. Таким образом, если
величина $x\in[x_0,x_1]$ квантуется $N$~разрядным кодом, для
обратного представления из кода $K_x$ в значение $x$ применяется
преобразование: $x=x_0+K_x\cdot (x_1-x_0)/2^{N}$. К цифровым сигналам относятся
сигналы, используемые в системах связи с импульсно--кодовой модуляцией.
\end{block}
\img[0.4]{digital_signal}
}
\end{frame}
\begin{frame}{Дискретизация}
\begin{block}{}
Дискретизация строит по заданному аналоговому сигналу $x(t)$ дискретный сигнал $x_n(nT)$, причем
$x_n(nT)=x(nT)$. Операция восстановления состоит в том, что по заданному дискретному сигналу
строится аналоговый сигнал.
\end{block}
\begin{block}{Теорема Котельникова--Найквиста}
\begin{itemize}
\item любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным
отсчётам, взятым с частотой $f > 2f_c$, где $f_c$~-- максимальная частота, которой ограничен спектр
реального сигнала;
\item если максимальная частота в сигнале равна или превышает половину частоты дискретизации
(наложение спектра), то способа восстановить сигнал из дискретного в аналоговый без искажений не
существует.
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{Теорема Котельникова--Найквиста}
\begin{block}{}
$$X_{s}(f)\ {\stackrel {\mathrm {def} }{=}}\sum _{n=-\infty }^{\infty }T\cdot x(nT)\ e^{-i2\pi
nTf}$$
$$X(f) = \sum _{n=-\infty }^{\infty }x(nT)\cdot \underbrace {T\cdot \mathrm {rect} (Tf)\cdot
e^{-i2\pi nTf}} _{{\mathcal {F}}\left\{\mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]\right\}}$$
\end{block}
\begin{columns}\column{0.5\textwidth}
\img{ReconstructFilter}
\column{0.5\textwidth}
\begin{block}{Формула Уиттекера--Шеннона}
$$x(t)=\sum _{n=-\infty }^{\infty }x(nT)\cdot \mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]$$
\end{block}
\end{columns}
\end{frame}
\begin{frame}{Квантование}
\begin{defin}
Для преобразования дискретного сигнала в цифровой вид применяется операция квантования или
аналогово--цифрового преобразования~(АЦП), которая по заданному дискретному сигналу $x_n(nT)$
строит цифровой кодированный сигнал $x_d(nT)$, причем $x_n(nT)\approx x_d(nT)$. Обратная квантованию
операция называется операцией цифро--аналогового преобразования~(ЦАП).
\end{defin}
\only<1>{\img[0.7]{ADC}}
\only<2>{\img{DAC}}
\end{frame}
\section{Методы анализа сигналов}
\begin{frame}{Методы анализа сигналов}
\begin{block}{Группы методов}
\begin{description}
\item[В пространственной области] над сигналом производят какие--либо преобразования, одинаковые
для всего сигнала (аддитивные, мультипликативные или матричные) --- бинаризация, гистограммы,
свертка, выделение компонент, сглаживание\dots
\item[В частотной области] работа производится не с сигналом, а с его спектром (обычно Фурье) ---
свертка через Фурье, сглаживание \slash фильтрация, выделение деталей, деконволюция\dots
\end{description}
\end{block}
\begin{block}{}
Процесс зашумления сигнала $x(t)$ импульсной (аппаратной) функцией шума $n(t)$ описывается
сверткой:
$x'(t)=x(t)\otimes n(t)$. В пространстве Фурье:
$$\FT{x'(t)}=\FT{x(f)}\cdot\FT{n(t)}\text{ или }X'(f)=X(f)\cdot N(f).$$
$N(f)$~-- передаточная функция.
\end{block}
\end{frame}
\begin{frame}{Вейвлет--анализ}
\only<1>{\begin{block}{}
Локализованный в пространственной и частотной области набор ортонормированных функций.
$$T_{m,n}=\int\limits_{-\infty}^{\infty }x(t)\,\psi_{m,n}^{*}(t)\,dt,$$
$$x(t)=K_{\psi}\sum\limits_{m=-\infty }^{\infty }\sum\limits_{n=-\infty
}^{\infty}T_{m,n}\psi_{m,n}(t).$$
\end{block}}
\only<2>{\img{Continuous_wavelet_transform}}
\only<3>{\begin{block}{}Детализирующие и аппроксимирующие коэффициенты\end{block}
\img[0.5]{wavelet_img}}
\end{frame}
\section{Обзор программы}
\begin{frame}{Обзор программы}
\tableofcontents[currentsection,hideothersubsections,sectionstyle=hide]
\end{frame}
\subsection{Статистика и вероятность. Случайные величины и распределения}
\begin{frame}{Статистика и вероятность}
\begin{block}{}
Вероятность, плотность вероятности, закон больших чисел, характеристики набора случайных величин,
законы распределения, корреляция и ковариация, шум, SNR.
\end{block}
\img[0.7]{binopdf}
\end{frame}
\subsection{Теория физических измерений. Систематические и случайные погрешности}
\begin{frame}{Теория физических измерений}
\begin{block}{}
Меры и значения величин, абсолютная и относительная погрешности, промахи, систематические и
случайные погрешности, класс точности прибора, доверительный интервал, критерий Стьюдента, правила
вычисления погрешностей косвенных измерений, аппроксимация наименьшими квадратами.
\end{block}
\img[0.7]{lesssquare}
\end{frame}
\subsection{Теория оценок}
\begin{frame}{Теория оценок}
\begin{block}{}
Правило ,,трех сигм``, теорема Ляпунова, распределение $\chi^2$, распределение Стьюдента, оценки:
их виды и надежность.
\end{block}
\img[0.5]{chi2}
\end{frame}
\subsection{Системы уравнений. Степенные и дифференциальные уравнения}
\begin{frame}{Системы уравнений}
\begin{block}{}
Методы решения систем линейных уравнений: Гаусса, простой итерации, Зейделя, наименьших квадратов,
численные методы; степенные и прочие нелинейные уравнения и метод бисекции; численное
интегрирование (прямоугольник, трапеция, Симпсона); обыкновенные дифференциальные уравнения.
\end{block}
\img[0.4]{bisect}
\end{frame}
\subsection{Анализ временных рядов. Фурье-- и Вейвлет--анализ}
\begin{frame}{Анализ временных рядов}
\begin{block}{}
Аппроксимация, интерполяция, сплайны, преобразование Лапласа, Z--преобразования, ряды Фурье,
Фурье--преобразование, Фурье--фильтрация, вейвлет--анализ и вейвлет--фильтрация.
\end{block}
\img[0.7]{Four-filter}
\end{frame}
\subsection{Обработка изображений}
\begin{frame}{Обработка изображений}
\vspace{-2em}
\begin{block}{}
Цифровые изображения, модели цветовых пространств; преобразования в пространственной области:
логарифмическое преобразование, растяжение контрастности, свертка с различными масками, медианный
фильтр; гистограмма и эквализация гистограммы; преобразования в частотной области: ДПФ, частотные
фильтры; ФРТ и ОПФ; адаптивная медианная фильтрация; инверсная и винеровская фильтрация;
геометрические преобразования изображений; вейвлет--преобразования; морфологические операции;
проблема распознавания изображений.
\end{block}
\smimg[0.33]{Noiced}
\smimg[0.33]{MF3}
\smimg[0.33]{MF5}
\end{frame}
\section{Литература}
\begin{frame}{Основная литература}
\begin{thebibliography}{9}
\bibitem{} Интернет--энциклопедия: http:/\!/wikipedia.org (Википедия).
\bibitem{} Гонсалес~Р., Вудс~Р. Цифровая обработка изображений.~--- М.: Техносфера, 2012.~---
1104~с.
\bibitem{} Витязев~В.В. Вейвлет-анализ временных рядов: Учеб. пособие.~---
СПб.: Изд-во С.-Петерб. ун-та., 2001.~--- 58~с.
\bibitem{} Гонсалес~Р., Вудс~Р., Эддинс~С. Цифровая обработка изображений
в среде MATLAB.~--- М.: Техносфера, 2006~--- 616~с.
\bibitem{} Гмурман~В.\,Е. Теория вероятностей и математическая статистика.
Учеб. пособие для вузов.~--- Изд. 7-е, стер.~--- М.: Высш. шк., 2001.~--- 479~с.
\bibitem{} Говорухин~В., Цибулин~В. Компьютер в математическом исследовании.
Учебный курс.~--- СПб.: Питер, 2001.~--- 624~с.
\bibitem{} Сергиенко~А.\,Б. Цифровая обработка сигналов.~--- СПб.: Питер, 2005.~---
604~с.
\bibitem{} Чен~К., Джиблин~П., Ирвинг~А. MATLAB в математических исследованиях:
Пер. с англ.~--- М.: Мир, 2001.~--- 346~с.
\end{thebibliography}
\end{frame}
\begin{frame}{Дополнительная литература}
\begin{thebibliography}{9}
\bibitem{} Бахвалов~Н.\,С., Жидков~Н.\,П., Кобельков~Г.\,М. Численные методы.~---
М.: Высш. шк., 1987.~--- 630~с.
\bibitem{} Кнут~Д.\,Э. Все про \TeX./ Пер. с англ. М.\,В.~Лисиной.~---
Протвино: АО~RD\TeX, 1993.~--- 592~с.: ил.
\bibitem{} Львовский~С.\,М. Набор и верстка в системе \LaTeX.~--- 3-е изд.,
исрп. и доп.~--- М.: МЦНМО, 2003.~--- 448~с.
\bibitem{} Физическая энциклопедия/ Гл. ред. А.М.~Прохоров.~--- М.: Сов.
энциклопедия. Тт. I~--~V. 1988.
\bibitem{} Цифровая обработка сигналов: Справочник/ Л.М.~Гольденберг,
Б.Д.~Матюшкин, М.Н.~Поляк.~--- М.: Радио и связь, 1985.~--- 312~с., ил.
\bibitem{} Pan~G.\,W. Wavelets in electromagnetic and device modeling.~---
John~Wiley \& Sons, Inc., Hobocen, New Jersey, 2003.~--- 531~p.
\end{thebibliography}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

Binary file not shown.

View File

@ -1,319 +0,0 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 2]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 2. Статистика и вероятность. Случайные величины и распределения}
\date{12 июля 2016 года}
\begin{document}
% Титул
\begin{frame}
\maketitle
\end{frame}
% Содержание
\begin{frame}
\tableofcontents
\end{frame}
\section{Случайные величины, вероятность}
\begin{frame}{Случайные величины, вероятность}
\begin{defin}
Случайной величиной называется величина~$X$, если все ее возможные значения образуют конечную
или бесконечную последовательность чисел~$x_1,\ldots$, $x_N$, и если принятие ею каждого из этих
значений есть случайное событие.
\end{defin}
\begin{defin}\begin{columns}\column{0.75\textwidth}
Вероятность наступления данного события~--- это предел относительной частоты наступления
данного события~$n_k/N$:\column{0.25\textwidth}
$$P(x_k)=\lim_{N\to\infty}\frac{n_k}{N}.$$
\end{columns}
\end{defin}
\begin{block}{}
Совместные и несовместные события, полная группа, свойства вероятности.
Для непрерывных случайных величин вводят понятие плотности вероятности:
$$\rho(x)=\lim_{\Delta x\to 0}\frac{P(x<X<x+\Delta x)}{\Delta
x}=\frac{dP}{dx}.$$
$$P(x_1<X<x_2)=\Int_{x_1}^{x_2}\rho(x)\,dx.$$
\end{block}
\end{frame}
\section{Характеристики случайных величин}
\begin{frame}{Характеристики случайных величин}
\begin{block}{Независимые случайные величины}
$P(x_ny_n)=P(x_n)P(y_n)$.
\end{block}
\begin{block}{Среднее арифметическое и математическое ожидание}
$$\aver{X}=\frc1{N}\sum_{n=1}^N x_n,$$
$$M(X)\equiv\mean{X}=\lim_{N\to\infty}\frac1{N}\sum_{n=1}^N x_n\quad\text{и}\quad
M(X)=\Infint x\phi(x)\,dx.$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{Свойства математического ожидания}
\begin{itemize}\setlength{\itemsep}{2pt}
\item $\mean\const=\const$;
\item $\mean{\sum\C_n\cdot X_n}=\sum\C_n\cdot \mean{X_n}$,
где $\C_n$~-- постоянная величина;
\item $\mean{\prod X_n}=\prod \mean{X_n}$ (для независимых случайных величин);
\item $\mean{f(x)}=\Infint f(x)\phi(x)\,dx$ (для непрерывных случайных величин).
\end{itemize}
\end{block}
\begin{block}{$\mean{X}\Leftrightarrow\aver{X}$? Закон больших чисел}
Неравенство Чебыш\"ева: $P(|X-\mean{X}|<\epsilon)\ge 1-D(X)/\epsilon^2\quad\Rightarrow$
$$\lim_{n\to\infty} P\Bigl(\Bigl|\frac{\sum
X_n}{n}-\frac{\sum\mean{X_n}}{n}\Bigr|<\epsilon\Bigr)=1.$$
Теорема Бернулли: $\lim\limits_{n\to\infty} P(|m/n-p|<\epsilon)=1$.
\end{block}
\end{frame}
\begin{frame}{Характеристические значения распределений}
\only<1>{\begin{block}{Медиана и мода}
{ Мода}~--- наиболее часто встречающееся значение (но вполне могут быть мультимодальные
распределения). { Медиана} делит площадь распределения пополам.
\end{block}
\img[0.6]{mode_median}}
\only<2>{\begin{block}{Моменты}
Если $f(x)=(x-x_0)^n$, то $\mean{f(x)}$~--- момент порядка~$n$. Если $x_0=0$~--- начальный
момент, если $x_0=\mean{X}$--- центральный момент.
Моменты нулевого порядка равны~1, начальный момент первого порядка равен математическому ожиданию
случайной величины; центральный момент первого порядка равен нулю.
Центральный момент второго порядка называют дисперсией: $D(X)=\mean{(x-\mean{x})^2}\equiv
\mean{x^2}-\mean{x}^2$, $\sigma=\sqrt{D}$.
\smallskip
Свойства дисперсии:
\begin{itemize}
\item $D(\const)=0$;
\item $D(\const X)=C^2 D(X)$, где $\C$~-- постоянная величина;
\item $D(\sum X_n)=\sum D(X_n)$.
\end{itemize}
\end{block}
}
\end{frame}
\section{Законы распределения}
\begin{frame}{Законы распределения}
\begin{defin}
Закон распределения дискретной случайной величины~--- соответствие между возможными
значениями и их вероятностями.
\end{defin}
\begin{block}{Функция распределения}
$$F(x)\equiv P(X\le x)=\Int_{-\infty}^x\phi(x)\,dx, \qquad
\Infint\phi(x)\,dx=1.$$
$$P(a\le X\le b)=F(b)-F(a).$$
\end{block}
\end{frame}
\begin{frame}{Равномерное распределение}
\begin{columns}\column{0.45\textwidth}
\begin{block}{}
$$
\phi(x)=\begin{cases}\frac1{b-a}, & x\in [a,b] \\ 0, & x\not\in [a,b]
\end{cases}.
$$
$$F(x)= \begin{cases} 0, & x < a \\ \frac{x-a}{b-a}, & a \le x < b \\ 1, & x \ge
b \end{cases}.
$$
\end{block}\column{0.45\textwidth}
\begin{block}{}
$\mean{X}=\med(X)=(a+b)/2$, $\moda(X)=\forall x\in[a,b]$,
$\displaystyle\sigma^2_X = \frac{(b-a)^2}{12}$.
\end{block}
\end{columns}
\smimg[0.45]{Uniform_distribution_PDF}\hspace{3pt}
\smimg[0.45]{Uniform_distribution_CDF}
\end{frame}
\begin{lightframe}{Биномиальное распределение}
\vspace*{-0.8em}\begin{block}{}
Формула Бернулли:
$\displaystyle P_n(k)=C_n^k p^k q^{n-k},\quad C_n^k=\frac{n!}{k!(n-k)!},\quad
q=1-p.$
$$(p+q)^n=C_n^n p^n+\cdots+C_n^k p^k q^{n-k}+\cdots+C_n^0 q^k.$$
Описывает вероятность наступления события~$k$
раз в~$n$ независимых испытаниях
\end{block}\vspace*{-1em}
\begin{columns}
\column{0.45\textwidth}
\img{Binomial_Distribution}
\column{0.55\textwidth}
\begin{block}{}
$$
F(k;n,p)=P(X\leq k)=\sum_{i=0}^\floor{k} C_n^i p^i(1-p)^{n-i}.$$
$\mean{X}=np$, $\moda(X)=\floor{(n+1)p}$, $\floor{np}\le\med(X)\le\ceil{np}$,
$\sigma^2_X = npq$.
\end{block}
\end{columns}
\end{lightframe}
\begin{frame}{Распределение Пуассона}
\vspace*{-2em}\begin{block}{}
При $n\to\infty$ распределение Бернулли преобразуется в распределение Пуассона ($\lambda=np$):
$$P_n(k)=\frac{\lambda^k}{k!}\exp(-\lambda).$$
\end{block}
\begin{columns}\column{0.48\textwidth}
\begin{block}{}
$F(k, \lambda) = \displaystyle\frac{\Gamma(k+1,\lambda)}{k!}$,
$\mean{X} = \lambda$, $\moda(X) = \floor{\lambda}$,
$\med{X}\approx\floor{\lambda+1/3-0.02/\lambda}$,
$\sigma^2_X = \lambda$.
С ростом $\lambda$ распределение Пуассона стремится к распределению Гаусса.
\end{block}
\column{0.48\textwidth}
\img{poissonpdf}
\end{columns}
\end{frame}
\begin{frame}{Распределение Гаусса}
\vspace*{-2em}\begin{block}{}
$$
\phi (x) = \frac 1 {\sigma \sqrt {2 \pi}} \exp \left( -\frac {(x -\mean{x})^2}{2
\sigma^2} \right)
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$F(x) = \displaystyle\frac 1{\sigma \sqrt {2 \pi}} \Int_{-\infty}^x \exp \left( -\frac{(t
-\mean{x})^2}{2 \sigma^2} \right)\, dt$,
$\moda(X) = \med{X} = \mean{X}$.
\end{block}
\vspace*{-1em}\img[0.6]{normpdf}
\end{frame}
\begin{frame}{Показательное (экспоненциальное) распределение}
\vspace*{-1em}\begin{block}{}
Время между двумя последовательными свершениями события
$$f(x)=\begin{cases}
0,& x<0,\\
\lambda\exp(-\lambda x),& x\ge0;
\end{cases}\qquad
F(x)=\begin{cases}
0,& x<0,\\
1-\exp(-\lambda x),& x\ge0,
\end{cases}
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$\mean{X} = \lambda^{-1}$,
$\moda(X) = 0$, $\med{X} = \ln(2)/\lambda$,
$\sigma^2_X = \lambda^{-2}$.
\end{block}
\vspace*{-1em}\img[0.5]{exppdf}
\end{frame}
\section{Корреляция и ковариация}
\begin{frame}{Корреляция и ковариация}
\begin{defin}
{}Ковариация является мерой линейной зависимости случайных величин и определяется формулой:
$\mathrm{cov}(X,Y)=\mean{(X-\mean{X})(Y-\mean{Y})}$ $\Longrightarrow$ $\mathrm{cov}(X,X) =
\sigma^2_X$.
Ковариация независимых случайных величин равна нулю, обратное неверно.
\end{defin}
\begin{block}{}
Если ковариация положительна, то с ростом значений одной случайной величины, значения второй имеют
тенденцию возрастать, а если знак отрицательный~--- убывать.
Масштаб зависимости величин пропорционален их дисперсиям $\Longrightarrow$ масштаб можно
отнормировать ({}коэффициент корреляции Пирсона):
$$\rho_{X,Y}=\frac{\mathrm{cov}(X,Y)}{\sigma X\sigma Y}, \qquad \mathbf{r}\in[-1,1].$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{}
Коэффициент корреляции равен~$\pm1$ тогда и только тогда, когда~$X$ и~$Y$ линейно зависимы. Если
они независимы, $\rho_{X,Y}=0$ ({}обратное неверно!). Промежуточные значения коэффициента
корреляции не позволяют однозначно судить о зависимости случайных величин, но позволяет предполагать
степень их зависимости.
\end{block}
\begin{block}{Корреляционная функция}
Одна из разновидностей~--- автокорреляционная функция:
$$
\Psi(\tau) = \Int f(t) f(t-\tau)\, dt\equiv
\Int f(t+\tau) f(t)\,dt.
$$
Для дискретных случайных величин автокорреляционная функция имеет вид
$$
\Psi(\tau) = \aver{X(t)X(t-\tau)}\equiv\aver{X(t+\tau)X(t)}.
$$
\end{block}
\end{frame}
\begin{blueframe}{}
\begin{block}{Взаимно корреляционная функция}
Другая разновидность~--- кросс--корреляционная функция:
$$(f\star g)(t)\stackrel{\mathrm{def}}{=}\Infint f^{*}(\tau)g(t+\tau)\,d\tau$$
свертка:
$$ (f*g)(x)\stackrel{\mathrm{def}}{=}\Infint f(y)\,g(x-y)\,dy = \Infint f(x-y)\,g(y)\, dy.$$
\end{block}
\img[0.5]{convcorr}
\end{blueframe}
\begin{frame}{}
\begin{block}{}
Если $X$ и $Y$~--- два независимых случайных числа с функциями распределения вероятностей
$f$ и $g$, то $f\star g$ соответствует распределению вероятностей выражения $-X+Y$, а $f*g$~---
распределению вероятностей суммы $X + Y$.
ВКФ часто используется для поиска в длинной последовательности более короткой заранее известной,
определения сдвига (см.~рис).
Связь со сверткой: $f(t)\star g(t) = f^*(-t) * g(t)$, если $f$ и $g$ четны, то
$f(t)\star g(t) = f(t) * g(t)$. Через преобразование Фурье:
$\FT{f \star g} = \FT{f}^*\cdot\FT{g}$.
\end{block}\img[0.6]{autocorr}
\end{frame}
\section{Шум}
\begin{frame}{Шум}
\begin{defin}
Шум~--- беспорядочные колебания различной физической природы, отличающиеся сложной временной и
спектральной структурой.
\end{defin}
\begin{block}{}
Белый шум, $\xi(t)$, имеет время корреляции много меньше всех характерных времен физической
системы; $\mean{\xi(t)}=0$, $\Psi(t,\tau)=\aver{\xi(t+\tau)\xi(t)}=\sigma^2(t)\delta(\tau)$.
Разновидность~--- AWGN.
Дробовой шум имеет пуассонову статистику~\so $\sigma_X\propto\sqrt{x}$ и
$\SNR(N)\propto\sqrt{N}$. Суточные и вековые корреляции.
Шум вида <<соль--перец>> обычно характерен для изображений, считываемых с ПЗС.
\end{block}
\end{frame}
\begin{frame}{SNR}
\begin{defin}
SNR~--- безразмерная величина, равная отношению мощности полезного сигнала к мощности шума.
\end{defin}
\begin{block}{}
$$\SNR = {P_\mathrm{signal} \over P_\mathrm{noise}} = \left ({A_\mathrm{signal} \over
A_\mathrm{noise} } \right )^2, \quad
\SNR(dB) = 10 \lg \left ( {P_\mathrm{signal} \over P_\mathrm{noise}}
\right )
= 20 \lg \left ( {A_\mathrm{signal} \over A_\mathrm{noise}} \right ).
$$
\end{block}
\img[0.6]{SNR}
\centerline{\tiny (10, 0, -10~дБ.)}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

View File

@ -6,7 +6,7 @@
\title[Компьютерная обработка. Лекции 3, 4.]{Компьютерная обработка результатов измерений} \title[Компьютерная обработка. Лекции 3, 4.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 3. Теория физических измерений. Систематические и случайные погрешности.\\ \subtitle{Лекция 3. Теория физических измерений. Систематические и случайные погрешности.\\
Лекция 4. Теория оценок.} Лекция 4. Теория оценок.}
\date{28 ÓÅÎÔÑÂÒÑ 2016 ÇÏÄÁ} \date{22 марта 2021 года}
\begin{document} \begin{document}
% Титул % Титул
@ -104,7 +104,7 @@ x/\mean{x}$;
\end{block} \end{block}
\begin{block}{Средняя квадратическая погрешность среднего арифметического} \begin{block}{Средняя квадратическая погрешность среднего арифметического}
$$ $$
\sigma_{\mean{x}}=\frac{\sigma_x}{\sqrt{n}}= \sigma_{\aver{x}}=\frac{\sigma_x}{\sqrt{n}}=
\sqrt{\frac{\sum\limits_{i=1}^n(\mean{x_i}-\aver{x})^2}{n(n-1)}}. \sqrt{\frac{\sum\limits_{i=1}^n(\mean{x_i}-\aver{x})^2}{n(n-1)}}.
$$ $$
\end{block} \end{block}
@ -118,16 +118,32 @@ $p = P(X_0 \le x \le X_1)$
\end{block} \end{block}
\begin{block}{Математическое ожидание} \begin{block}{Математическое ожидание}
Если известен закон распределения (мат. ожидание и дисперсия: $\mu$ и $\sigma$), то Если известен закон распределения (мат. ожидание и дисперсия: $\mu$ и $\sigma$), то
$$P\Bigl(\mean{X}-z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}} \le \mu \le $$P\Bigl(\aver{X}-z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}} \le \mu \le
\mean{X}+z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}}\Bigr) = 1 - \alpha,$$ \aver{X}+z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}}\Bigr) = 1 - \alpha,$$
где $z_\alpha$~-- $\alpha$--квантиль нормального распределения где $z_\alpha$~-- $\alpha$--квантиль нормального распределения
\end{block} \end{block}
\column{0.4\textwidth} \column{0.4\textwidth}
\img{Boxplot_vs_PDF} \img{Boxplot_vs_PDF}
ë×ÁÎÔÉÌÉ: ÐÅÒ×ÙÊ, ×ÔÏÒÏÊ (ÍÅÄÉÁÎÁ) É ÔÒÅÔÉÊ. Квартили: первый (0.25-квантиль), второй (0.5-квантиль, медиана) и третий (0.75-квантиль).
\end{columns} \end{columns}
} }
\only<2>{ \only<2>{
\begin{defin} $\alpha$--квантилем называется число $x_\alpha$:
$P(X\le x_\alpha)\ge\alpha$ и $P(X\ge x_\alpha)\ge1-\alpha$. Т.е. по интегральной функции распределения
$F(x_\alpha)=\alpha$. А т.к. $P(a\le X\le b)=F(b)-F(a)$, получаем:
$$P(x_{1-\frac{\alpha}2}\le X\le x_{1+\frac{\alpha}2})=\alpha.$$
\end{defin}
\begin{block}{Пример}
В 64 наблюдениях получено: $S_1=\sum x=600$, $S_2=\sum (x-\mean{x})^2=3800$. Вычислить 90\% доверительный
интервал
матожидания.
Решение: $\sigma=\sqrt{S_2/(n-1)}=7.72$; $\aver{x}=S_1/n=9.375$. $F(0.05)=1.96$, отсюда найдем границы интервала
$\aver{x}\pm F(0.05)\sigma/\sqrt{n}$:
$\mean{x}\in[7.484, 11.266]$ с точностью 90\%.
\end{block}
}
\only<3>{
\begin{block}{Математическое ожидание} \begin{block}{Математическое ожидание}
Если закон распределения неизвестен, то Если закон распределения неизвестен, то
$$P\Bigl(\mean{X}-t_{1-\frac{\alpha}2, n-1}\frac{S}{\sqrt{n}} \le \mu \le $$P\Bigl(\mean{X}-t_{1-\frac{\alpha}2, n-1}\frac{S}{\sqrt{n}} \le \mu \le
@ -141,7 +157,7 @@ $$T=\frac{\mean{X}-\mu}{S/\sqrt{n}}$$
$\mean{X}\pm TS_n/\sqrt{n}$, т.е. $\mu\in(8.6565, 11.3440)$. $\mean{X}\pm TS_n/\sqrt{n}$, т.е. $\mu\in(8.6565, 11.3440)$.
\end{block} \end{block}
} }
\only<3>{ \only<4>{
\begin{block}{Дисперсия} \begin{block}{Дисперсия}
Если известно среднее, можно воспользоваться распределением $\chi^2$. Если известно среднее, можно воспользоваться распределением $\chi^2$.
$$ $$
@ -271,6 +287,28 @@ $$P(|x-\mean{x}|<3\sigma)=2\Phi(3)=0.9973.$$
\end{defin} \end{defin}
\end{frame} \end{frame}
\section{Иррегулярно распределенные данные}
\begin{frame}{}
\begin{columns}
\column{0.65\textwidth}
\begin{block}{Иррегулярно распределенные данные}
БПФ, корреляция, периодограммы и т.п.
\begin{itemize}
\item Resampling (если данные достаточно плотно расположены).
\item Определение периода как расстояния между минимумами (максимумами) из аппроксимации.
\item Auto Regressive Moving Average (ARMA).
\item Фильтрация Калмана.
\item Метод Ваничека (аппроксимация набора данных рядом синусоид).
\item Периодограмма Ломба-Скаргла (ортогонализация пар синусоид введением задержки во времени,
Scargle, 1981).
\item Irregular Autoregressive Model (IAR).
\item Complex IAR (CIAR).
\end{itemize}
\end{block}
\column{0.32\textwidth}
\vspace*{-2em}\img{irregular}
\end{columns}
\end{frame}
\begin{frame}{Спасибо за внимание!} \begin{frame}{Спасибо за внимание!}
\centering \centering

Binary file not shown.

View File

@ -6,7 +6,7 @@
\title[Компьютерная обработка. Лекция 5.]{Компьютерная обработка результатов \title[Компьютерная обработка. Лекция 5.]{Компьютерная обработка результатов
измерений} измерений}
\subtitle{Лекция 5. Системы уравнений} \subtitle{Лекция 5. Системы уравнений}
\date{29 сентября 2016 года} \date{22 марта 2021 года}
\begin{document} \begin{document}
% Титул % Титул
@ -36,7 +36,7 @@ $$
\begin{defin} \begin{defin}
Если существует вектор--столбец~$\B x$, обращающий выражение~$\B{Ax=b}$ в тождество, говорят, Если существует вектор--столбец~$\B x$, обращающий выражение~$\B{Ax=b}$ в тождество, говорят,
что~$\B x$ является решением данной системы уравнений. что~$\B x$ является решением данной системы уравнений.
$|\B A|\ne0$. $\mathrm{det}\,A\equiv |\B A|\ne0$.
\end{defin} \end{defin}
\end{frame} \end{frame}
@ -45,14 +45,19 @@ $|\B A|\ne0$.
$\delta=\B{Ax-b}$. $\delta=\B{Ax-b}$.
Приближенные методы: $\mathrm{min}(\delta)$. Точные методы: $\delta=0$.\\ Приближенные методы: $\mathrm{min}(\delta)$. Точные методы: $\delta=0$.\\
\end{block} \end{block}
\begin{block}{Метод простой итерации}
$\B{x=Bx+c}$, $\B x_{n+1}=\B B\B x_n+\B c$.\\
Сложностью метода простой итерации при решении матриц больших размерностей является особое свойство
таких матриц~--- существование почти собственных значений, $\lambda$:
$||\B{Ax}-\lambda\B x||\le\epsilon||\B x||$ при $||\B x||\ne0$.\\
\end{block}
\begin{block}{Матричный метод} \begin{block}{Матричный метод}
$\B x = \B A^{-1}\B b$ $\B x = \B A^{-1}\B b$\\
$\B A \cdot \B A^{-1} = \B A^{-1} \cdot \B A = \B E$.
Нахождение обратной матрицы:
\begin{itemize}
\item с помощью присоединенной: $(\B A | \B E )$ \so $(\B E | \B A^{-1})$;
\item $\B A^{-1} = \dfrac{\mathrm{adj\,}\B A}{|\B A|}$, присоединенная матрица $\mathrm{adj\,}\B A$
является транспонированной матрицей алгебраических дополнений ($(-1)^{i+j}M_{ij}$, $M_ij$~--
соответствующий дополнительный минор~--- определитель матрицы с вычеркнутыми $i$-й строкой и $j$
столбцом).
\item и т.д., и т.п.
\end{itemize}
Формулы Крамера: $x_j = |A_j|/|A|$, $A_j$ получается из $A$ заменой $j$-го столбца на $\B b$.
\end{block} \end{block}
} }
\only<2>{ \only<2>{
@ -82,20 +87,19 @@ $N\propto n^3$~---
\end{block} \end{block}
} }
\only<3>{ \only<3>{
\begin{block}{} \begin{block}{Метод Зейделя}
Метод Зейделя: \\
$$\B{Bx}_{n+1}+\B{Cx}_n=\B b,$$ $$\B{Bx}_{n+1}+\B{Cx}_n=\B b,$$
где где
$$\B B=\begin{pmatrix} $$\B B=\begin{pmatrix}
a_{11}&0&0&\cdots&0\\ a_{11}&0&0&\cdots&0\\
a_{21}&a_{22}&0&\cdots&0\\ a_{21}&a_{22}&0&\cdots&0\\
\cdot&\cdot&\cdot&\cdots&\cdot\\ \vdots&\vdots&\vdots&\ddots&\vdots\\
a_{m1}&a_{m2}&a_{m3}&\cdots&a_{mm} a_{m1}&a_{m2}&a_{m3}&\cdots&a_{mm}
\end{pmatrix},\qquad \end{pmatrix},\qquad
\B C=\begin{pmatrix} \B C=\begin{pmatrix}
0&a_{12}&a_{13}&\cdots&a_{1m}\\ 0&a_{12}&a_{13}&\cdots&a_{1m}\\
0&0&a_{23}&\cdots&a_{2m}\\ 0&0&a_{23}&\cdots&a_{2m}\\
\cdot&\cdot&\cdot&\cdots&\cdot\\ \vdots&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\cdots&0 0&0&0&\cdots&0
\end{pmatrix}. \end{pmatrix}.
$$ $$
@ -104,6 +108,49 @@ $$\B x_{n+1}=-\B B^{-1}\B{Cx}_n +\B B^{-1}\B b.$$
\end{block} \end{block}
} }
\only<4>{ \only<4>{
\begin{block}{LU-метод}
$$\B A=\B L\cdot \B U,$$
где
$$\B L=\begin{pmatrix}
l_{11}&0&0&\cdots&0\\
l_{21}&l_{22}&0&\cdots&0\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
l_{m1}&l_{m2}&l_{m3}&\cdots&l_{mm}
\end{pmatrix},\qquad
\B U=\begin{pmatrix}
1&u_{12}&u_{13}&\cdots&u_{1m}\\
0&1&u_{23}&\cdots&u_{2m}\\
\vdots&\vdots&\vdots&\ddots&\vdots\\
0&0&0&\cdots&1
\end{pmatrix}.
$$
Прямой ход: $\B L\cdot \B U\cdot \B x \equiv \B L\cdot\B y= \B b$, находим $\B y$,
из $\B U\cdot \B x =\B y$ находим $\B x$.
$$\begin{cases}
l_{ij}=a_{ij}-\Sum_{s=1}^{j-1}l_{is}u_{sj},& i\ge j;\\
u_{ij}=\frac1{l_{ii}}\Bigl(a_{ij}-\Sum_{s=1}^{j-1}l_{is}u_{sj}\Bigr), & i < j.
\end{cases}
$$
LU-разложение возможно для матриц с преобладанием диагональных элементов
\end{block}
}
\only<5>{
\begin{block}{Разложение Холецкого}
$\B A=\B L\cdot \B L^T$, либо $\B A=\B U^T\cdot \B U$, где $\B L$~-- нижняя треугольная матрица
со строго положительными элементами на диагонали, $\B U$~-- верхняя треугольная матрица.
Разложение Холецкого всегда существует и единственно для любой симметричной (относительно главной
диагонали) положительно-определенной матрицы (все диагональные миноры положительны).
$$\begin{cases}
l_{ii}=\sqrt{a_{ii} - \Sum_{s=1}^{i-1}l^2_{is}}; \\
l_{ij} = \frac1{l_{ii}}\Bigl( a_{ij} - \Sum_{s=1}^{j-1}l_{is}l_{js}\Bigr), & j < i.
\end{cases}
$$
Прямой и обратный ходы аналогичны LU-разложению.
\end{block}
}
\only<6>{
\begin{block}{} \begin{block}{}
Если $\B A$ содержит~$m$ строк и~$n$ столбцов, то: Если $\B A$ содержит~$m$ строк и~$n$ столбцов, то:
\begin{description} \begin{description}
@ -115,12 +162,38 @@ $$\B x_{n+1}=-\B B^{-1}\B{Cx}_n +\B B^{-1}\B b.$$
данной системы может существовать и точное решение). данной системы может существовать и точное решение).
\end{description} \end{description}
\end{block} \end{block}
\begin{block}{Приближенные решения} }
МНК ($\B{x=A\backslash b}$), псевдообратная матрица, \dots \only<7>{
\begin{block}{Метод наименьших квадратов ($m > n$)}
$\B{x=A\backslash b}$, %), псевдообратная матрица, \dots
$S=\sum_i(\sum_j a_{ij}x_j - b_i)$, $\partder{S}{x_j}=0$ \so
$\B C\B x = \B d$, где
$c_{kj} = \sum_i a_{ik}a_{ij}$, $k,j=\overline{1,n}$, $d_k = \sum_i a_{ik}b_i$.
Т.о. $\B C = \B A^T\cdot \B A$, $\B d=\B A^T\B b$.
\end{block}
\begin{block}{Метод простой итерации}
$\B{x=Bx+c}$, $\B x_{n+1}=\B B\B x_n+\B c$.\\
Сложностью метода простой итерации при решении матриц больших размерностей является особое свойство
таких матриц~--- существование почти собственных значений, $\lambda$:
$||\B{Ax}-\lambda\B x||\le\epsilon||\B x||$ при $||\B x||\ne0$.\\
\end{block} \end{block}
} }
\end{frame} \end{frame}
\begin{frame}{Число обусловленности матрицы}
\begin{block}{Оценка ошибки решения}
Пусть $\B x'$~-- приближенное решение. Абсолютная и относительная ошибки: $||\B x-\B x'||$
и $\frc{||\B x-\B x'||}{||\B x||}$. Нам известна невязка $\B r=\B b-A\B x'$:
$$\B r=A\B x-A\B x'=A(\B x-\B x')\so ||\B x-\B x'||=||A^{-1}\B r||\le ||A^{-1}||\,||\B r||,$$
а т.к. $||\B b||\le||A||\,||\B x||$, $\frc{1}{||\B x||}\le\frc{||A||}{||\B b||}$:
$$\frac{||\B x-\B x'||}{||\B x||}\le||A^{-1}||\,||\B r||\,\frac{||A||}{||\B b||}=k(A)\frac{||\B
r||}{||\B b||}.$$
Число обусловленности: $k(A)=||A||\,||A^{-1}||$. Чем оно больше, тем больше флуктуации $\B x$
влияют на общее решение. У хорошо обусловленных матриц $K(A)\equiv1$ (напр., ортогональные матрицы,
у которых $A^T=A^{-1}$).
\end{block}
\end{frame}
\section{Степенные уравнения} \section{Степенные уравнения}
\begin{frame}{Степенные уравнения} \begin{frame}{Степенные уравнения}
\begin{defin} \begin{defin}
@ -139,14 +212,30 @@ p_n(x_2)$;
\end{block} \end{block}
\end{frame} \end{frame}
\begin{frame}{Бисекция (дихотомия)}
\img{bisect}
Отрезок делится вплоть до заданной точности $b_n-a_n\le\epsilon$, корень $x\approx(b_n+a_n)/2$.
Применяется и для поиска значений в упорядоченном ряду.
\end{frame}
\begin{frame}{Метод хорд (секущих)}
\begin{block}{}
$$x_{i+1}=x_{i-1}+\frac{y_{i-1}\cdot(x_i-x_{i-1})}{y_i-y_{i-1}}.$$
\end{block}
\begin{pict}\smimg[0.5]{chords1}\,\smimg[0.5]{chords2}\end{pict}
\end{frame}
\begin{blueframe}{Метод Ньютона} \begin{blueframe}{Метод Ньютона}
\img[0.7]{Newton_iteration} \begin{block}{}
$$x_{i+1}=x_i+\frac{y_i}{y'_i}.$$
\end{block}
\begin{pict}\smimg[0.5]{newton1}\,\smimg[0.5]{newton2}\end{pict}
\end{blueframe} \end{blueframe}
\section{Численное интегрирование и дифференцирование} \section{Численное интегрирование и дифференцирование}
\begin{frame}{Численное интегрирование и дифференцирование} \begin{frame}{Численное интегрирование}
\only<1>{ \begin{block}{}
\begin{block}{Численное интегрирование}
Для численного решения уравнения $\displaystyle I=\Int_a^b f(x)\,dx$ наиболее популярны: Для численного решения уравнения $\displaystyle I=\Int_a^b f(x)\,dx$ наиболее популярны:
\begin{description} \begin{description}
\item[метод прямоугольников] $I\approx\sum_{i=1}^n f(x_i)[x_i-x_{i-1}]$; \item[метод прямоугольников] $I\approx\sum_{i=1}^n f(x_i)[x_i-x_{i-1}]$;
@ -156,18 +245,91 @@ $I\approx\frac{b-a}{6n}\Bigl(f(x_0)+f(x_n)+2\sum_{i=1}^{n/2-1}
f(x_{2i}) + 4\sum_{i=1}^{n/2}f(x_{2i-1})\Bigr)$. f(x_{2i}) + 4\sum_{i=1}^{n/2}f(x_{2i-1})\Bigr)$.
\end{description} \end{description}
и многие другие. и многие другие.
\end{block}} \end{block}
\only<2>{ \end{frame}
\begin{block}{Численное дифференцирование}
\begin{frame}{Метод прямоугольников}
\begin{columns}
\column{0.45\textwidth}
\begin{block}{}
$$\int_a^b f(x)\,dx\approx$$
\begin{list}{}{}
\item $\displaystyle\sum_{i=0}^{n-1}f(x_{i})(x_{i+1}-x_{i})$;
\item $\displaystyle\sum_{i=1}^{n}f(x_{i})(x_i-x_{i-1})$;
\item $\displaystyle\sum_{i=0}^{n-1}f\bigl(\frac{x_{i}+x_{i+1}}{2}\bigr)(x_{i+1}-x_{i})$.
\end{list}
Для равномерных сеток:
$\displaystyle h\sum_{i=0}^{n-1} f_i$;
$\displaystyle h\sum_{i=1}^{n} f_i$;
$\displaystyle h\bigl(\sum_{i=1}^{n-1} f_i + \frac{f_0+f_n}{2}\bigr)$.
\end{block}
\column{0.45\textwidth}
\img{rectangmeth}
\end{columns}
\end{frame}
\begin{lightframe}{Метод трапеций}
\begin{columns}
\column{0.6\textwidth}
\begin{block}{}
$$\int_a^b f(x)\,dx\approx
\sum_{i=0}^{n-1}\frac{f(x_i)+f(x_{i+1})}{2}(x_{i+1}-x_i).$$
Для равномерных сеток~--- формула Котеса:
$$\int_a^b f(x)\,dx =
h\left(\frac{f_0+f_n}{2}+\sum_{i=1}^{n-1}f_i\right) + E_n(f),$$
$$E_n(f)=-\frac{f''(\xi)}{12}(b-a)h^2, \xi\in[a,b].$$
\end{block}
\column{0.4\textwidth}
\img{trapezmeth}
\end{columns}
\end{lightframe}
\begin{blueframe}{Метод Симпсона}
\begin{columns}
\column{0.6\textwidth}
\begin{block}{}
$$\int_a^b f(x)\,dx\approx \frac{b-a}{6}\left(f(a)+4f\bigl(\frac{a+b}{2}\bigr)\right)$$
\end{block}
\column{0.4\textwidth}
\img{Simpsons_method_illustration}
\end{columns}
\begin{block}{}
Формула Котеса:
$$I\approx \frac{h}{3}\Bigl(f(x_0)+
2\sum_{i=1}^{N/2-1}f(x_{2i}) + 4\sum_{i=1}^{N/2}f(x_{2i-1} + f(x_N)\Bigr).$$
\end{block}
\end{blueframe}
\begin{frame}{Численное дифференцирование}
\begin{block}{}
Аппроксимация функции интерполяционным многочленом (Ньютона, Стирлинга и т.п.), разделенные Аппроксимация функции интерполяционным многочленом (Ньютона, Стирлинга и т.п.), разделенные
разности. разности.
\end{block}
В нулевом приближении можно заменить производную $f^{(n)}$ разделенной разностью $n$-го порядка: \begin{block}{Аппроксимация многочленом}
$$f(x_0; x_1; \ldots; x_n) = \sum_{i=0}^n \frac{f(x_i)}{\displaystyle $$f(x)\approx P_N(x)\quad\Arr\quad f^{(r)}(x)\approx P_N^{(r)}(x).$$
\prod_{j=0, j\ne i}^n\!\!(x_i - x_j)}.$$ Полином Ньютона:
\end{block}} $$P_N(x)=\sum_{m=0}^{N}C_x^m\sum _{k=0}^{m}(-1)^{m-k}\,C_m^k\,f(k).$$
Полином Лагранжа:
$$P_N(x) = \sum_{k=0}^N y_k \frac {(x-x_0)(x-x_1) \ldots (x-x_{k-1})(x-x_{k+1}) \ldots (x-x_n)} {(x_k-x_0)(x_k-x_1) \ldots
(x_k-x_{k-1})(x_k-x_{k+1}) \ldots (x_k-x_n)}.$$
А также: интерполяция кубическими сплайнами, разложение по базису тригонометрических функций и т.п.
\end{block}
\end{frame} \end{frame}
\begin{block}{Разделенные разности}
В нулевом приближении можно заменить производную $f^{(n)}$ разделенной разностью $n$-го порядка.
$$f(x_{0};\;x_{1};\;\ldots ;\;x_{n})=\sum _{j=0}^{n}{\frac {f(x_j)}{\prod \limits _{i=0 \atop i\neq j}^{n}(x_{j}-x_{i})}}.$$
В частности:
$$f(x_0;\;x_1)={\frac {f(x_1)}{x_1-x_0}}+{\frac {f(x_0)}{x_0-x_1}},$$
$$f(x_0;\;x_1;\;x_2)={\frac {f(x_2)}{(x_2-x_1)(x_2-x_0)}}+{\frac {f(x_1)}{(x_1-x_2)(x_1-x_0)}}+{\frac
{f(x_0)}{(x_0-x_2)(x_0-x_1)}}\ldots$$
\end{block}
\section{Дифференциальные уравнения} \section{Дифференциальные уравнения}
\begin{frame}{Дифференциальные уравнения} \begin{frame}{Дифференциальные уравнения}
\only<1>{ \only<1>{
@ -214,6 +376,25 @@ $$f(z,x,y,\partder{z}{x},\partder{z}{y})=0.$$
} }
\end{frame} \end{frame}
\begin{blueframe}{}
\begin{block}{Метод Эйлера}
Аппроксимация интегральной кривой кусочно-линейной функцией. Задача Коши в простейшем виде:
$\frac{dy}{dx}=f(x,y)$, $y|_{x=x_0}=y_0$. Решение ищется на интервале $(x_0, b]$.
$$y_i=y_{i-1}+(x_i-x_{i-1})f(x_{i-1},y_{i-1}),\qquad i=\overline{1,n}.$$
\end{block}
\img[0.5]{Euler_method}
\end{blueframe}
\begin{frame}{}
\begin{block}{Метод Рунге-Кутты}
$$y_{n+1}=y_n+\frac{h}{6}\bigl(k_1+2k_2+2k_3+k_4\bigr),\qquad \text{где}$$
$k_1=f(x_n,y_n)$, $k_2=f\bigl(x_n+\frc{h}2, y_n+\frc{h}2 k_1\bigr)$,
$k_3=f\bigl(x_n+\frc{h}2, y_n+\frc{h}2 k_2\bigr)$,
$k_4=f(x_n+h,y_n+hk_3)$ ($h$~-- шаг сетки по $x$).
\end{block}
\img[0.5]{Runge-Kutta}
\end{frame}
\begin{frame}{Спасибо за внимание!} \begin{frame}{Спасибо за внимание!}
\centering \centering

Binary file not shown.

View File

@ -1,11 +1,11 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer} \documentclass[10pt,pdf,hyperref={unicode}]{beamer}
%\hypersetup{pdfpagemode=FullScreen} \hypersetup{pdfpagemode=FullScreen}
\usepackage{ed} \usepackage{ed}
\usepackage{lect} \usepackage{lect}
\title[ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ. ìÅËÃÉÑ 6.]{ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ ÒÅÚÕÌØÔÁÔÏ× ÉÚÍÅÒÅÎÉÊ} \title[ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ. ìÅËÃÉÑ 6.]{ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ ÒÅÚÕÌØÔÁÔÏ× ÉÚÍÅÒÅÎÉÊ}
\subtitle{ìÅËÃÉÑ 6. áÎÁÌÉÚ ×ÒÅÍÅÎÎÙÈ ÒÑÄÏ×. æÕÒØÅ-- É ÷ÅÊ×ÌÅÔ--ÁÎÁÌÉÚ} \subtitle{ìÅËÃÉÑ 6. áÎÁÌÉÚ ×ÒÅÍÅÎÎÙÈ ÒÑÄÏ×. æÕÒØÅ-- É ÷ÅÊ×ÌÅÔ--ÁÎÁÌÉÚ}
\date{5 ÏËÔÑÂÒÑ 2016 ÇÏÄÁ} \date{29 марта 2021 года}
\begin{document} \begin{document}
% ôÉÔÕÌ % ôÉÔÕÌ
@ -79,11 +79,319 @@ B--
ëÏÌÉÞÅÓÔ×Ï ÕÚÌÏ×: $n\ge k+1$. ëÏÌÉÞÅÓÔ×Ï ÕÚÌÏ×: $n\ge k+1$.
\end{block} \end{block}
\begin{block}{óÐÌÁÊÎÙ áËÉÍÙ} \begin{block}{óÐÌÁÊÎÙ áËÉÍÙ}
äÁÀÔ ÍÅÎØÛÉÅ ÏÓÃÉÌÌÑÃÉÉ. Также кубические. Устойчивы к осцилляциям. Локальность (окрестность из 5--6 точек) "--- существенно
\end{block}} более быстрое разложение.
\end{block}
\begin{block}{Кривые Безье}
Параметрические полиномиальны кривые, проходящие через опорны точки только в начале и конце области
определения.
\end{block}
}
\only<2>{ \only<2>{
\img[0.7]{1D_Inter_polation} \img[0.7]{1D_Inter_polation}
} }
\only<3>{
\img{bezier}
\centering{Интерполяция кривой Безье}
}
\end{frame}
\section{Модель ARMA}
\begin{frame}{Модель ARMA (авторегрессия и скользящее среднее)}
\only<1>{
\begin{block}{Авторегрессия}
Процесс авторегрессии выражается уравнением
$$x_k=\C + \sum_{i=1}^{n}\phi_i x_{k-i} + \epsilon_k,\qquad\text{где $\C$~-- константа,
$\epsilon$~--
шум.}$$
Процесс будет стационарным, лишь если $\phi_i$ заключены в определенном диапазоне, что не приведет
к негораниченному росту~$x_k$.
\end{block}
\begin{block}{Скользящее среднее}
$$x_k=\C + \epsilon_k - \sum_{i=1}^{n}\theta_i\epsilon_{k-i},\qquad\text{объект~-- сумма ошибок.}$$
\end{block}}
\only<2>{
\begin{block}{ARMA}
$$x_k=\C + \epsilon_k + \sum_{i=1}^{p}\phi_i x_{k-i} + \sum_{i=1}^{q}\theta_i\epsilon_{k-i}\qquad
\text{--- процесс ARMA(p,q).}$$
Для определения порядков $p$ и $q$ может применяться, например, автокорреляция и частичная
автокорреляция, ЧАКФ. Для нахождения коэффициентов~--- метод наименьших квадратов и т.п.
В ЧАКФ из переменных вычисляется их регрессия (удаляются линейные зависимости):
$$PACF(k)=corr(x_{t+k}-x_{t+k}^{k-1}, x_t-x_{t}^{k-1}),$$
$$x_{t}^{k-1}=\sum_{i=1}^{k-1}\beta_i x_{t+k-i}\qquad\text{--- СЛАУ.}$$
\end{block}
}
\end{frame}
\section{Преобразования Лапласа, Z--преобразования}
\begin{frame}{Преобразование Лапласа}
\only<1>{
\begin{block}{}
В линейной теории управления аналогами преобразований Фурье выступают
преобразования Лапласа и Z--преобразования.
Для комплексного переменного $s$ преобразование Лапласа определяется так:
$$
F(s)=\LT{f(t)}(s)=\Int_0^{\infty}f(t)\e^{-st}dt.
\label{Laplas_transform}
$$
Использование преобразований Лапласа имеет тот смысл, что управляющая
функция $f(t)$ чаще всего является чисто действительной, а ее
состояние в момент времени $t<0$ не определено или же не
интересует исследователя.
$$f(t)=\ILT{F(s)}= \frac{1}{2\pi i}\lim_{\omega\to\infty}\Int_{\gamma-\omega}^{\gamma+\omega}
\e^{st}F(s)\,ds,$$
где $\gamma$ определяет область сходимости $F(s)$.
\end{block}}
\only<2>{
\begin{block}{Связь с преобразованием Фурье}
$$
\FT{F}\equiv F(u)=\Infint f(x)\e^{-2\pi i ux}\,dx
$$
$$\LT{f(t)}(2\pi u)=\Int_0^{\infty}f(t)\e^{-2\pi iut}dt=\FT{f(t)},\qquad f(t)=0\when{t<0}.$$
Лаплас \arr Фурье: $s \arr2\pi iu $ \Arr расширение свойств ПФ на ПЛ.
Сведение линейных диф. уравнений к алгебраическим \Arr теория управления:
$$\LT{\dfrac{df(t)}{dt}}(s)=s^{1}\LT{f(t)}(s)-f(0)\quad\Arr$$
$$\quad\LT{f^{(n)}(t)}(s)=s^{n}\LT{f(t)}-\sum_{k=1}^n s^{n-k}f^{(k-1)}(0).$$
\end{block}
}
\only<3>{
\begin{block}{Передаточная функция}
$i(t)$~--- входной сигнал управляющей системы, $o(t)$~---
выходной сигнал; $I(s)=\LT{i}$, $O(s)=\LT{o}$.
{ Передаточная функция} с нулевыми начальными условиями:
$$
T(s)=\frac{O(s)}{I(s)}.
$$
$T(s)$ описывает динамику системы, совершенно отвлекаясь от ее внутреннего функционирования.
$$o(t)=\ILT{T\cdot I}.$$
\end{block}
}
\end{frame}
\begin{frame}{Преобразование Лапласа, примеры}
\only<1>{
\begin{block}{Функция Хевисайда}
\begin{columns}
\column{0.3\textwidth}
$$\eta(t)=\left\{\begin{aligned}
0,\quad t<0,\\
1,\quad t\ge0.
\end{aligned}\right.$$
\column{0.7\textwidth}
$$\displaystyle F(p)=\Int_0^\infty \eta(t)\,\e^{-st}dt=\Int_0^\infty\e^{-st}dt=\frac{1}{s},\quad\Re(
s) > 0.$$
\end{columns}
\end{block}
\begin{block}{Экспонента}
$$\Int_0^\infty\e^t\e^{-st}dt=\Int_0^\infty\e^{-t(s-1)}dt=\left.\frac{\e^{-(s-1)t}}{-(s-1)}\right|_0^\infty=
\frac{1}{s-1},\quad \Re(s)>1;$$
$$\Int_0^\infty\e^{\lambda t}\e^{-st}dt=\frac{1}{s-\lambda},\quad \Re(s)>\lambda.$$
\end{block}
}
\only<2>{
\begin{block}{$\sin$, $\cos$}
$$\Int_0^\infty \sin\alpha t\e^{-st}dt=\Int_0^\infty\frac{\e^{i\alpha t}-\e^{-i\alpha
t}}{2i}\e^{-st}dt=\frac{\alpha}{s^2+\alpha^2},$$
$$\Int_0^\infty \cos\alpha t\e^{-st}dt=\Int_0^\infty\frac{\e^{i\alpha t}+\e^{-i\alpha
t}}{2i}\e^{-st}dt=\frac{s}{s^2+\alpha^2}.$$
\end{block}
\begin{block}{$\sh$, $\ch$}
$$\Int_0^\infty \sh\alpha t\e^{-st}dt=\frac{\alpha}{s^2-\alpha^2},$$
$$\Int_0^\infty \ch\alpha t\e^{-st}dt=\frac{s}{s^2-\alpha^2}.$$
\end{block}
}
\only<3>{\begin{block}{Диф. уравнения}
Решить задачу Коши $x'''+x'=1$, $x(0)=x'(0)=x''(0)=0$. Вычислим преобразование Лапласа (учитывая,
что все н.у. нулевые):
$$s^3F(s)+sF(s)=\frac{1}{s}\Arr F(s)=\frac{1}{s^2(s^2+1)}=\frac{1}{s^2}-\frac{1}{s^2+1},$$
Обратное преобразование:
$$x(t)=t-\sin t.$$
\end{block}
}
\only<4>{
\begin{block}{Конденсатор}
Ток $i=C\frac{du}{dt}$, Лаплас: $I(s)=C(sU(s)-u(0))$. Отсюда $U(s)=\frac{I(s)}{sC}+\frac{u(0)}{s}$.
Комплексное сопротивление $Z(s)=\left.\frac{U(s)}{I(s)}\right|_{u(0)=0}$. Импеданс
конденсатора: $Z=\frac{1}{sC}$.
\end{block}
\begin{block}{Индуктивность}
$u=L\frac{di}{dt}$, $U(s)=L(sI(s)-i(0))$, $Z(s)=\left.\frac{U(s)}{I(s)}\right|_{i(0)=0}$,
$Z=sL$.
\end{block}
}
\only<5>{
\begin{block}{Общая передаточная функция}
Рассмотрим диф. уравнение
$$\sum_{i=0}^n a_i y^{(i)}(t)=\sum_{j=0}^m b_j x^{(j)}(t).$$
При нулевых начальных условиях его преобразование Лапласа:
$$Y(s)\sum a_i s^i = X(s)\sum b_j s^j,\quad\Arr\quad
Y(s)=\frac{b_0 + b_1 s + \ldots + b_m s^m}{a_0 + a_1 s + \ldots + a_n s^n}X(s).$$
Передаточная функция:
$$W(s)=\frac{Y(s)}{X(s)}=\frac{b_0 + b_1 s + \ldots + b_m s^m}{a_0 + a_1 s + \ldots + a_n s^n}.$$
Корни $b_i$~-- нули передаточной функции, корни $a_i$~-- ее полюса.
\end{block}
}
\only<6>{
\begin{block}{Переходная характеристика}
ПХ~--- реакция системы на ступенчатую функцию (Хевисайда): $$Y(s)=\dfrac{1}{s}W(s).$$
Основные виды: апериодическая (монотонная)~-- плавное возрастание или затухание с постоянным знаком
производной; периодическая колебательная~-- бесконечное количество раз смены знака производной с
постоянным периодом; колебательная апериодическая~-- период смены знака производной непостоянен,
его количество конечно.
Для последовательных звеньев $W(s)=\prod_{i=1}^n W_i(s)$. У параллельных суммирующих звеньев
$W(s)=\sum_{i=1}^n W_i(s)$.
Обратная связь: $Y=W_1X_1$, $X_1=X\pm X_2=X\pm W_2 W_1 X_1$, $X_1=X\pm X_1 W_1 W_2$
$$X_1 = \frac{X}{1\mp W_1 W_2},\quad Y=\frac{W_1 X}{1\mp W_1 W_2},\quad
W=\frac{W_1}{1\mp W_1 W_2}.$$
\end{block}
}
\end{frame}
\begin{frame}{Z--преобразования (преобразования Лорана)}
\begin{block}{}
Являются дискретными аналогами преобразований Лапласа.
Z--преобразование дискретного сигнала $\mathrm{i}={i_k}$, где
$k=0,\ldots,\infty$,
имеет следующий вид:
$$
I(z)\equiv\ZT{\mathrm{i}}=\sum_{k=0}^\infty i_k(t)z^{-k},
$$
$$
i_n = \IZT{I}=
\frac1{2\pi}\Oint_C I(z)z^{n}dz,
$$
где $C$~-- контур, охватывающий область сходимости $Z$.
\end{block}
\begin{block}{}
Отклик на сдвиг:
$$\ZT{\strut\mathrm{i}(t+n\Delta t)}=z^n\ZT{\strut\mathrm{i}(t)}.$$
Связь с преобразованием Лапласа ($t\ll\Delta T$):
$$\LT{\strut\mathrm{i}(t)}(s)=\ZT{\strut\mathrm{i}(t)}\e^{-st}.$$
\end{block}
\end{frame}
\section{Фурье--анализ}
\begin{frame}{Фурье--анализ}
\only<1>{
\begin{block}{Ряд Фурье}
$$f(x)=\sum_{n=0}^\infty a'_n\cos(nx)+\sum_{n=1}^\infty b'_n\sin(nx).$$
Коэффициенты $a_n$ и~$b_n$ рассчитываются по формулам
$$a_n=\rev\pi\Int_{-\pi}^\pi f(x)\cos(nx)\,dx,\qquad
b_n=\rev\pi\Int_{-\pi}^\pi f(x)\sin(nx)\,dx.$$
$$\text{Если}\quad S_k(x) = \sum_{n=0}^k a'_n\cos(nx)+\sum_{n=1}^k b'_n\sin(nx),\quad\text{то}$$
$$\lim_{n\to\infty}\Int_{-\pi}^\pi\Bigl(f(x)-S_k(x)\Bigr)dx = 0.$$
\end{block}
}
\only<2>{
\img{aliasing_fourier}
\centering{Ложная синусоида (<<aliasing>>, муар).}
}
\only<3>{
\begin{block}{Свойства}
\begin{itemize}
\item свертка: $\FT{f\cdot g}=\sqrt{2\pi}\FT{f}\cdot\FT{g}$,
\item дифференцирование: $\FT{f^{n}} = (2\pi i\nu)^n\FT{f}$,
\item сдвиг: $\FT{f(x-x_0)\strut}=\e^{-2\pi i\nu x_0}\FT{f}$,
\item частотный сдвиг: $\FT{\e^{iat}f(t)}=F(2\pi\nu-a)$,
\item масштабирование: $\FT{\C f}=\rev{|\C|}\FT{f}(\nu/a)$,
\item $\FT{\delta(t)\strut}=\frac1{\sqrt{2\pi}}$,
\item $\FT{1}=\sqrt{2\pi}\delta(2\pi\nu)$,
\item $\FT{\e^{iat}}=\sqrt{2\pi}\delta(2\pi\nu-a)$.
\end{itemize}
\end{block}
}
\end{frame}
\begin{frame}{}
\only<1>{
\img{FM-AM}
\centering{Спектры ЧМ~(сверху) и АМ~(снизу) сигналов, образованных из двух
одинаковых гармонических сигналов}
}
\only<2>{
\img{Four-filter}
\centering{Фурье-фильтрация. Точками обозначен оригинальный сигнал, линией~---
зашумленный сигнал, кружками~--- отфильтрованный.}
}
\end{frame}
\section{Вейвлет--анализ}
\begin{frame}{Вейвлет--анализ}
\only<1>{
\begin{defin}
Вейвлеты~--- класс функций, использующихся для пространственной и масштабируемой локализации
заданной функции. Семейство вейвлетов может быть образовано из функции~$\psi(x)$ (ее иногда
называют <<материнским вейвлетом>>), ограниченной на конечном интервале. <<Дочерние>> вейвлеты
$\psi^{a,b}(x)$ образуются из <<материнского>> путем сдвига и масштабирования.
\end{defin}
\begin{block}{}
Отдельный вейвлет можно определить как
$$\psi^{a,b}(x)=|a|^{-1/2}\psi\Bigl(\frac{x-b}{a}\Bigr).$$
Тогда базис вейвлетов (\it{}прямое вейвлет--преобразование),
соответствующих функции~$f(x)$ определяется как
$$W_\psi(f)(a,b)=\rev{\sqrt a}\Infint f(t)\psi^*\Bigl(\frac{t-b}{a}\Bigr)\,dt.
\label{waveletb}$$
где $a, b\in \mathbb{R}$, $a\ne0$.
\end{block}
}
% \only<2>{
% \begin{block}{Коэффициенты}
% $$C_{j,k}=W_\psi(f)(2^{-j},k\cdot2^{-j}).$$
%
% \end{block}
% }
\only<2>{
\begin{block}{Дискретное вейвлет--преобразование}
$a=a_{0}^{m},\quad b=nb_{0}$, в этом случае
$$\psi_{{m,n}}=a_{0}^{-m/2}\psi \left(\frac {t-nb_0}{a_0^m}\right).$$
$$W_{m,n}=\Int_{-\infty }^{\infty }x(t)\,\psi_{m,n}^{*}(t)\,dt.$$
$$x(t)=K_\psi \Sum_{m=-\infty}^{\infty }\Sum_{n=-\infty }^\infty W_{m,n}\psi _{m,n}(t),$$
где $K_\psi$~-- постоянная нормировки.
\end{block}
}
% \only<2>{
% \begin{block}{Свойства вейвлетов и требования}
% \begin{itemize}
% \item $\Infint\psi(t)\,dt=0$; $\Infint|\psi(t)|^2 dt<\infty$;
% \item $\WT{af(t)+bg(t)}=a\WT{f(t)}+b\WF{g(t)}$;
% \item $\WT{f(t-t_0)}=
% \end{itemize}
%
% \end{block}
% }
\end{frame}
\begin{frame}{}
\only<1>{
\img[0.9]{wavelet}
\centering{Локализация}
}
\only<2>{
\img[0.6]{scale}
\centering{Масштабирование}
}
\only<3>{
\img[0.8]{fourwav}
\centering{Фурье и вейвлеты}
}
\only<4>{
\img[0.5]{curvelet}
\centering{Курвлеты}
}
\end{frame} \end{frame}

BIN
Komp_obr/07-iproc_1.pdf Normal file

Binary file not shown.

309
Komp_obr/07-iproc_1.tex Normal file
View File

@ -0,0 +1,309 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
%\usepackage{ed}
\usepackage{lect}
\title[ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ. ìÅËÃÉÑ 7.1.]{ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ ÒÅÚÕÌØÔÁÔÏ× ÉÚÍÅÒÅÎÉÊ}
\subtitle{ìÅËÃÉÑ 7.1. ïÂÒÁÂÏÔËÁ ÉÚÏÂÒÁÖÅÎÉÊ}
\date{31 ÍÁÒÔÁ 2021 ÇÏÄÁ}
\begin{document}
% ôÉÔÕÌ
\begin{frame}
\maketitle
\end{frame}
% óÏÄÅÒÖÁÎÉÅ
\begin{frame}
\tableofcontents
\end{frame}
\section{ãÉÆÒÏ×ÙÅ ÉÚÏÂÒÁÖÅÎÉÑ}
\begin{frame}{ãÉÆÒÏ×ÙÅ ÉÚÏÂÒÁÖÅÎÉÑ}
\begin{defin}
éÚÏÂÒÁÖÅÎÉÅ ÐÒÅÄÓÔÁ×ÌÑÅÔ ÓÏÂÏÊ Ä×ÕÍÅÒÎÕÀ ÆÕÎËÃÉÀ $f(x,y)$, ÇÄÅ~$x$ É~$y$~---
ÐÒÏÓÔÒÁÎÓÔ×ÅÎÎÙÅ ËÏÏÒÄÉÎÁÔÙ, Á ÕÒÏ×ÅÎØ~$f$ ÎÁÚÙ×ÁÅÔÓÑ
ÉÎÔÅÎÓÉ×ÎÏÓÔØÀ ÉÚÏÂÒÁÖÅÎÉÑ × ÄÁÎÎÏÊ ÔÏÞËÅ (Ã×ÅÔÎÏÅ ÉÚÏÂÒÁÖÅÎÉÅ Ñ×ÌÑÅÔÓÑ
ÓÏ×ÏËÕÐÎÏÓÔØÀ ÐÏ ËÒÁÊÎÅÊ ÍÅÒÅ ÔÒÅÈ ÆÕÎËÃÉÊ $r(x,y)$, $g(x,y)$ É~$b(x,y)$).
åÓÌÉ ×ÅÌÉÞÉÎÙ~$x$, $y$ É~$f$ ÐÒÉÎÉÍÁÀÔ ÄÉÓËÒÅÔÎÙÅ ÚÎÁÞÅÎÉÑ, ÇÏ×ÏÒÑÔ Ï ÃÉÆÒÏ×ÏÍ
ÉÚÏÂÒÁÖÅÎÉÉ. üÌÅÍÅÎÔÁÒÎÁÑ ÅÄÉÎÉÃÁ ÃÉÆÒÏ×ÏÇÏ ÉÚÏÂÒÁÖÅÎÉÑ ÎÁÚÙ×ÁÅÔÓÑ
ÐÉËÓÅÌÅÍ.
\end{defin}
\begin{block}{äÉÓËÒÅÔÉÚÁÃÉÑ}
ðÒÏÃÅÄÕÒÕ Ë×ÁÎÔÏ×ÁÎÉÑ (\bf ÄÉÓËÒÅÔÉÚÁÃÉÉ) Ë×ÁÚÉÎÅÐÒÅÒÙ×ÎÏÇÏ ÉÚÏÂÒÁÖÅÎÉÑ $I_0(X,Y)$ ÍÏÖÎÏ ÐÒÅÄÓÔÁ×ÉÔØ × ×ÉÄÅ:
$$
I(x,y)=\mathrm{round}\Bigl(\frac{2^N-1}{I_{max}}\Int_{S_{x,y}}I_0(X,Y)
\,dXdY\Bigr)+\delta_{x,y}.
$$
\end{block}
\end{frame}
\begin{frame}{RGB-ÍÏÄÅÌØ}
\only<1>{
\img[0.6]{RGB}
\centering{áÄÄÉÔÉ×ÎÁÑ RGB-ÍÏÄÅÌØ}
}\only<2>{
\img[0.6]{sRGB}
}
\end{frame}
\begin{blueframe}{CMYK-ÍÏÄÅÌØ}
\only<1>{
\img[0.5]{CMYK}
\centering{óÕÂÓÔÒÁËÔÉ×ÎÁÑ CMYK-ÍÏÄÅÌØ}
}\only<2>{
\img[0.6]{colormodels}
}
\end{blueframe}
\begin{frame}{}
\img[0.6]{Bayer_pattern}
\centering{íÁÓËÁ âÁÊÅÒÁ}
\end{frame}
\section{íÁÔÅÍÁÔÉÞÅÓËÉÊ ÁÐÐÁÒÁÔ}
\begin{frame}{íÁÔÅÍÁÔÉÞÅÓËÉÊ ÁÐÐÁÒÁÔ}
\only<1>{\img[0.7]{neighbourhoods}
\centering{óÏÓÅÄÓÔ×Ï}}
\only<2>{\img[0.6]{connregs}
\centering{ó×ÑÚÎÏÓÔØ}
}
\only<3>{\img[0.6]{msquare}
\centering{çÒÁÎÉÃÙ, ËÏÎÔÕÒÙ}
}
\end{frame}
\begin{frame}{}
\begin{block}{òÁÓÓÔÏÑÎÉÅ}
\begin{itemize}
\item å×ËÌÉÄÏ×Ï: $D_{e(p,q)}=\sqrt{(x_p-x_q)^{2}+(y_{p}-y_{q})^{2}}$.
\item íÅÔÒÉËÁ $L_{1}$: $D_{4}(p,q)=|x_{p}-x_{q}|+|y_{p}-y_{q}|$.
\item íÅÔÒÉËÁ $L_{\infty}$: $D_{8}(p,q)=\max\bigl(|x_{p}-x_{q}|,|y_{p}-y_{q}|\bigr)$.
\end{itemize}
\end{block}
\begin{block}{ðÏÜÌÅÍÅÎÔÎÙÅ É ÍÁÔÒÉÞÎÙÅ ÏÐÅÒÁÃÉÉ}
$$A=\begin{bmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{bmatrix},\quad{}
B=\begin{bmatrix}b_{11}&b_{12}\\b_{21}&b_{22}\end{bmatrix}.$$
ðÏÜÌÅÍÅÎÔÎÏÅ ÐÒÏÉÚ×ÅÄÅÎÉÅ:
$$A\cdot B = \begin{bmatrix}a_{11}b_{11}&a_{12}b_{12}\\a_{21}b_{21}&a_{22}b_{22}\end{bmatrix}.$$
íÁÔÒÉÞÎÏÅ ÐÒÏÉÚ×ÅÄÅÎÉÅ:
$$A\times B = \begin{bmatrix}a_{11}b_{11}+a_{12}b_{21}&a_{11}b_{12}+a_{12}b_{22}\\
a_{21}b_{11}+a_{22}b_{21}&a_{21}b_{12}+a_{22}b_{22}\end{bmatrix}.$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{áÆÆÉÎÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
$$\begin{pmatrix}x'&y'&1\end{pmatrix}=\begin{pmatrix}x&y&1\end{pmatrix}\times\B{T}.$$
\end{block}
\begin{columns}\column{0.5\textwidth}
\begin{block}{}
ôÏÖÄÅÓÔ×Ï: $\B{T}=\begin{pmatrix}1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
íÁÓÛÔÁÂ: $\B{T}=\begin{pmatrix}c_{x} & 0 & 0\\ 0 & c_{y} & 0\\ 0 & 0 & 1\end{pmatrix},$\\
ðÏ×ÏÒÏÔ: $\B{T}=\begin{pmatrix}\cos\theta & \sin\theta & 0\\ -\sin\theta & \cos\theta & 0\\ 0 & 0 & 1\end{pmatrix},$\\
óÄ×ÉÇ: $\B{T}=\begin{pmatrix}1 & 0 & 0\\ 0 & 1 & 0\\ t_{x} & t_{y} & 1\end{pmatrix},$\\
\end{block}
\column{0.45\textwidth}
\begin{block}{}
óËÏÓ $y$: $\B{T}=\begin{pmatrix}1 & 0 & 0\\ s_{v} & 1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
óËÏÓ $x$: $\B{T}=\begin{pmatrix}1 & s_{h} & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
ïÔÒÁÖÅÎÉÅ $x$: $\B{T}=\begin{pmatrix}1 & 0 & 0\\ 0 & -1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
ïÔÒÁÖÅÎÉÅ $y$: $\B{T}=\begin{pmatrix}-1 & 0 & 0\\ 0 & 1 & 0\\ 0 & 0 & 1\end{pmatrix},$\\
\end{block}
\end{columns}
\begin{block}{}ëÏÍÂÉÎÁÃÉÑ ÐÒÅÂÒÁÚÏ×ÁÎÉÊ: $\B{M}=\prod_{i}\B{T_{i}}$\end{block}
\end{frame}
\section{ðÒÏÓÔÒÁÎÓÔ×ÅÎÎÙÅ É ÇÒÁÄÁÃÉÏÎÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
\begin{frame}{ðÒÏÓÔÒÁÎÓÔ×ÅÎÎÙÅ É ÇÒÁÄÁÃÉÏÎÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
\begin{defin}
ðÒÅÏÂÒÁÚÏ×ÁÎÉÑ × ÐÒÏÓÔÒÁÎÓÔ×ÅÎÎÏÊ ÏÂÌÁÓÔÉ ÒÁÂÏÔÁÀÔ ÎÅÐÏÓÒÅÄÓÔ×ÅÎÎÏ Ó ÐÉËÓÅÌÑÍÉ ÉÚÏÂÒÁÖÅÎÉÑ:
$$T(u,v)=\Sum_{x=0}^{M-1}\Sum_{y=0}^{N-1}f(x,y)r(x,y,u,v),\qquad\text{ÇÄÅ $r$~-- ÑÄÒÏ
ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ.}$$
\end{defin}
\begin{block}{çÒÁÄÁÃÉÏÎÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ ($I\in[0, L-1]$, $I'=r(I)$)}
\begin{itemize}
\item ÎÅÇÁÔÉ×: $r = L-1 -I$;
\item ÌÏÇÁÒÉÆÍÉÞÅÓËÏÅ: $r=\C\ln(1+I)$;
\item ÇÁÍÍÁ-ËÏÒÒÅËÃÉÑ: $r=\C(L-1)\cdot i^\gamma$, $i=\dfrac{I}{L-1}$;
\item ËÕÓÏÞÎÏ-ÌÉÎÅÊÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ (ÕÓÉÌÅÎÉÅ ËÏÎÔÒÁÓÔÁ).
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{}
\only<1>{
\img[0.8]{bitplanes}
\centering{âÉÔÏ×ÙÅ ÐÌÏÓËÏÓÔÉ}
}\only<2>{
\img[0.4]{graycode}
\centering{âÉÔÏ×ÙÅ ÐÌÏÓËÏÓÔÉ × ËÏÄÁÈ çÒÅÑ}
}
\end{frame}
\begin{frame}{çÉÓÔÏÇÒÁÍÍÁ}
\img[0.9]{histogram}
\end{frame}
\begin{frame}{}
\only<1>{
\begin{block}{üË×ÁÌÉÚÁÃÉÑ ÇÉÓÔÏÇÒÁÍÍÙ}
$$s_k=(L-1)\Sum_{j=0}^{k}p_j=\frac{L-1}{MN}\Sum_{j=0}^{k}n_j.$$
\end{block}
\img[0.7]{histeq}
}
\only<2>{
\begin{block}{ðÒÉ×ÅÄÅÎÉÅ ÇÉÓÔÏÇÒÁÍÍÙ $p_r\arr p_z$}
\begin{enumerate}
\item ðÏÌÕÞÅÎÉÅ ÜË×ÁÌÉÚÏ×ÁÎÎÏÊ ÇÉÓÔÏÇÒÁÍÍÙ, $s_k$.
\item ÷ÙÞÉÓÌÅÎÉÅ ÆÕÎËÃÉÉ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ $G(z_q)=(L-1)\Sum_{j=0}^{q}p_z(z_j)$.
\item îÁÈÏÖÄÅÎÉÅ ÄÌÑ ËÁÖÄÏÇÏ $s_k$ ÓÏÏÔ×ÅÔÓÔ×ÕÀÝÅÇÏ ÚÎÁÞÅÎÉÑ $z_q$, ÄÌÑ ËÏÔÏÒÏÇÏ $G(z_q)$ ÎÁÉÂÏÌÅÅ
ÂÌÉÚËÏ Ë~$s_k$.
\item æÏÒÍÉÒÏ×ÁÎÉÅ ÐÒÉ×ÅÄÅÎÎÏÇÏ ÉÚÏÂÒÁÖÅÎÉÑ.
\end{enumerate}
\end{block}
}
\only<3,4>{
\begin{block}{ìÏËÁÌØÎÁÑ ÇÉÓÔÏÇÒÁÍÍÎÁÑ ÏÂÒÁÂÏÔËÁ}
\only<3>{\img[0.8]{h1}}
\only<4>{\img[0.8]{h2}}
\end{block}
}
\end{frame}
\begin{frame}{üË×ÁÌÉÚÁÃÉÑ ÇÉÓÔÏÇÒÁÍÍÙ}
\only<1>{M13: ÂÅÚ É Ó ÜË×ÁÌÉÚÁÃÉÅÊ:\\
\smimg[0.48]{M13_nohisteq}\hfil\smimg[0.48]{M13_histeq}
}
\only<2>{M29: ÂÅÚ É Ó ÜË×ÁÌÉÚÁÃÉÅÊ:\\
\smimg[0.48]{M29_nohisteq}\hfil\smimg[0.48]{M29_histeq}
}
\end{frame}
\def\svec#1{\begin{smallmatrix}#1\end{smallmatrix}}
\def\smat#1{\begin{pmatrix}#1\end{pmatrix}}
\def\pb#1#2{\parbox{0.4\textwidth}{\centering{#1}\par\noindent\centering{\includegraphics{#2}}}}
\begin{frame}{ðÒÏÓÔÒÁÎÓÔ×ÅÎÎÁÑ ÆÉÌØÔÒÁÃÉÑ}
\only<1>{
\begin{block}{}
$$f=\svec{0&0&0&1&0&0&0&0},\qquad w=\svec{1&2&3&4&5}.$$
\end{block}
\begin{columns}
\column{0.48\textwidth}
\begin{block}{ëÏÒÒÅÌÑÃÉÑ, $v=f\star w$}
$$0:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\1&2&3&4&5\\}$$
$$3:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\0&0&0&1&2&3&4&5\\}$$
$$7:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\0&0&0&0&0&0&0&1&2&3&4&5\\}$$
$$a:\qquad\svec{0&0&0&5&4&3&2&1&0&0&0&0}$$
$$v:\qquad\svec{0&5&4&3&2&1&0&0}$$
\end{block}
\column{0.48\textwidth}
\begin{block}{ó×ÅÒÔËÁ, $v=f*w$}
$$0:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\5&4&3&2&1\\}$$
$$3:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\0&0&0&5&4&3&2&1\\}$$
$$7:\qquad\svec{0&0&0&0&0&0&0&1&0&0&0&0&0&0&0&0\\0&0&0&0&0&0&0&5&4&3&2&1\\}$$
$$a:\qquad\svec{0&0&0&1&2&3&4&5&0&0&0&0}$$
$$v:\qquad\svec{0&1&2&3&4&5&0&0}$$
\end{block}
\end{columns}
}\only<2>{
\begin{columns}
\column{0.48\textwidth}
\begin{block}{}
\pb{éÄÅÎÔÉÞÎÏÓÔØ}{Vd-Orig} $\smat{0&0&0\\0&1&0\\0&0&0}$\\[2pt]
\pb{$f'(x,y)$}{Vd-Edge1} $\smat{1&0&-1\\0&0&0\\-1&0&1}$\\[2pt]
\pb{ìÁÐÌÁÓÉÁÎ}{Vd-Edge2} $\smat{0&1&0\\1&-4&1\\0&1&0}$\\[2pt]
\pb{ìÁÐÌÁÓÉÁÎ}{Vd-Edge3} $\smat{1&1&1\\1&-8&1\\1&1&1}$
\end{block}
\column{0.48\textwidth}
\begin{block}{}
\pb{òÅÚËÏÓÔØ}{Vd-Sharp} $\smat{0&-1&0\\-1&5&-1\\0&-1&0}$\\[2pt]
\pb{òÁÚÍÙÔÉÅ}{Vd-Blur2} $\dfrac{1}{9}\smat{1&1&1\\1&1&1\\1&1&1}$\\[2pt]
\pb{çÁÕÓÓ}{Vd-Blur1} $\dfrac{1}{16}\smat{1&2&1\\2&4&2\\1&2&1}$\\[2pt]
\pb{LoG}{Vd-LOG} $\dfrac{1}{64}\smat{11&27&11\\27&-202&27\\11&27&11}$
\end{block}
\end{columns}
}
\end{frame}
\begin{frame}{ðÒÏÓÔÒÁÎÓÔ×ÅÎÎÁÑ ÆÉÌØÔÒÁÃÉÑ FITS}
\only<1>{ïÒÉÇÉÎÁÌ:\\
\smimg[0.5]{objFull}\;\smimg[0.5]{objCrop}
}
\only<2>{æÉÌØÔÒ çÁÕÓÓÁ $1\times1$ ÐÉËÓÅÌØ:\\
\smimg[0.5]{gaussFull}\;\smimg[0.5]{gaussCrop}
}
\only<3>{æÉÌØÔÒ ÌÁÐÌÁÓÉÁÎÁ ÇÁÕÓÓÉÁÎÙ $1\times1$ ÐÉËÓÅÌØ:\\
\smimg[0.5]{lapgaussFull}\;\smimg[0.5]{lapgaussCrop}
}
\only<4>{æÉÌØÔÒ ðÒÀÉÔÔÁ (ÇÏÒÉÚÏÎÔÁÌØÎÙÊ):\\
\smimg[0.5]{prewitthFull}\;\smimg[0.5]{prewitthCrop}
}
\only<5>{æÉÌØÔÒ ðÒÀÉÔÔÁ (×ÅÒÔÉËÁÌØÎÙÊ):\\
\smimg[0.5]{prewittvFull}\;\smimg[0.5]{prewittvCrop}
}
\only<6>{ðÒÏÓÔÏÊ ÇÒÁÄÉÅÎÔ (ÞÅÒÅÚ ÆÉÌØÔÒÙ ðÒÀÉÔÔÁ):\\
\smimg[0.5]{gradientFull}\;\smimg[0.5]{gradientCrop}
}
\end{frame}
\begin{frame}{}
\only<1>{
\begin{block}{íÅÄÉÁÎÎÁÑ ÆÉÌØÔÒÁÃÉÑ}
\centering{\includegraphics[width=0.4\textwidth]{image020} \hspace{3em}
\includegraphics[width=0.4\textwidth]{image021}}
\end{block}
}\only<2>{
\begin{block}{áÄÁÐÔÉ×ÎÙÊ ÍÅÄÉÁÎÎÙÊ ÆÉÌØÔÒ}
úÏÎÁ $K\times K$ ÐÉËÓÅÌÅÊ, $I_{min}$, $I_{max}$, $I_{med}$, $I_{xy}$ (ÉÎÔÅÎÓÉ×ÎÏÓÔØ × ÄÁÎÎÏÊ
ÔÏÞËÅ), $K_{max}$~-- ÍÁËÓÉÍÁÌØÎÙÊ ÒÁÚÍÅÒ ÚÏÎÙ.
\begin{enumerate}
\item $A_1=I_{med}-I_{min}$, $A_2=I_{med}-I_{max}$; ÅÓÌÉ $A_1>0$ É $A_2<0$ ÐÅÒÅÈÏÄ ÎÁ 2, ÉÎÁÞÅ
$++K$; ÅÓÌÉ $K<K_{max}$, ÐÏ×ÔÏÒÉÔØ, ÉÎÁÞÅ ×ÅÒÎÕÔØ $I_{xy}$.
\item $B_1=I_{xy}-I_{min}$, $B_2=I_{xy}-I_{max}$; ÅÓÌÉ $B_1>0$ É $B_2<0$, ×ÅÒÎÕÔØ $I_{xy}$, ÉÎÁÞÅ
×ÅÒÎÕÔØ $I_{med}$.
\end{enumerate}
\end{block}
}\only<3>{
\centering{\includegraphics[width=0.35\textwidth]{imf_ori} \hspace{3em}
\includegraphics[width=0.377\textwidth]{imf_mean}}
\centering{\includegraphics[width=0.377\textwidth]{imf_median} \hspace{3em}
\includegraphics[width=0.35\textwidth]{imf_adpmed}}
}
\only<4>{íÅÄÉÁÎÎÁÑ ÆÉÌØÔÒÁÃÉÑ $r=1$\,ÐÉËÓÅÌØ É $r=5$\,ÐÉËÓÅÌÅÊ:\\
\smimg[0.5]{median1}\;\smimg[0.5]{median5}
}
\only<5>{ïÒÉÇÉÎÁÌ, ÁÄÁÐÔÉ×ÎÁÑ ÍÅÄÉÁÎÁ ($r=1$) É ÍÅÄÉÁÎÁ ($r=1$):\\
\img{oriadpmed}
}
\end{frame}
\section{þÁÓÔÏÔÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
\begin{frame}{þÁÓÔÏÔÎÙÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ}
\begin{block}{ä×ÕÍÅÒÎÏÅ äðæ}
$$F(u,v)=\Sum_{x=0}^{M-1}\Sum_{y=0}^{N-1} f(x,y) \exp\Bigl(-2\pi
i\bigl(\frc{ux}{M}+\frc{vy}{N}\bigr)\Bigr).$$
$$f(x,y)=\frac{1}{MN}\Sum_{u=0}^{M-1}\Sum_{v=0}^{N-1} F(u,v) \exp\Bigl(2\pi
i\bigl(\frc{ux}{M}+\frc{vy}{N}\bigr)\Bigr).$$
\end{block}
\centering{\includegraphics[width=0.4\textwidth]{Vd-Fpwr} \hspace{3em}
\includegraphics[width=0.4\textwidth]{Vd-phase}}
\end{frame}
\begin{frame}{}
\img{fft}
\end{frame}
\begin{frame}{óÐÁÓÉÂÏ ÚÁ ×ÎÉÍÁÎÉÅ!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

BIN
Komp_obr/07-iproc_2.pdf Normal file

Binary file not shown.

273
Komp_obr/07-iproc_2.tex Normal file
View File

@ -0,0 +1,273 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ. ìÅËÃÉÑ 7.2.]{ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ ÒÅÚÕÌØÔÁÔÏ× ÉÚÍÅÒÅÎÉÊ}
\subtitle{ìÅËÃÉÑ 7.2. ïÂÒÁÂÏÔËÁ ÉÚÏÂÒÁÖÅÎÉÊ}
\date{1 ÁÐÒÅÌÑ 2021 ÇÏÄÁ}
\begin{document}
% ôÉÔÕÌ
\begin{frame}
\maketitle
\end{frame}
% óÏÄÅÒÖÁÎÉÅ
\begin{frame}
\tableofcontents
\end{frame}
\section{÷ÅÊ×ÌÅÔÙ}
\begin{frame}{÷ÅÊ×ÌÅÔÙ}
\only<1>{\img[0.6]{pyramid}
\begin{block}{ðÉÒÁÍÉÄÁ ÉÚÏÂÒÁÖÅÎÉÊ}
ðÉÒÁÍÉÄÁ ÐÒÉÂÌÉÖÅÎÉÊ (ÁÐÐÒÏËÓÉÍÉÒÕÀÝÉÅ ËÏÜÆÆÉÃÉÅÎÔÙ), ÐÉÒÁÍÉÄÁ ÏÛÉÂÏË (ÄÅÔÁÌÉÚÉÒÕÀÝÉÅ ËÏÜÆÆÉÃÉÅÎÔÙ).
ðÉÒÁÍÉÄÁ ìÁÐÌÁÓÁ (ÔÏÌØËÏ ÐÉÒÁÍÉÄÁ ÏÛÉÂÏË, ËÏÍÐÒÅÓÓÉÑ); ÇÁÕÓÓÏ×Á ÐÉÒÁÍÉÄÁ (ÔÏÌØËÏ ÐÒÉÂÌÉÖÅÎÉÑ, ÓÉÎÔÅÚ
ÔÅËÓÔÕÒ).\end{block}}
\only<2>{\img[0.7]{lappyramid}}
\only<3>{\img[0.5]{orapple}\centerline{
ïÂßÅÄÉÎÅÎÉÅ ÐÉÒÁÍÉÄ ìÁÐÌÁÓÁ.}}
\end{frame}
\begin{frame}{÷ÅÊ×ÌÅÔÙ}
\only<1>{\img[0.6]{2d-haar-basis}}
\only<2>{\img[0.8]{wvpyramid01}}
\only<3>{\img[0.8]{wvpyramid02}}
\only<4>{\img[0.8]{wvpyramid}}
\only<5>{\img[0.8]{wvpyramid03}}
\end{frame}
\begin{frame}{ðÁËÅÔÙ ×ÅÊ×ÌÅÔÏ×}
\only<1>{\img[0.95]{wpack01}}
\only<2>{\img[0.95]{wpack02}}
\only<3>{\img[0.7]{wpack03}}
\only<4>{\img[0.8]{wpack04}\tiny (a) normal brain; (b) 2-level DWT of normal brain; (c) 2-level
DWPT of normal brain; (d) AD brain; (e) 2-level DWT of AD brain; (f) 2-level DWPT of AD brain.}
\end{frame}
\section{íÏÒÆÏÌÏÇÉÞÅÓËÉÅ ÏÐÅÒÁÃÉÉ}
\begin{frame}{íÏÒÆÏÌÏÇÉÞÅÓËÉÅ ÏÐÅÒÁÃÉÉ}
\only<1>{
\begin{block}{ïÓÎÏ×ÎÙÅ ÐÏÎÑÔÉÑ}
\begin{itemize}
\item ðÕÓÔØ $A$~-- ÎÅËÏÔÏÒÁÑ ÏÂÌÁÓÔØ ÎÁ ÂÉÎÁÒÎÏÍ ÉÚÏÂÒÁÖÅÎÉÉ, $a=(a_1,a_2)\in A$~-- ÔÏÞËÁ, ÅÊ
ÐÒÉÎÁÄÌÅÖÁÝÁÑ; ÉÎÔÅÎÓÉ×ÎÏÓÔØ × ÔÏÞËÅ $a$ ÏÂÏÚÎÁÞÉÍ ËÁË $v(a)$.
\item {\bf ïÂßÅËÔ}: $A=\{a\;|\;v(a)==1, \forall a \text{ 4/8-connected}\}$.
\item {\bf æÏÎ}: $B=\{b\;|\;b==0 \cup b\text{ not connected}\}$.
\item {\bf óÄ×ÉÇ}: $A_x=\{c\;|\;c=a+x, \forall a\in A\}$.
\item {\bf ïÔÒÁÖÅÎÉÅ}: $\hat A=\{c \;|\; c=-a, \forall a\in A\}$.
\item {\bf äÏÐÏÌÎÅÎÉÅ}: $A^C=\{c \;|\; c\notin A\}$.
\item {\bf óÕÍÍÁ}: $A+B=\{c \;|\; c\in (A\cup B)\}=A\cup B$.
\item {\bf òÁÚÎÏÓÔØ}: $A-B=\{c \;|\; c\in A, c\notin B\}=A \cap B^C$.
\end{itemize}
\end{block}}
\only<2>{\img[0.8]{baseimop}}
\end{frame}
\begin{frame}{üÒÏÚÉÑ (ÕÓÅÞÅÎÉÅ)}
\begin{block}{}
$$A\ominus B=\{x \;|\; B_x\subseteq A\}\text{ ÉÌÉ }
A\ominus B=\{x \;|\; B_x\cap A^C=\varnothing\}\text{ ÉÌÉ }
A\ominus B=\bigcap_{b\in B}A_b
$$
\end{block}
\only<1>{\img[0.7]{erosion}}
\only<2>{\img[0.7]{erosion01}}
\only<3>{\img{erosion02}}
\end{frame}
\begin{frame}{äÉÌÁÔÁÃÉÑ (ÎÁÒÁÝÉ×ÁÎÉÅ)}
\begin{block}{}
$$A\oplus B = \{x \;|\; \hat B_z\cap A \ne\varnothing\} \text{ ÉÌÉ }
A\oplus B = \bigcup_{b\in B}A_b=\bigcup_{a\in A}B_a
$$
\end{block}
\only<1>{\img[0.7]{dilation}}
\only<2>{\img{dilation01}}
\end{frame}
\begin{frame}{ó×ÏÊÓÔ×Á}
\begin{block}{}
\centerline{ëÏÍÍÕÔÁÔÉ×ÎÏÓÔØ:}
$$A\oplus B = B\oplus A\qquad A\ominus B \ne B\ominus A$$
\centerline{áÓÓÏÃÉÁÔÉ×ÎÏÓÔØ:}
$$A\oplus (B\cup C)=(A\oplus B)\cup(A\oplus C)\qquad A\ominus (B\cup C)=(A\ominus B)\cap(A\ominus
C)$$
$$(A\ominus B)\ominus C = A\ominus(B\oplus C)$$
\centerline{ä×ÏÊÓÔ×ÅÎÎÏÓÔØ:}
$$(A\ominus B)^C=A^C\oplus\hat B\qquad
(A\oplus B)^C =A^C\ominus\hat B$$
\end{block}
\end{frame}
\begin{frame}{ïÔËÒÙÔÉÅ (ÒÁÚÍÙËÁÎÉÅ)}
\begin{block}{}$$A\circ B = (A\ominus B)\oplus B$$\end{block}
\img{opening01}
\end{frame}
\begin{frame}{úÁËÒÙÔÉÅ (ÚÁÍÙËÁÎÉÅ)}
\begin{block}{}
$$A\bullet B = (A\oplus B)\ominus B$$
\img{closing01}
\end{block}
\end{frame}
\begin{frame}{}
\img{morph01}
\end{frame}
\begin{frame}{<<Top hat>> É <<Bottom hat>>}
\begin{block}{}
$$A\hat\circ B = A\backslash (A\circ B), \qquad
A\hat\bullet B = (A\bullet B)\backslash A$$
\end{block}
\only<1>{\img[0.8]{tophat}}
\only<2>{\img[0.8]{bottomhat}}
\end{frame}
\begin{frame}{Hit-and-miss}
\only<1,2>{\begin{block}{}$$A \circledast B = (A\ominus B_1)\cap(A^C\ominus B_2),\quad\text{ÇÄÅ}$$
$$B_1=\{b \;|\; b\in B, b=1\},\; B_2=\{\tilde b \;|\; b\in B, b=0\}$$
\end{block}}
\only<1>{\img[0.8]{hitamiss01}}
\only<2>{\img[0.8]{hitamiss02}}
\only<3>{\img[0.8]{hit_and_miss_skel}$$S=A\backslash \bigcup_{i}(A\circledast B_i)$$}
\only<4>{\img{skel01}}
\only<5>{\img{skel02}}
\end{frame}
\section{óÅÇÍÅÎÔÁÃÉÑ ÉÚÏÂÒÁÖÅÎÉÊ}
\begin{frame}{óÅÇÍÅÎÔÁÃÉÑ ÉÚÏÂÒÁÖÅÎÉÊ}
\begin{block}{ïÓÎÏ×Ù}
\begin{itemize}
\item óÅÇÍÅÎÔÁÃÉÑ: $\cup_{i=1}^n R_i \,\cup\, \cup_{i=1}^n B_i= R$, ×ÓÅ $R_i$ Ó×ÑÚÎÙÅ, $B_i$~--
ÆÏÎ.
\item $R_i\cap R_j=\varnothing$ $\forall i\ne j$.
\item $Q(R_i) = 1$, $i=\overline{1,n}$, $Q$~-- ÌÏÇÉÞÅÓËÉÊ ÐÒÅÄÉËÁÔ.
\item $Q(R_i\cup R_j)=0$ $\forall i\ne j$.
\end{itemize}
\end{block}
\begin{block}{ðÒÏÉÚ×ÏÄÎÙÅ}
\begin{itemize}
\item $\partder{f}{x}\equiv f'_x=f(x+1)-f(x)$
\item $\dpartder{f}{x}\equiv f''_x = f'_x(x+1)-f'_x(x)=f(x+2)+f(x)-2f(x+1)$
\item $\nabla^2f(x,y) = f''_x(x,y)+f''_y(x,y) \Arr$
$\nabla^2 f(x,y)=f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1)-4f(x,y)$
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{ðÒÉÍÅÒÙ (M13)}
\only<1>{ïÒÉÇÉÎÁÌ:\\
\smimg[0.5]{origFull}\;\smimg[0.5]{origCrop}
}
\only<2>{âÉÎÁÒÉÚÁÃÉÑ ÐÏ ÐÏÓÔÏÑÎÎÏÍÕ ÐÏÒÏÇÕ:\\
\smimg[0.5]{binFull}\;\smimg[0.5]{binCrop}
}
\only<3>{þÅÔÙÒÅÈËÒÁÔÎÁÑ ÜÒÏÚÉÑ:\\
\smimg[0.5]{erosion4Full}\;\smimg[0.5]{erosion4Crop}
}
\only<4>{þÅÔÙÒÅÈËÒÁÔÎÏÅ ÒÁÚÍÙËÁÎÉÅ:\\
\smimg[0.5]{opening4Full}\;\smimg[0.5]{opening4Crop}
}
\only<5>{ïÒÉÇÉÎÁÌ Ó ÐÒÅÄÙÄÕÝÅÊ ÍÁÓËÏÊ:\\
\smimg[0.5]{objE4D4Full}\;\smimg[0.5]{objE4D4Crop}
}
\only<6>{ä×ÁÄÃÁÔÉÐÑÔÉËÒÁÔÎÁÑ ÜÒÏÚÉÑ:\\
\smimg[0.5]{erosion25Full}\;\smimg[0.5]{erosion25Crop}
}
\only<7>{íÁÓËÁ (25 ÜÒÏÚÉÊ É 200 ÄÉÌÁÔÁÃÉÊ):\\
\smimg[0.5]{opE25D200Full}\;\smimg[0.5]{opE25D200Crop}
}
\only<8>{ïÒÉÇÉÎÁÌ Ó ÐÒÅÄÙÄÕÝÅÊ ÍÁÓËÏÊ:\\
\smimg[0.5]{objE25D200Full}\;\smimg[0.5]{objE25D200Crop}
}
\only<9>{÷ÙÄÅÌÅÎÎÙÅ ÏÂßÅËÔÙ (ÒÁÚÍÙËÁÎÉÅ È4 É È10; 237 É 9 ÏÂßÅËÔÏ× × ÐÏÌÅ ÓÏÏÔ×ÅÔÓÔ×ÅÎÎÏ):\\
\smimg[0.5]{count4}\;\smimg[0.5]{count10}
}
\end{frame}
\begin{frame}{ïÂÎÁÒÕÖÅÎÉÅ ÌÉÎÉÊ, ÔÏÞÅË É ÐÅÒÅÐÁÄÏ×}
\only<1>{\centerline{ôÏÞËÉ --- ÌÁÐÌÁÓÉÁÎ, ÌÉÎÉÉ, ÐÅÒÅÐÁÄÙ --- ÇÒÁÄÉÅÎÔ}\img[0.8]{prewitt}
\centerline{Prewitt}}
\only<2>{\img[0.7]{compmask}}
\only<3>{\begin{block}{çÒÁÄÉÅÎÔ}
$$\nabla \vec f = (f'_x, f'_y) = \bigl(f(x+1,y)-f(x,y), f(x,y+1)-f(x,y)\bigr)$$
\end{block}\img[0.8]{imgrad}}
\end{frame}
\begin{frame}{÷ÙÄÅÌÅÎÉÅ ÇÒÁÎÉÃ}
\only<1>{\begin{block}{íÏÒÆÏÌÏÇÉÞÅÓËÉÊ ÇÒÁÄÉÅÎÔ}
$$\beta(A)=A\backslash(A\ominus B)\qquad
\beta'(A)=(A\oplus B)\backslash A\qquad
\beta''(A)=(A\oplus B)\backslash(A\ominus B)$$
\end{block}\img{morphgrad}}
\only<2>{\begin{block}{Canny}
\begin{enumerate}
\item òÁÚÍÙ×ÁÎÉÅ ÉÚÏÂÒÁÖÅÎÉÑ ÇÁÕÓÓÏ×ÙÍ ÆÉÌØÔÒÏÍ.
\item ÷ÙÞÉÓÌÅÎÉÅ ÞÁÓÔÎÙÈ ÐÒÏÉÚ×ÏÄÎÙÈ $I'_x$ É $I'_y$ (òÏÂÅÒÔÓ, óÏÂÅÌØ, ðÒÀÉÔÔ, LoG, DoG\dots) É
ËÏÍÐÏÎÅÎÔÏ× ÇÒÁÄÉÅÎÔÁ: $M=\sqrt{(I'_x)^2+(I'_y)^2}$, $\theta=\arctg\frc{I'_y}{I'_x}$.
\item ðÏÒÏÇÏ×ÏÅ ÐÒÅÏÂÒÁÚÏ×ÁÎÉÅ $M$: $M_T = M$, ÅÓÌÉ $M>T$, ÉÎÁÞÅ $M_T=0$.
\item ïÂÎÕÌÅÎÉÅ ÎÅÍÁËÓÉÍÁÌØÎÙÈ $M_T$ ÐÏ ÎÁÐÒÁ×ÌÅÎÉÀ $\theta$ (ÐÏ Ä×ÕÍ ÓÏÓÅÄÑÍ).
\item ðÏÌÕÞÅÎÉÅ Ä×ÕÈ ÐÏÒÏÇÏ×ÙÈ ÚÎÁÞÅÎÉÊ: $M_{T_1}$ É $M_{T_2}$; $T_1<T_2$.
\item úÁÐÏÌÎÅÎÉÅ ÐÒÏÐÕÓËÏ× × $M_{T_2}$ ÐÏ ÓÏÓÅÄÎÉÍ ÚÎÁÞÅÎÉÑÍ × $M_{T_1}$.
\end{enumerate}
\end{block}}
\only<3>{\img[0.6]{canny01}\centerline{ïÂÒÁÚÅÃ}}
\only<4>{\img[0.6]{canny02}\centerline{Sobel}}
\only<5>{\img[0.6]{canny03}\centerline{Prewitt}}
\only<6>{\img[0.6]{canny04}\centerline{DoG}}
\only<7>{\img[0.6]{canny05}\centerline{Canny, $\sigma=5$, $T_1=0.8$, $T_2=0.95$}}
\end{frame}
\begin{frame}{ïÂÎÁÒÕÖÅÎÉÅ ÐÒÑÍÙÈ É ÏËÒÕÖÎÏÓÔÅÊ}
\only<1>{\begin{block}{ðÒÅÏÂÒÁÚÏ×ÁÎÉÅ èÁÆÁ}
$$r = x\cos\theta + y\sin\theta$$
\end{block}
\img[0.5]{R_theta_line}}
\only<2>{\img{htdiagram}}
\only<3>{\img[0.7]{htexample}}
\only<4>{\img{htEx}}
\only<5>{\includegraphics[width=0.48\textwidth]{h01}\hfil
\includegraphics[width=0.48\textwidth]{h02}}
\only<6>{\begin{block}{ðÒÅÏÂÒÁÚÏ×ÁÎÉÅ èÁÆÁ ÄÌÑ ÐÏÉÓËÁ ÏËÒÕÖÎÏÓÔÅÊ}
$$(x-x_c)^2+(y-y_c)^2=r^2$$
\end{block}\img{htcirc01}}
\only<7>{\img{htcirc02}\centerline{ôÒÅÈÍÅÒÎÙÊ ÍÁÓÓÉ× × ÓÌÕÞÁÅ ÎÅÉÚ×ÅÓÔÎÙÈ ÃÅÎÔÒÁ É ÒÁÄÉÕÓÁ.}}
\end{frame}
\begin{frame}{ðÒÉÍÅÒ: ÄÁÔÞÉË ×ÏÌÎÏ×ÏÇÏ ÆÒÏÎÔÁ}
\img{Hough_ex}
\end{frame}
\begin{frame}{óÅÇÍÅÎÔÁÃÉÑ ÐÏ ÍÏÒÆÏÌÏÇÉÞÅÓËÉÍ ×ÏÄÏÒÁÚÄÅÌÁÍ}
\only<1>{\begin{block}{}
âÉÎÁÒÎÙÅ ÉÚÏÂÒÁÖÅÎÉÑ: ÉÔÅÒÁÔÉ×ÎÙÅ ÄÉÌÁÔÁÃÉÉ Ó ÐÏÓÔÒÏÅÎÉÅÍ ÐÅÒÅÇÏÒÏÄÏË × ÍÅÓÔÁÈ
ÏÂÒÁÚÏ×Á×ÛÉÈÓÑ ÐÅÒÅÓÅÞÅÎÉÊ.
\end{block}}
\only<2,3>{\begin{block}{}âÉÎÁÒÎÙÅ ÉÚÏÂÒÁÖÅÎÉÑ: ÐÒÅÏÂÒÁÚÏ×ÁÎÉÑ ÒÁÓÓÔÏÑÎÉÊ\end{block}}
\only<1>{\img[0.5]{watershed}}
\only<2>{\img[0.4]{wat01}}
\only<3>{\img[0.75]{wat02}}
\only<4>{\begin{block}{}
÷ ÏÂÝÅÍ ÓÌÕÞÁÅ: ÒÁÚÌÉÞÎÙÅ ÁÌÇÏÒÉÔÍÙ ÚÁÐÏÌÎÅÎÉÑ.
\end{block}
\img[0.7]{watershed01}}
\end{frame}
\begin{frame}{óÐÁÓÉÂÏ ÚÁ ×ÎÉÍÁÎÉÅ!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\begin{block}{ìÉÔÅÒÁÔÕÒÁ}
\begin{itemize}
\item Gonzalez \& Woods. Digital Image Processing, 3rd edition. 2008.
\item Gonzalez \& Woods \& Eddins. Digital Image Processing Using MATLAB, 2nd edition. 2009.
\item \url{http://www.imageprocessingplace.com/root_files_V3/tutorials.htm}
\end{itemize}
\end{block}
\end{frame}
\end{document}

BIN
Komp_obr/07-iproc_3.pdf Normal file

Binary file not shown.

287
Komp_obr/07-iproc_3.tex Normal file
View File

@ -0,0 +1,287 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 7.3.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 7.3. Обработка астрономических изображений}
\date{5 апреля 2021 года}
\begin{document}
% Титул
\begin{frame}
\maketitle
\end{frame}
% Содержание
\begin{frame}
\tableofcontents
\end{frame}
\section{Сигнал--шум}
\begin{blueframe}{}
\only<1>{
\begin{block}{SNR}
$$\SNR = \frac{N}{\sqrt{N}}= \sqrt{N},\qquad N=N_{star}+N_{sky}\quad\Arr$$
$$\SNR\approx\frac{N_{star}}{\sqrt{N_{star}+2N_{sky}}},\qquad N=t_{exp}\cdot R\quad\Arr$$
$$\SNR\approx\frac{R_{star}\sqrt{t_{exp}}}{\sqrt{R_{star}+2R_{sky}}}\quad\Arr\quad
\SNR\propto\sqrt{t_{exp}}$$
$$R=R_0\cdot S_{mirror}\propto D_{mirror}^2\quad\Arr\quad \SNR\propto D_{mirror}$$
$$N_{meas}\text{ коротких экспозиций вместо
одной:}\quad\sigma_{mean}=\frac{\sigma_{individ}}{\sqrt{N_{meas}}}\propto\frac{\sqrt{S}}{N_{meas}}$$
$$\SNR_{mean}=\frac{S/N_{meas}}{\sigma_{mean}}\propto\sqrt{S}=\SNR_{long}\quad\text{только если }
\sigma\approx\sigma_{phot}!!!$$
\end{block}
}
\only<2>{
\begin{block}{Коррекция апертуры} % CCDPhotometryBook.pdf
Почему изображение яркой звезды шире: несмотря на совершенно одинаковую PSF у обеих звезд, при сечении
одинаковым порогом яркая звезда всегда <<больше>>. Увеличение апертуры \Arr увеличение шумов, необходимо
использовать как можно меньшую апертуру.
$$\Delta_N^{bright} = m(N\cdot \FWHM) - m(1\cdot\FWHM)\quad\Arr\quad
m^{faint} = m(1\cdot\FWHM) + \Delta_N^{bright},$$
$m(x)$~-- звездная величина на апертуре~$x$.
\end{block}\vspace*{-1em}
\img[0.6]{fwhm}
}
\end{blueframe}
\section{Деконволюция}
\begin{frame}{Деконволюция}
\only<1>{
\begin{block}{}
$$I(x,y) = P(x,y)*O(x,y)+N(x,y),\quad\text{$P$~-- PSF}\quad\text{или}$$
$$\FT{I}=\FT{O}\cdot\FT{P}+\FT{N}\quad\Arr\quad
\FT{O}=\frac{\FT{I} - \FT{N}}{\FT{P}}$$
$$\text{Наименьшие квадраты:}\quad
\FT{O}=\frac{\FT{P}^*\FT{I}}{|\FT{P}|^2}$$
$$\text{Регуляризация Тихонова, $\min(J_T)$ ($H$~-- HPF):}\quad
\quad J_T=||I-P*O|| - \lambda||H*O||,$$
$$\FT{O}=\frac{\FT{P}^*\FT{I}}{|\FT{P}|^2+\lambda|\FT{H}|^2}$$
\end{block}
}\only<2>{
\begin{block}{Регуляризация по Байесу}
$$p(O|I)=\frac{p(I|O)\cdot p(O)}{p(I)}$$
$$\text{Maximum likelihood:}\quad \mathrm{ML}(O)=\max_O p(I|O)$$
$$\text{Maximum-a-posteriori solution:}\quad
\mathrm{MAP}(O)=\max_O p(I|O)\cdot p(O)$$
\end{block}
\begin{block}{}
\begin{itemize}
\item Итерационная регуляризация
\item Вейвлет-регуляризация
\item \dots
\end{itemize}
\end{block}
}
\end{frame}
\begin{frame}{Функция рассеяния точки}
\only<1>{\img[0.6]{moffat}}
\only<2>{\begin{block}{}
\begin{itemize}
\item Гаусс: $f(x) = f_0\exp\Bigl(\dfrac{-(x-x_0)^2}{2\sigma^2}\Bigr)$, $\FWHM\approx2.355\sigma$
\item Моффат: $f(x) = f_0\Bigl(1+\dfrac{(x-x_0)^2}{\alpha^2}\Bigr)^{-\beta}$,
$\FWHM\approx2\alpha\sqrt{2^{1/\beta}-1}$
\item Фрид: $\FT{f} \propto \exp\Bigl[-(bu)^{5/3}\Bigr]$,
$\FWHM\approx 2.921 b$ (Моффат с $\beta=4.765$, типичные же $\beta=2.5\cdots4.5$).
\end{itemize}
\end{block}
}
\end{frame}
\section{Обнаружение}
\begin{frame}{Обнаружение}
\begin{block}{Простейший алгоритм}
\begin{enumerate}
\item Вычисление и вычитание фона
\item Свертка с маской и бинаризация
\item Обнаружение связных областей
\item Уточнение фона, goto 1
\item Классификация, фотометрия и т.п.
\end{enumerate}
\end{block}
\end{frame}
\begin{blueframe}{}
\img{objdet}
\end{blueframe}
\begin{blueframe}{Изофоты}
\only<1>{\begin{block}{Метод шагающих квадратов}
Бинаризуем изображение по заданному порогу. По соседям каждого пикселя вычисляем битовую маску
($0\div15$). От точки $1\div14$ строим изолинию, соответственно меняя значения в пикселях маски. Каждый узел
изолинии~--- линейная или другая интерполяция интенсивности в пикселях оригинала.
\end{block}
\img[0.5]{isophotes}
}
\only<2>{\img{Marching_squares_algorithm}}
\end{blueframe}
\begin{frame}{WCS-привязка}
\only<1>{
\img[0.6]{WCS_triangles}
\centerline{A.~P\'al, G.\'A.~Bakos. PASP {\bf 118}: 1474--1483, 2006. }}
\only<2>{
\img[0.65]{WCS_quad}
\centerline{\url{astrometry.net}}}
\only<3>{\begin{block}{}
\begin{itemize}
\item Положение нескольких звезд характеризуется параметром, инвариантным к зеркалированию, масштабированию,
вращению и переносу. Устойчивым к шуму.
\item Квадрату ABCD соответствует четырехмерный код в относительных координатах точек C и D.
\item Проблема вырождения: при смене порядка A, B или C, D код <<отражается>>.
\item На небе строится сетка с масштабируемым шагом, по каталожным данным в ее ячейках определяются квадраты
с ниспадающей яркостью звезд.
\item Полученный набор кодов позволяет идентифицировать участки неба вплоть до самых мелких масштабов (нужны
хотя бы четыре звезды в кадре).
\item Чем больше звезд на кадре, тем надежней будет идентификация.
\end{itemize}
\end{block}
}
\end{frame}
\begin{blueframe}{Триангуляция Делоне}
\img[0.6]{delaunay}
\end{blueframe}
\begin{blueframe}{Диаграммы Вороного}
\only<1>{\img[0.6]{voronoi}}
\only<2>{\img[0.6]{delvor}}
\end{blueframe}
\begin{frame}{Свойства триангуляции Делоне}
\begin{block}{}
\begin{itemize}
\item ТД взаимно однозначно соответствует диаграмме Вороного для того же множества точек.
Как следствие: если никакие четыре точки не лежат на одной окружности, ТД единственна.
\item ТД максимизирует минимальный угол среди всех углов всех построенных треугольников, тем
самым избегаются <<тонкие>> треугольники.
\item ТД максимизирует сумму радиусов вписанных окружностей.
\item ТД минимизирует максимальный радиус минимального объемлющего шара.
\item ТД на плоскости обладает минимальной суммой радиусов окружностей, описанных около
треугольников, среди всех возможных триангуляций.
\end{itemize}
\end{block}
\end{frame}
\begin{blueframe}{K-nearest}
\begin{columns}
\column{0.5\textwidth}
\begin{block}{}
Классификация объекта по $k$~ближайшим соседям. В случае первой выборки~--- треугольник, в случае второй~---
квадрат.
$k$ может быть дробным, если применять взвешенные расстояния.
\end{block}
\column{0.5\textwidth}
\img{knearest}
\end{columns}
\end{blueframe}
\section{Анализ разреженных данных}
\begin{frame}{Анализ разреженных данных}
\only<1>{
\begin{block}{Корреляция}
$$C(\tau)=\frac{[a(t)-\aver{a}][b(t+\tau)-\aver{b}]}{\sigma_a\sigma_b}$$
$$\text{Unbinned: } U_{ij}=\frac{(a_i-\aver{a})(b_j-\aver{b})}{
\sqrt{(\sigma_a^2-e^2_a)(\sigma_b^2-e^2_b)}},\qquad \Delta t_{ij}=t_j-t_i\qquad$$
$$C(\tau)=\frac1{N_\tau}U_{ij,\tau},\qquad
\tau-\Delta\tau/2\le\Delta t_{ij}\le\tau+\Delta\tau/2$$
Не нужна интерполяция!
\end{block}
}\only<2>{
\img[0.8]{scatter_corr}\centerline{Пунктир~--- корреляция через интерполяцию}}
\end{frame}
\begin{frame}{}
\only<1>{
\begin{block}{Периодограмма Ломба--Скаргла (Lomb--Scargle)}
$$P_{x}(\omega )={\frac {1}{2}}\left({\frac {\left[\sum _{j}X_{j}\cos \omega (t_{j}-\tau
)\right]^{2}}{\sum _{j}\cos ^{2}\omega (t_{j}-\tau )}}+{\frac {\left[\sum _{j}X_{j}\sin \omega
(t_{j}-\tau )\right]^{2}}{\sum _{j}\sin ^{2}\omega (t_{j}-\tau )}}\right)$$
$$\tg{2\omega \tau }={\frac {\sum _{j}\sin 2\omega t_{j}}{\sum _{j}\cos 2\omega t_{j}}}$$
\end{block}
\img{lombscargle}
}\only<2>{
\begin{block}{Преобразование Фурье}
$$ P_m=\Sum_{n=1}^N p_n\e^{-i\frac{2\pi}{N}mn}\quad\Arr\quad
P_m=\Sum_{n=1}^N p_n\e^{-i\frac{2\pi}{T}mt_n},\quad T=t_N-t_1$$
В octave: \tt{irsa\_dft(X,Y,freq)}:
$\displaystyle P(\nu)=\Sum_{n=1}^N p_n\e^{-i \nu_n\cdot t_n}$
\end{block}}
\only<3>{\img[0.8]{scat01}}
\only<4>{\img[0.8]{scatFFT}}
\only<3,4>{\centerline{$T=111.5\quad\Arr\quad \nu\approx0.00897$}}
\end{frame}
% \begin{frame}{}
% \only<1>{
% \begin{block}{}
% \end{block}
% }\only<2>{
% \img[0.8]{}
% }
% \end{frame}
\section{Робастные методы}
\begin{frame}{Робастные методы}
\begin{block}{}
Робастная надежность МНК~--- 0!
Простейшая робастная оценка~--- медиана (можно <<засорить>> до 50\% данных!).
Оценка <<плохости>>: $MAD=\med(x_i-\med(x))$.
Группировка данных и метод усеченных квадратов.
Метод наименьших медиан квадратов: $\min\bigl(\med(x^2)\bigr)$.
Оценка дисперсии: $\med(|x_i-\med(x)|)\approx0.67\sigma$.
M-, R-, S-, Q- оценки.
\end{block}
\end{frame}
\begin{frame}{Программное обеспечение}
\begin{block}{\url{http://heasarc.gsfc.nasa.gov/docs/heasarc/astro-update/}}
\begin{itemize}
\item ASTROPY: A single core package for Astronomy in Python
\item Aladin: An interactive software sky atlas
\item CFITSIO: FITS file access subroutine library
\item GSL: GNU Scientific Library
\item IDLAUL: IDL Astronomical Users Library
\item IRAF: Image Reduction and Analysis Facility
\item MIDAS: Munich Image Data Analysis System
\item PyRAF: Run IRAF tasks in Python
\item SAOImage ds9: FITS image viewer and analyzer
\item SEXTRACTOR: Builds catalogue of objects from an astronomical image
\item WCSLIB: World Coordinate System software library
\item \dots~\url{http://tdc-www.harvard.edu/astro.software.html}
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{Литература}
\begin{itemize}
\item W. Romanishin. An Introduction to Astronomical Photometry Using CCDs.
\item Jean-Luc Starck and Fionn Murtagh. Handbook of Astronomical Data Analysis.
\item E.D.~Feigelson, G.J.~Babu. Modern Statistical Methods for Astronomy With R Applications.
\item R.A.~Edelson, J.H.~Krolik. The discrete correlation function --- A new method for analyzing
unevenly sampled variability data. ApJ, {\bf 333},1988, 646--659.
\end{itemize}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

View File

@ -1,6 +1,7 @@
\usepackage[T2A]{fontenc} %ÐÏÄÄÅÒÖËÁ ËÉÒÉÌÌÉÃÙ \usepackage[T2A]{fontenc} %ÐÏÄÄÅÒÖËÁ ËÉÒÉÌÌÉÃÙ
\usepackage[koi8-r]{inputenc} \usepackage[koi8-r]{inputenc}
\usepackage[english,russian]{babel} \usepackage[english,russian]{babel}
\usepackage{array}
\usepackage{xspace} \usepackage{xspace}
%\usepackage[intlimits]{amsmath} %\usepackage[intlimits]{amsmath}
@ -18,12 +19,15 @@
{\end{center}\end{figure}} {\end{center}\end{figure}}
\setbeamercolor{color1}{bg=blue!50!black,fg=white} \setbeamercolor{color1}{bg=blue!50!black,fg=white}
\setbeamercolor{light1}{bg=blue!20!white,fg=black}
\setbeamercolor{normal text}{bg=blue!20!black,fg=cyan!70!white} \setbeamercolor{normal text}{bg=blue!20!black,fg=cyan!70!white}
\setbeamercolor{frametitle}{fg=red,bg=blue!40!black} \setbeamercolor{frametitle}{fg=red,bg=blue!40!black}
\setbeamercolor{title}{fg=red,bg=blue!40!black} \setbeamercolor{title}{fg=red,bg=blue!40!black}
\setbeamercolor{block title}{fg=cyan,bg=blue!40!black} \setbeamercolor{block title}{fg=cyan,bg=blue!40!black}
\newenvironment{defin}{\begin{beamercolorbox}[shadow=true, rounded=true]{color1}}% \newenvironment{defin}{\begin{beamercolorbox}[shadow=true, rounded=true]{color1}}%
{\end{beamercolorbox}} {\end{beamercolorbox}}
\newenvironment{light}{\begin{beamercolorbox}[shadow=false,rounded=false]{light1}}%
{\end{beamercolorbox}}
\newcommand{\img}[2][]{\begin{pict}\includegraphics[width=#1\columnwidth]{#2}\end{pict}} \newcommand{\img}[2][]{\begin{pict}\includegraphics[width=#1\columnwidth]{#2}\end{pict}}
\newcommand{\smimg}[2][]{\includegraphics[width=#1\columnwidth]{#2}} \newcommand{\smimg}[2][]{\includegraphics[width=#1\columnwidth]{#2}}
\logo{\includegraphics[width=1cm,height=1cm,keepaspectratio]{saologo.jpg}} \logo{\includegraphics[width=1cm,height=1cm,keepaspectratio]{saologo.jpg}}
@ -64,22 +68,65 @@
\newenvironment{blueframe}{\bgroup\setbeamercolor{normal text}% \newenvironment{blueframe}{\bgroup\setbeamercolor{normal text}%
{bg=cyan!70!white}\begin{frame}}{\end{frame}\egroup} {bg=cyan!70!white}\begin{frame}}{\end{frame}\egroup}
\newsavebox{\hght} % for ddotvec
\newlength{\lngth}
\def\arr{\ensuremath{\,\rightarrow\,}} % óÔÒÅÌËÁ ×ÐÒÁ×Ï
\def\Arr{\ensuremath{\,\Rightarrow\,}} % ÖÉÒÎÁÑ -//-
\def\aver#1{\bgroup\mathopen{<}#1\mathclose{>}\egroup} \def\aver#1{\bgroup\mathopen{<}#1\mathclose{>}\egroup}
\def\Ang{\mbox{\rm\AA}} % áÎÇÓÔÒÅÍ
\def\B#1{\ensuremath{\mathbf{#1}}} \def\B#1{\ensuremath{\mathbf{#1}}}
\def\ceil#1{\bgroup\lceil #1\rceil\egroup} \def\ceil#1{\bgroup\lceil #1\rceil\egroup}
\def\const{\ensuremath{\mathfrak{const}}} \def\const{\ensuremath{\mathfrak{const}}}
\def\C{\ensuremath{\mathfrak{C}}} \def\C{\ensuremath{\mathfrak{C}}}
\def\degr{\ensuremath{^\circ}} % çÒÁÄÕÓ
\def\ddotvec#1{ % ×ÔÏÒÁÑ ÐÒÏÉÚ×ÏÄÎÁÑ ×ÅËÔÏÒÁ ÐÏ ×ÒÅÍÅÎÉ
\savebox{\hght}{$\vec{#1}$}\ddot{\raisebox{0pt}[.8\ht\hght]{$\vec{#1}$}}}
\def\dotvec#1{ % ðÒÏÉÚ×ÏÄÎÁÑ ×ÅËÔÏÒÁ ÐÏ ×ÒÅÍÅÎÉ
\savebox{\hght}{$\vec{#1}$}\dot{\raisebox{0pt}[.8\ht\hght]{$\vec{#1}$}}}
\def\dpartder#1#2{\dfrac{\partial^2 #1}{\partial #2^2}} % ×ÔÏÒÁÑ ÞÁÓÔÎÁÑ ÐÒÏÉÚ×ÏÄÎÁÑ \def\dpartder#1#2{\dfrac{\partial^2 #1}{\partial #2^2}} % ×ÔÏÒÁÑ ÞÁÓÔÎÁÑ ÐÒÏÉÚ×ÏÄÎÁÑ
\def\e{\mathop{\mathrm e}\nolimits} \def\e{\mathop{\mathrm e}\nolimits}
\renewcommand{\epsilon}{\varepsilon} % ëÒÁÓÉ×ÙÊ ÜÐÓÉÌÏÎ
\def\frc#1#2{\raisebox{2pt}{$#1$}\big/\raisebox{-3pt}{$#2$}} % a/b, a ×ÙÛÅ, b ÎÉÖÅ
\def\floor#1{\bgroup\lfloor #1\rfloor\egroup} \def\floor#1{\bgroup\lfloor #1\rfloor\egroup}
\def\frc#1#2{\bgroup\raisebox{2pt}{$#1$}\big/\raisebox{-3pt}{$#2$}\egroup} \def\frc#1#2{\bgroup\raisebox{2pt}{$#1$}\big/\raisebox{-3pt}{$#2$}\egroup}
\def\FT#1{\mathcal{F}(#1)} \def\F{\ensuremath{\mathop{\mathfrak F}}\nolimits} % ëÒÁÓÉ×ÁÑ æ
\def\FT#1{\mathcal{F}\left(#1\right)}
\def\FWHM{\mathrm{FWHM}}
\renewcommand{\ge}{\geqslant}
\def\grad{\mathop{\mathrm{grad}}\nolimits} % çÒÁÄÉÅÎÔ
\def\ind#1{_{\text{\scriptsize #1}}} % îÉÖÎÉÊ ÉÎÄÅËÓ ÒÕÓÓ. ÂÕË×ÁÍÉ
\def\indfrac#1#2{\raisebox{2pt}{$\frac{\mbox{\small $#1$}}{\mbox{\small $#2$}}$}}
\def\I{\ensuremath{\mathfrak{I}}} % éÎÔÅÇÒÁÌ
\def\IFT#1{\mathcal{F}^{-1}\left(#1\right)} % ïÂÒÁÔÎÏÅ æð
\def\IInt{\mathop{{\int\!\!\!\int}}\limits} % ä×ÏÊÎÏÊ ÂÏÌØÛÏÊ ÉÎÔÅÇÒÁÌ
\def\ILT#1{\mathop{\mathfrak{L}}\nolimits^{-1}\left(#1\right)} % ïÂÒÁÔÎÏÅ ÐÒÅÏÂÒ. ìÁÐÌÁÓÁ
\def\Int{\int\limits} \def\Int{\int\limits}
\def\Infint{\int\limits_{-\infty}^\infty} \def\Infint{\int\limits_{-\infty}^\infty}
\def\IZT#1{\mathop{\mathcal{Z}}\nolimits^{-1}\left(#1\right)} % ïÂÒÁÔÎÏÅ Z-ÐÒÅÏÂÒÁÚÏ×ÁÎÉÅ
\renewcommand{\kappa}{\varkappa} % ëÒÁÓÉ×ÁÑ ËÁÐÐÁ
\renewcommand{\le}{\leqslant} % íÅÎØÛÅ ÉÌÉ ÒÁ×ÎÏ
\def\ltextarrow#1{\ensuremath{\stackrel{#1}\leftarrow}} % óÔÒÅÌËÁ ×ÌÅ×Ï Ó ÐÏÄÐÉÓØÀ Ó×ÅÒÈÕ
\def\lvec{\overrightarrow} % äÌÉÎÎÙÊ ×ÅËÔÏÒ
\def\LT#1{\mathop{\mathfrak{L}}\nolimits\left(#1\right)} % ðÒÅÏÂÒÁÚÏ×ÁÎÉÅ ìÁÐÌÁÓÁ
\def\mean#1{\overline{#1}} \def\mean#1{\overline{#1}}
\def\med{\mathop{\mathrm{med}}\nolimits} \def\med{\mathop{\mathrm{med}}\nolimits}
\def\moda{\mathop{\mathrm{Mo}}\nolimits} \def\moda{\mathop{\mathrm{Mo}}\nolimits}
\def\Oint{\oint\limits} % âÏÌØÛÏÊ ÉÎÔÅÇÒÁÌ
\def\partder#1#2{\dfrac{\partial #1}{\partial #2}} \def\partder#1#2{\dfrac{\partial #1}{\partial #2}}
\renewcommand{\phi}{\varphi} % ëÒÁÓÉ×ÁÑ ÆÉ
\def\rev#1{\frac{1}{#1}} % ïÂÒÁÔÎÁÑ ×ÅÌÉÞÉÎÁ
\def\rot{\mathop{\mathrm{rot}}\nolimits} % òÏÔÏÒ
\def\rtextarrow#1{\ensuremath{\stackrel{#1}\rightarrow}} % óÔÒÅÌËÁ ×ÐÒÁ×Ï Ó ÐÏÄÐÉÓØÀ
\def\R{\ensuremath{\mathbb{R}}} % ÒÁÃÉÏÎÁÌØÎÙÅ ÞÉÓÌÁ
\def\so{\ensuremath{\Longrightarrow}\xspace} % ÓÌÅÄÏ×ÁÔÅÌØÎÏ \def\so{\ensuremath{\Longrightarrow}\xspace} % ÓÌÅÄÏ×ÁÔÅÌØÎÏ
\def\sinc{\mathop{\mathrm{sinc}}\nolimits} % éÎÔÅÇÒÁÌØÎÙÊ ÓÉÎÕÓ
\def\SNR{\mathop{\mathrm{SNR}}\nolimits} \def\SNR{\mathop{\mathrm{SNR}}\nolimits}
\def\Sum{\sum\limits}
\def\Tr{\mathop{\mathrm{Tr}}\nolimits} % óÌÅÄ ÍÁÔÒÉÃÙ
\def\veci{{\vec\imath}} % i-ÏÒÔ
\def\vecj{{\vec\jmath}} % j-ÏÒÔ
\def\veck{{\vec{k}}} % k-ÏÒÔ
\def\when#1{\ensuremath{\Bigr|_{#1}}} % ÷ÅÒÔ. ÌÉÎÉÑ Ó ÎÉÖÎÉÍ ÉÎÄÅËÓÏÍ
\def\WT#1{\ensuremath{\mathop{\mathrm{WT}\left(#1\strut\right)}}} % ×ÅÊ×ÌÅÔ-ÐÒÅÏÂÒÁÚÏ×ÁÎÉÅ
\def\ZT#1{\mathop{\mathcal{Z}}\nolimits\left(#1\right)} % Z-ÐÒÅÏÂÒÁÚÏ×ÁÎÉÅ

Binary file not shown.

After

Width:  |  Height:  |  Size: 48 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 28 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 37 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 147 KiB

Binary file not shown.

BIN
Komp_obr/pic/CMYK.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

Binary file not shown.

BIN
Komp_obr/pic/FM-AM.pdf Normal file

Binary file not shown.

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 35 KiB

BIN
Komp_obr/pic/Hough_ex.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 1.2 MiB

BIN
Komp_obr/pic/M13_histeq.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 896 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 734 KiB

BIN
Komp_obr/pic/M29_histeq.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 2.6 MiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 482 KiB

Binary file not shown.

Binary file not shown.

BIN
Komp_obr/pic/RGB.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 30 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 11 KiB

Binary file not shown.

Binary file not shown.

BIN
Komp_obr/pic/Vd-Blur1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

BIN
Komp_obr/pic/Vd-Blur2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 16 KiB

BIN
Komp_obr/pic/Vd-Edge1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 18 KiB

BIN
Komp_obr/pic/Vd-Edge2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 17 KiB

BIN
Komp_obr/pic/Vd-Edge3.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

BIN
Komp_obr/pic/Vd-Fpwr.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 34 KiB

BIN
Komp_obr/pic/Vd-LOG.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 1.1 KiB

BIN
Komp_obr/pic/Vd-Orig.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

BIN
Komp_obr/pic/Vd-Sharp.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 28 KiB

BIN
Komp_obr/pic/Vd-phase.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 46 KiB

BIN
Komp_obr/pic/WCS_quad.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 51 KiB

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 66 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 30 KiB

BIN
Komp_obr/pic/baseimop.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 32 KiB

BIN
Komp_obr/pic/bezier.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 3.5 KiB

BIN
Komp_obr/pic/binCrop.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 232 KiB

BIN
Komp_obr/pic/binFull.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 1.4 MiB

BIN
Komp_obr/pic/bisect.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 11 KiB

BIN
Komp_obr/pic/bitplanes.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 169 KiB

BIN
Komp_obr/pic/bottomhat.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 27 KiB

BIN
Komp_obr/pic/canny01.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 26 KiB

BIN
Komp_obr/pic/canny02.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 38 KiB

BIN
Komp_obr/pic/canny03.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 35 KiB

BIN
Komp_obr/pic/canny04.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 39 KiB

BIN
Komp_obr/pic/canny05.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 2.6 KiB

BIN
Komp_obr/pic/chords1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 69 KiB

BIN
Komp_obr/pic/chords2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 47 KiB

BIN
Komp_obr/pic/closing01.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 68 KiB

Binary file not shown.

BIN
Komp_obr/pic/compmask.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 19 KiB

BIN
Komp_obr/pic/connregs.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 9.8 KiB

BIN
Komp_obr/pic/count10.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 13 KiB

BIN
Komp_obr/pic/count4.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 20 KiB

BIN
Komp_obr/pic/curvelet.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 407 KiB

BIN
Komp_obr/pic/delaunay.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/delvor.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/dilation.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 797 B

BIN
Komp_obr/pic/dilation01.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 27 KiB

BIN
Komp_obr/pic/edge_DoG.gif Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 5.8 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 3.5 KiB

BIN
Komp_obr/pic/edge_Sobel.gif Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 4.2 KiB

BIN
Komp_obr/pic/edge_canny.gif Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 647 B

BIN
Komp_obr/pic/erosion.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 883 B

BIN
Komp_obr/pic/erosion01.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 4.6 KiB

BIN
Komp_obr/pic/erosion02.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 5.3 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 18 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 465 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 46 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 514 KiB

BIN
Komp_obr/pic/fft.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 91 KiB

BIN
Komp_obr/pic/fourwav.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 64 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 49 KiB

BIN
Komp_obr/pic/fwhm.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/gaussCrop.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 57 KiB

BIN
Komp_obr/pic/gaussFull.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 134 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 264 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 349 KiB

BIN
Komp_obr/pic/graph1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 108 KiB

BIN
Komp_obr/pic/graph2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 107 KiB

Some files were not shown because too many files have changed in this diff Show More