add komp_obr

This commit is contained in:
eddyem 2020-08-05 19:26:59 +03:00
parent 27b95761b6
commit e0005fb547
45 changed files with 1376 additions and 0 deletions

Binary file not shown.

View File

@ -0,0 +1,322 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 1.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 1. Общие сведения об измерениях. Виды сигналов и методы их анализа}
\date{30 июня 2016 года}
\begin{document}
% Титул
\begin{frame}{}
\maketitle
\end{frame}
% Содержание
\begin{frame}{}
\tableofcontents[hideallsubsections]
\end{frame}
\section{Физические измерения}
\begin{frame}{Физические измерения}
\begin{defin}
Экспериментальное определение значения измеряемой величины с применением средств
измерений называется {\bf измерением}.
\end{defin}
\begin{block}{}
Важнейшей особенностью измерений является {\it принципиальная невозможность
получения результатов измерения, в точности равных истинному значению
измеряемой величины} (особенно эта особенность проявляется в микромире, где
господствует принцип неопределенности).
Эта особенность приводит к необходимости оценки степени близости результата
измерения к истинному значению измеряемой величины, т.е. вычислять
{\bf погрешность измерения}.
\end{block}
\end{frame}
\begin{frame}{Виды измерений}
\begin{block}{}
Статическими называют такие измерения, при
которых зависимость погрешности измерения от скорости измерения пренебрежимо
мала и ее можно не учитывать. Динамические
измерения противоположны статическим.
Результаты прямых измерений находят непосредственно из опыта, косвенных же измерений~---
путем расчета по известной зависимости измеряемой величины от величин, находимых
прямыми измерениями (например, измерение мощности).
Совместное измерение --- одновременное измерение нескольких неодноименных величин для
нахождения зависимости между ними (например, ВАХ диода).
Совокупное измерение~--- это проведение ряда измерений нескольких величин одинаковой
размерности в различных сочетаниях с нахождением искомых величин из решения системы уравнений
(например, измерение $R$ включенных треугольником резисторов).
\end{block}
\end{frame}
\begin{frame}{Представление результатов}
\begin{block}{Табличное}
Позволяет избежать многократной записи единиц измерения, обозначений измеряемой величины,
используемых множителей. В таблицы, помимо основных измерений, могут быть включены и результаты
промежуточных измерений.
Для удобства импортирования данных и одновременно наглядности чтения удобно хранить в формате TSV.
SED позволит легко преобразовать TSV в таблицу латеха.
\end{block}
\begin{block}{Графическое}
На основе графика легко можно сделать вывод о соответствии
теоретических представлений данным эксперимента, определить вид функциональной
зависимости измеряемой величины.
\end{block}
\end{frame}
\section{Сигналы и их виды}
\begin{frame}{Сигналы и их виды}
\begin{defin}
Если некоторая изменяющаяся величина измеряется непрерывно (или квазинепрерывно), мы
имеем дело с потоком информации, или сообщением.
В теории информации физический процесс, значения параметров которого отображают
передаваемое сообщение, называется сигналом.
\end{defin}
\begin{block}{}
Модуляция--демодуляция. Зашумление.
{\bf Помехи}: аддитивные, мультипликативные, фазовые.
\end{block}
\end{frame}
\begin{frame}{Виды сигналов}
\only<1>{
\begin{block}{Аналоговый}
Описывается непрерывной (или кусочно--непрерывной) функцией $x(t)$: $t\in[t_0,t_1]$,
$x\in[x_0,x_1]$. Аудиосигналы, телевизионные сигналы.
\end{block}
\img[0.3]{oscill}
}
\only<2>{
\begin{block}{Дискретный}
Описывается решетчатой функцией (последовательностью, временн\'ым рядом) $x(nT)$: $x\in[x_0,x_1]$,
$n=\overline{1,N}$, $T$~-- интервал дискретизации. Величину $f=1/T$
называют частотой дискретизации. Если интервал дискретизации является
постоянной величиной, дискретный сигнал можно задать в виде ряда $\{x_1,\ldots, x_N\}$.
\end{block}
\img[0.6]{disc_sig}
}
\only<3>{
\begin{block}{Цифровой}
Описывается квантованной решетчатой функцией и отличается от обычного дискретного сигнала тем, что
каждый уровень квантования кодируется двоичным кодом. Таким образом, если
величина $x\in[x_0,x_1]$ квантуется $N$~разрядным кодом, для
обратного представления из кода $K_x$ в значение $x$ применяется
преобразование: $x=x_0+K_x\cdot (x_1-x_0)/2^{N}$. К цифровым сигналам относятся
сигналы, используемые в системах связи с импульсно--кодовой модуляцией.
\end{block}
\img[0.4]{digital_signal}
}
\end{frame}
\begin{frame}{Дискретизация}
\begin{block}{}
Дискретизация строит по заданному аналоговому сигналу $x(t)$ дискретный сигнал $x_n(nT)$, причем
$x_n(nT)=x(nT)$. Операция восстановления состоит в том, что по заданному дискретному сигналу
строится аналоговый сигнал.
\end{block}
\begin{block}{Теорема Котельникова--Найквиста}
\begin{itemize}
\item любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным
отсчётам, взятым с частотой $f > 2f_c$, где $f_c$~-- максимальная частота, которой ограничен спектр
реального сигнала;
\item если максимальная частота в сигнале равна или превышает половину частоты дискретизации
(наложение спектра), то способа восстановить сигнал из дискретного в аналоговый без искажений не
существует.
\end{itemize}
\end{block}
\end{frame}
\begin{frame}{Теорема Котельникова--Найквиста}
\begin{block}{}
$$X_{s}(f)\ {\stackrel {\mathrm {def} }{=}}\sum _{n=-\infty }^{\infty }T\cdot x(nT)\ e^{-i2\pi
nTf}$$
$$X(f) = \sum _{n=-\infty }^{\infty }x(nT)\cdot \underbrace {T\cdot \mathrm {rect} (Tf)\cdot
e^{-i2\pi nTf}} _{{\mathcal {F}}\left\{\mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]\right\}}$$
\end{block}
\begin{columns}\column{0.5\textwidth}
\img{ReconstructFilter}
\column{0.5\textwidth}
\begin{block}{Формула Уиттекера--Шеннона}
$$x(t)=\sum _{n=-\infty }^{\infty }x(nT)\cdot \mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]$$
\end{block}
\end{columns}
\end{frame}
\begin{frame}{Квантование}
\begin{defin}
Для преобразования дискретного сигнала в цифровой вид применяется операция квантования или
аналогово--цифрового преобразования~(АЦП), которая по заданному дискретному сигналу $x_n(nT)$
строит цифровой кодированный сигнал $x_d(nT)$, причем $x_n(nT)\approx x_d(nT)$. Обратная квантованию
операция называется операцией цифро--аналогового преобразования~(ЦАП).
\end{defin}
\only<1>{\img[0.7]{ADC}}
\only<2>{\img{DAC}}
\end{frame}
\section{Методы анализа сигналов}
\begin{frame}{Методы анализа сигналов}
\begin{block}{Группы методов}
\begin{description}
\item[В пространственной области] над сигналом производят какие--либо преобразования, одинаковые
для всего сигнала (аддитивные, мультипликативные или матричные) --- бинаризация, гистограммы,
свертка, выделение компонент, сглаживание\dots
\item[В частотной области] работа производится не с сигналом, а с его спектром (обычно Фурье) ---
свертка через Фурье, сглаживание \slash фильтрация, выделение деталей, деконволюция\dots
\end{description}
\end{block}
\begin{block}{}
Процесс зашумления сигнала $x(t)$ импульсной (аппаратной) функцией шума $n(t)$ описывается
сверткой:
$x'(t)=x(t)\otimes n(t)$. В пространстве Фурье:
$$\FT{x'(t)}=\FT{x(f)}\cdot\FT{n(t)}\text{ или }X'(f)=X(f)\cdot N(f).$$
$N(f)$~-- передаточная функция.
\end{block}
\end{frame}
\begin{frame}{Вейвлет--анализ}
\only<1>{\begin{block}{}
Локализованный в пространственной и частотной области набор ортонормированных функций.
$$T_{m,n}=\int\limits_{-\infty}^{\infty }x(t)\,\psi_{m,n}^{*}(t)\,dt,$$
$$x(t)=K_{\psi}\sum\limits_{m=-\infty }^{\infty }\sum\limits_{n=-\infty
}^{\infty}T_{m,n}\psi_{m,n}(t).$$
\end{block}}
\only<2>{\img{Continuous_wavelet_transform}}
\only<3>{\begin{block}{}Детализирующие и аппроксимирующие коэффициенты\end{block}
\img[0.5]{wavelet_img}}
\end{frame}
\section{Обзор программы}
\begin{frame}{Обзор программы}
\tableofcontents[currentsection,hideothersubsections,sectionstyle=hide]
\end{frame}
\subsection{Статистика и вероятность. Случайные величины и распределения}
\begin{frame}{Статистика и вероятность}
\begin{block}{}
Вероятность, плотность вероятности, закон больших чисел, характеристики набора случайных величин,
законы распределения, корреляция и ковариация, шум, SNR.
\end{block}
\img[0.7]{binopdf}
\end{frame}
\subsection{Теория физических измерений. Систематические и случайные погрешности}
\begin{frame}{Теория физических измерений}
\begin{block}{}
Меры и значения величин, абсолютная и относительная погрешности, промахи, систематические и
случайные погрешности, класс точности прибора, доверительный интервал, критерий Стьюдента, правила
вычисления погрешностей косвенных измерений, аппроксимация наименьшими квадратами.
\end{block}
\img[0.7]{lesssquare}
\end{frame}
\subsection{Теория оценок}
\begin{frame}{Теория оценок}
\begin{block}{}
Правило ,,трех сигм``, теорема Ляпунова, распределение $\chi^2$, распределение Стьюдента, оценки:
их виды и надежность.
\end{block}
\img[0.5]{chi2}
\end{frame}
\subsection{Системы уравнений. Степенные и дифференциальные уравнения}
\begin{frame}{Системы уравнений}
\begin{block}{}
Методы решения систем линейных уравнений: Гаусса, простой итерации, Зейделя, наименьших квадратов,
численные методы; степенные и прочие нелинейные уравнения и метод бисекции; численное
интегрирование (прямоугольник, трапеция, Симпсона); обыкновенные дифференциальные уравнения.
\end{block}
\img[0.4]{bisect}
\end{frame}
\subsection{Анализ временных рядов. Фурье-- и Вейвлет--анализ}
\begin{frame}{Анализ временных рядов}
\begin{block}{}
Аппроксимация, интерполяция, сплайны, преобразование Лапласа, Z--преобразования, ряды Фурье,
Фурье--преобразование, Фурье--фильтрация, вейвлет--анализ и вейвлет--фильтрация.
\end{block}
\img[0.7]{Four-filter}
\end{frame}
\subsection{Обработка изображений}
\begin{frame}{Обработка изображений}
\vspace{-2em}
\begin{block}{}
Цифровые изображения, модели цветовых пространств; преобразования в пространственной области:
логарифмическое преобразование, растяжение контрастности, свертка с различными масками, медианный
фильтр; гистограмма и эквализация гистограммы; преобразования в частотной области: ДПФ, частотные
фильтры; ФРТ и ОПФ; адаптивная медианная фильтрация; инверсная и винеровская фильтрация;
геометрические преобразования изображений; вейвлет--преобразования; морфологические операции;
проблема распознавания изображений.
\end{block}
\smimg[0.33]{Noiced}
\smimg[0.33]{MF3}
\smimg[0.33]{MF5}
\end{frame}
\section{Литература}
\begin{frame}{Основная литература}
\begin{thebibliography}{9}
\bibitem{} Интернет--энциклопедия: http:/\!/wikipedia.org (Википедия).
\bibitem{} Гонсалес~Р., Вудс~Р. Цифровая обработка изображений.~--- М.: Техносфера, 2012.~---
1104~с.
\bibitem{} Витязев~В.В. Вейвлет-анализ временных рядов: Учеб. пособие.~---
СПб.: Изд-во С.-Петерб. ун-та., 2001.~--- 58~с.
\bibitem{} Гонсалес~Р., Вудс~Р., Эддинс~С. Цифровая обработка изображений
в среде MATLAB.~--- М.: Техносфера, 2006~--- 616~с.
\bibitem{} Гмурман~В.\,Е. Теория вероятностей и математическая статистика.
Учеб. пособие для вузов.~--- Изд. 7-е, стер.~--- М.: Высш. шк., 2001.~--- 479~с.
\bibitem{} Говорухин~В., Цибулин~В. Компьютер в математическом исследовании.
Учебный курс.~--- СПб.: Питер, 2001.~--- 624~с.
\bibitem{} Сергиенко~А.\,Б. Цифровая обработка сигналов.~--- СПб.: Питер, 2005.~---
604~с.
\bibitem{} Чен~К., Джиблин~П., Ирвинг~А. MATLAB в математических исследованиях:
Пер. с англ.~--- М.: Мир, 2001.~--- 346~с.
\end{thebibliography}
\end{frame}
\begin{frame}{Дополнительная литература}
\begin{thebibliography}{9}
\bibitem{} Бахвалов~Н.\,С., Жидков~Н.\,П., Кобельков~Г.\,М. Численные методы.~---
М.: Высш. шк., 1987.~--- 630~с.
\bibitem{} Кнут~Д.\,Э. Все про \TeX./ Пер. с англ. М.\,В.~Лисиной.~---
Протвино: АО~RD\TeX, 1993.~--- 592~с.: ил.
\bibitem{} Львовский~С.\,М. Набор и верстка в системе \LaTeX.~--- 3-е изд.,
исрп. и доп.~--- М.: МЦНМО, 2003.~--- 448~с.
\bibitem{} Физическая энциклопедия/ Гл. ред. А.М.~Прохоров.~--- М.: Сов.
энциклопедия. Тт. I~--~V. 1988.
\bibitem{} Цифровая обработка сигналов: Справочник/ Л.М.~Гольденберг,
Б.Д.~Матюшкин, М.Н.~Поляк.~--- М.: Радио и связь, 1985.~--- 312~с., ил.
\bibitem{} Pan~G.\,W. Wavelets in electromagnetic and device modeling.~---
John~Wiley \& Sons, Inc., Hobocen, New Jersey, 2003.~--- 531~p.
\end{thebibliography}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

BIN
Komp_obr/02-statistics.pdf Normal file

Binary file not shown.

319
Komp_obr/02-statistics.tex Normal file
View File

@ -0,0 +1,319 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 2]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 2. Статистика и вероятность. Случайные величины и распределения}
\date{12 июля 2016 года}
\begin{document}
% Титул
\begin{frame}
\maketitle
\end{frame}
% Содержание
\begin{frame}
\tableofcontents
\end{frame}
\section{Случайные величины, вероятность}
\begin{frame}{Случайные величины, вероятность}
\begin{defin}
Случайной величиной называется величина~$X$, если все ее возможные значения образуют конечную
или бесконечную последовательность чисел~$x_1,\ldots$, $x_N$, и если принятие ею каждого из этих
значений есть случайное событие.
\end{defin}
\begin{defin}\begin{columns}\column{0.75\textwidth}
Вероятность наступления данного события~--- это предел относительной частоты наступления
данного события~$n_k/N$:\column{0.25\textwidth}
$$P(x_k)=\lim_{N\to\infty}\frac{n_k}{N}.$$
\end{columns}
\end{defin}
\begin{block}{}
Совместные и несовместные события, полная группа, свойства вероятности.
Для непрерывных случайных величин вводят понятие плотности вероятности:
$$\rho(x)=\lim_{\Delta x\to 0}\frac{P(x<X<x+\Delta x)}{\Delta
x}=\frac{dP}{dx}.$$
$$P(x_1<X<x_2)=\Int_{x_1}^{x_2}\rho(x)\,dx.$$
\end{block}
\end{frame}
\section{Характеристики случайных величин}
\begin{frame}{Характеристики случайных величин}
\begin{block}{Независимые случайные величины}
$P(x_ny_n)=P(x_n)P(y_n)$.
\end{block}
\begin{block}{Среднее арифметическое и математическое ожидание}
$$\aver{X}=\frc1{N}\sum_{n=1}^N x_n,$$
$$M(X)\equiv\mean{X}=\lim_{N\to\infty}\frac1{N}\sum_{n=1}^N x_n\quad\text{и}\quad
M(X)=\Infint x\phi(x)\,dx.$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{Свойства математического ожидания}
\begin{itemize}\setlength{\itemsep}{2pt}
\item $\mean\const=\const$;
\item $\mean{\sum\C_n\cdot X_n}=\sum\C_n\cdot \mean{X_n}$,
где $\C_n$~-- постоянная величина;
\item $\mean{\prod X_n}=\prod \mean{X_n}$ (для независимых случайных величин);
\item $\mean{f(x)}=\Infint f(x)\phi(x)\,dx$ (для непрерывных случайных величин).
\end{itemize}
\end{block}
\begin{block}{$\mean{X}\Leftrightarrow\aver{X}$? Закон больших чисел}
Неравенство Чебыш\"ева: $P(|X-\mean{X}|<\epsilon)\ge 1-D(X)/\epsilon^2\quad\Rightarrow$
$$\lim_{n\to\infty} P\Bigl(\Bigl|\frac{\sum
X_n}{n}-\frac{\sum\mean{X_n}}{n}\Bigr|<\epsilon\Bigr)=1.$$
Теорема Бернулли: $\lim\limits_{n\to\infty} P(|m/n-p|<\epsilon)=1$.
\end{block}
\end{frame}
\begin{frame}{Характеристические значения распределений}
\only<1>{\begin{block}{Медиана и мода}
{ Мода}~--- наиболее часто встречающееся значение (но вполне могут быть мультимодальные
распределения). { Медиана} делит площадь распределения пополам.
\end{block}
\img[0.6]{mode_median}}
\only<2>{\begin{block}{Моменты}
Если $f(x)=(x-x_0)^n$, то $\mean{f(x)}$~--- момент порядка~$n$. Если $x_0=0$~--- начальный
момент, если $x_0=\mean{X}$--- центральный момент.
Моменты нулевого порядка равны~1, начальный момент первого порядка равен математическому ожиданию
случайной величины; центральный момент первого порядка равен нулю.
Центральный момент второго порядка называют дисперсией: $D(X)=\mean{(x-\mean{x})^2}\equiv
\mean{x^2}-\mean{x}^2$, $\sigma=\sqrt{D}$.
\smallskip
Свойства дисперсии:
\begin{itemize}
\item $D(\const)=0$;
\item $D(\const X)=C^2 D(X)$, где $\C$~-- постоянная величина;
\item $D(\sum X_n)=\sum D(X_n)$.
\end{itemize}
\end{block}
}
\end{frame}
\section{Законы распределения}
\begin{frame}{Законы распределения}
\begin{defin}
Закон распределения дискретной случайной величины~--- соответствие между возможными
значениями и их вероятностями.
\end{defin}
\begin{block}{Функция распределения}
$$F(x)\equiv P(X\le x)=\Int_{-\infty}^x\phi(x)\,dx, \qquad
\Infint\phi(x)\,dx=1.$$
$$P(a\le X\le b)=F(b)-F(a).$$
\end{block}
\end{frame}
\begin{frame}{Равномерное распределение}
\begin{columns}\column{0.45\textwidth}
\begin{block}{}
$$
\phi(x)=\begin{cases}\frac1{b-a}, & x\in [a,b] \\ 0, & x\not\in [a,b]
\end{cases}.
$$
$$F(x)= \begin{cases} 0, & x < a \\ \frac{x-a}{b-a}, & a \le x < b \\ 1, & x \ge
b \end{cases}.
$$
\end{block}\column{0.45\textwidth}
\begin{block}{}
$\mean{X}=\med(X)=(a+b)/2$, $\moda(X)=\forall x\in[a,b]$,
$\displaystyle\sigma^2_X = \frac{(b-a)^2}{12}$.
\end{block}
\end{columns}
\smimg[0.45]{Uniform_distribution_PDF}\hspace{3pt}
\smimg[0.45]{Uniform_distribution_CDF}
\end{frame}
\begin{lightframe}{Биномиальное распределение}
\vspace*{-0.8em}\begin{block}{}
Формула Бернулли:
$\displaystyle P_n(k)=C_n^k p^k q^{n-k},\quad C_n^k=\frac{n!}{k!(n-k)!},\quad
q=1-p.$
$$(p+q)^n=C_n^n p^n+\cdots+C_n^k p^k q^{n-k}+\cdots+C_n^0 q^k.$$
Описывает вероятность наступления события~$k$
раз в~$n$ независимых испытаниях
\end{block}\vspace*{-1em}
\begin{columns}
\column{0.45\textwidth}
\img{Binomial_Distribution}
\column{0.55\textwidth}
\begin{block}{}
$$
F(k;n,p)=P(X\leq k)=\sum_{i=0}^\floor{k} C_n^i p^i(1-p)^{n-i}.$$
$\mean{X}=np$, $\moda(X)=\floor{(n+1)p}$, $\floor{np}\le\med(X)\le\ceil{np}$,
$\sigma^2_X = npq$.
\end{block}
\end{columns}
\end{lightframe}
\begin{frame}{Распределение Пуассона}
\vspace*{-2em}\begin{block}{}
При $n\to\infty$ распределение Бернулли преобразуется в распределение Пуассона ($\lambda=np$):
$$P_n(k)=\frac{\lambda^k}{k!}\exp(-\lambda).$$
\end{block}
\begin{columns}\column{0.48\textwidth}
\begin{block}{}
$F(k, \lambda) = \displaystyle\frac{\Gamma(k+1,\lambda)}{k!}$,
$\mean{X} = \lambda$, $\moda(X) = \floor{\lambda}$,
$\med{X}\approx\floor{\lambda+1/3-0.02/\lambda}$,
$\sigma^2_X = \lambda$.
С ростом $\lambda$ распределение Пуассона стремится к распределению Гаусса.
\end{block}
\column{0.48\textwidth}
\img{poissonpdf}
\end{columns}
\end{frame}
\begin{frame}{Распределение Гаусса}
\vspace*{-2em}\begin{block}{}
$$
\phi (x) = \frac 1 {\sigma \sqrt {2 \pi}} \exp \left( -\frac {(x -\mean{x})^2}{2
\sigma^2} \right)
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$F(x) = \displaystyle\frac 1{\sigma \sqrt {2 \pi}} \Int_{-\infty}^x \exp \left( -\frac{(t
-\mean{x})^2}{2 \sigma^2} \right)\, dt$,
$\moda(X) = \med{X} = \mean{X}$.
\end{block}
\vspace*{-1em}\img[0.6]{normpdf}
\end{frame}
\begin{frame}{Показательное (экспоненциальное) распределение}
\vspace*{-1em}\begin{block}{}
Время между двумя последовательными свершениями события
$$f(x)=\begin{cases}
0,& x<0,\\
\lambda\exp(-\lambda x),& x\ge0;
\end{cases}\qquad
F(x)=\begin{cases}
0,& x<0,\\
1-\exp(-\lambda x),& x\ge0,
\end{cases}
$$
\end{block}
\vspace*{-1em}\begin{block}{}
$\mean{X} = \lambda^{-1}$,
$\moda(X) = 0$, $\med{X} = \ln(2)/\lambda$,
$\sigma^2_X = \lambda^{-2}$.
\end{block}
\vspace*{-1em}\img[0.5]{exppdf}
\end{frame}
\section{Корреляция и ковариация}
\begin{frame}{Корреляция и ковариация}
\begin{defin}
{}Ковариация является мерой линейной зависимости случайных величин и определяется формулой:
$\mathrm{cov}(X,Y)=\mean{(X-\mean{X})(Y-\mean{Y})}$ $\Longrightarrow$ $\mathrm{cov}(X,X) =
\sigma^2_X$.
Ковариация независимых случайных величин равна нулю, обратное неверно.
\end{defin}
\begin{block}{}
Если ковариация положительна, то с ростом значений одной случайной величины, значения второй имеют
тенденцию возрастать, а если знак отрицательный~--- убывать.
Масштаб зависимости величин пропорционален их дисперсиям $\Longrightarrow$ масштаб можно
отнормировать ({}коэффициент корреляции Пирсона):
$$\rho_{X,Y}=\frac{\mathrm{cov}(X,Y)}{\sigma X\sigma Y}, \qquad \mathbf{r}\in[-1,1].$$
\end{block}
\end{frame}
\begin{frame}{}
\begin{block}{}
Коэффициент корреляции равен~$\pm1$ тогда и только тогда, когда~$X$ и~$Y$ линейно зависимы. Если
они независимы, $\rho_{X,Y}=0$ ({}обратное неверно!). Промежуточные значения коэффициента
корреляции не позволяют однозначно судить о зависимости случайных величин, но позволяет предполагать
степень их зависимости.
\end{block}
\begin{block}{Корреляционная функция}
Одна из разновидностей~--- автокорреляционная функция:
$$
\Psi(\tau) = \Int f(t) f(t-\tau)\, dt\equiv
\Int f(t+\tau) f(t)\,dt.
$$
Для дискретных случайных величин автокорреляционная функция имеет вид
$$
\Psi(\tau) = \aver{X(t)X(t-\tau)}\equiv\aver{X(t+\tau)X(t)}.
$$
\end{block}
\end{frame}
\begin{blueframe}{}
\begin{block}{Взаимно корреляционная функция}
Другая разновидность~--- кросс--корреляционная функция:
$$(f\star g)(t)\stackrel{\mathrm{def}}{=}\Infint f^{*}(\tau)g(t+\tau)\,d\tau$$
свертка:
$$ (f*g)(x)\stackrel{\mathrm{def}}{=}\Infint f(y)\,g(x-y)\,dy = \Infint f(x-y)\,g(y)\, dy.$$
\end{block}
\img[0.5]{convcorr}
\end{blueframe}
\begin{frame}{}
\begin{block}{}
Если $X$ и $Y$~--- два независимых случайных числа с функциями распределения вероятностей
$f$ и $g$, то $f\star g$ соответствует распределению вероятностей выражения $-X+Y$, а $f*g$~---
распределению вероятностей суммы $X + Y$.
ВКФ часто используется для поиска в длинной последовательности более короткой заранее известной,
определения сдвига (см.~рис).
Связь со сверткой: $f(t)\star g(t) = f^*(-t) * g(t)$, если $f$ и $g$ четны, то
$f(t)\star g(t) = f(t) * g(t)$. Через преобразование Фурье:
$\FT{f \star g} = \FT{f}^*\cdot\FT{g}$.
\end{block}\img[0.6]{autocorr}
\end{frame}
\section{Шум}
\begin{frame}{Шум}
\begin{defin}
Шум~--- беспорядочные колебания различной физической природы, отличающиеся сложной временной и
спектральной структурой.
\end{defin}
\begin{block}{}
Белый шум, $\xi(t)$, имеет время корреляции много меньше всех характерных времен физической
системы; $\mean{\xi(t)}=0$, $\Psi(t,\tau)=\aver{\xi(t+\tau)\xi(t)}=\sigma^2(t)\delta(\tau)$.
Разновидность~--- AWGN.
Дробовой шум имеет пуассонову статистику~\so $\sigma_X\propto\sqrt{x}$ и
$\SNR(N)\propto\sqrt{N}$. Суточные и вековые корреляции.
Шум вида <<соль--перец>> обычно характерен для изображений, считываемых с ПЗС.
\end{block}
\end{frame}
\begin{frame}{SNR}
\begin{defin}
SNR~--- безразмерная величина, равная отношению мощности полезного сигнала к мощности шума.
\end{defin}
\begin{block}{}
$$\SNR = {P_\mathrm{signal} \over P_\mathrm{noise}} = \left ({A_\mathrm{signal} \over
A_\mathrm{noise} } \right )^2, \quad
\SNR(dB) = 10 \lg \left ( {P_\mathrm{signal} \over P_\mathrm{noise}}
\right )
= 20 \lg \left ( {A_\mathrm{signal} \over A_\mathrm{noise}} \right ).
$$
\end{block}
\img[0.6]{SNR}
\centerline{\tiny (10, 0, -10~дБ.)}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

Binary file not shown.

View File

@ -0,0 +1,283 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{ed}
\usepackage{lect}
\title[Компьютерная обработка. Лекции 3, 4.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 3. Теория физических измерений. Систематические и случайные погрешности.\\
Лекция 4. Теория оценок.}
\date{28 сентября 2016 года}
\begin{document}
% Титул
\begin{frame}
\maketitle
\end{frame}
% Содержание
\begin{frame}
\tableofcontents
\end{frame}
\section{Измерения и величины}
\begin{frame}{Измерения и величины}
\begin{defin}
Мерой называется средство измерений, предназначенное для воспроизведения и хранения значения
физической величины.
Результатом сравнения оцениваемой вещи с мерой является именованное число,
называемое значением величины.
\end{defin}
\begin{block}{Физические величины}
\begin{itemize}
\item постоянные (инварианты, константы, априорно фиксированные значения);
\item изменяющиеся (по определенному закону от $t$);
\item случайные (не имеющие точного значения).
\end{itemize}
Единицы измерения, размерность.\par
Скалярные, векторные, комплексные, тензорные величины.\par
Метрология.
\end{block}
\end{frame}
\begin{frame}{Виды измерений}
\begin{description}
\only<1>{
\item[Прямое] при котором искомое значение физической величины получают непосредственно.
\item[Косвенное] на основании результатов прямых измерений других физических величин,
функционально связанных с искомой величиной.
\item[Совместные] проводимые одновременно для нескольких неодноименных величин для определения
зависимости между ними.
\item[Совокупные] при которых искомые значения величин определяют путем решения системы уравнений,
получаемых при измерениях этих величин в различных сочетаниях.
\item[Равноточные] выполненные одинаковыми по точности средствами измерений.
\item[Неравноточные] выполненных различающимися по точности средствами измерений и (или) в разных
условиях.}
\only<2>{
\item[Однократное, многократное]
\item[Статическое] для величины, принимаемой в соответствии с конкретной измерительной задачей за
неизменную на протяжении времени измерения.
\item[Динамическое] для изменяющейся по размеру физической величины.
\item[Абсолютное] основанное на прямых измерениях одной или нескольких основных
величин и (или) использовании значений физических констант.
\item[Относительное] сравнение с эталонными мерами.}
\end{description}
\end{frame}
\begin{frame}{Представление результатов измерений}
\begin{columns}\column{0.5\textwidth}
Графическое
\img[0.7]{graph_res}
\column{0.5\textwidth}
Табличное
\img{tab_res}
\end{columns}
\end{frame}
\section{Погрешность}
\begin{frame}{Погрешность}
\only<1>{
\begin{defin}
Погрешность --- отклонение измеренного значения величины от её истинного (действительного)
значения.
\end{defin}
\begin{block}{}
Абсолютная погрешность, $\Delta x$ (напр., RMS); относительная погрешность, $\delta x=\Delta
x/\mean{x}$; приведенная погрешность $\gamma x=\Delta x/N_x$ (нормировочный коэффициент).
\end{block}
\begin{block}{По причине возникновения}
\begin{description}
\item[Инструментальные] определяются погрешностями применяемых средств измерений.
\item[Методические] обусловлены несовершенством метода, а также упрощениями, положенными в основу
методики.
\item[Субъективные] обусловлены качествами экспериментатора.
\end{description}
\end{block}}
\only<2>{
\begin{block}{По характеру проявления}
\begin{description}
\item[Случайные] обусловлены совокупностью внешних факторов, влияющих на результат эксперимента.
\item[Систематические] связаны с влиянием прибора на измеряемую величину или методическими
ошибками, выявляются лишь сменой прибора\slash метода\slash экспериментатора.
\item[Промахи] наиболее сильно себя проявляют и связаны с неисправностью прибора или
экспериментатора.
\end{description}
\end{block}
\begin{block}{Средняя квадратическая погрешность среднего арифметического}
$$
\sigma_{\mean{x}}=\frac{\sigma_x}{\sqrt{n}}=
\sqrt{\frac{\sum\limits_{i=1}^n(\mean{x_i}-\aver{x})^2}{n(n-1)}}.
$$
\end{block}
}
\end{frame}
\begin{frame}{Доверительный интервал}
\only<1>{\begin{columns}\column{0.6\textwidth}
\begin{block}{Доверительная вероятность}
$p = P(X_0 \le x \le X_1)$
\end{block}
\begin{block}{Математическое ожидание}
Если известен закон распределения (мат. ожидание и дисперсия: $\mu$ и $\sigma$), то
$$P\Bigl(\mean{X}-z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}} \le \mu \le
\mean{X}+z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}}\Bigr) = 1 - \alpha,$$
где $z_\alpha$~-- $\alpha$--квантиль нормального распределения
\end{block}
\column{0.4\textwidth}
\img{Boxplot_vs_PDF}
Квантили: первый, второй (медиана) и третий.
\end{columns}
}
\only<2>{
\begin{block}{Математическое ожидание}
Если закон распределения неизвестен, то
$$P\Bigl(\mean{X}-t_{1-\frac{\alpha}2, n-1}\frac{S}{\sqrt{n}} \le \mu \le
\mean{X}+t_{1-\frac{\alpha}2,n-1}\frac{S}{\sqrt{n}}\Bigr) = 1 - \alpha,$$
где $S$~-- несмещенный RMS. Величина
$$T=\frac{\mean{X}-\mu}{S/\sqrt{n}}$$ имеет распределение Стьюдента, а $t_{\alpha, n-1}$~-- его
квантили.
Пример: $\mean{X}=10$, $S_n=2$, $n=11$ (10~степеней свободы), по таблице для двухстороннего
распределения Стьюдента с вероятностью~95\% $T_{10}^{95}=2.228$. Тогда доверительный интервал есть
$\mean{X}\pm TS_n/\sqrt{n}$, т.е. $\mu\in(8.6565, 11.3440)$.
\end{block}
}
\only<3>{
\begin{block}{Дисперсия}
Если известно среднее, можно воспользоваться распределением $\chi^2$.
$$
P\Biggl(\frac{\displaystyle\sum_{i=1}^n (X_i-\mu)^2}{\chi^2_{(1+\alpha)/2,n}}\le\sigma^2\le
\frac{\displaystyle\sum_{i=1}^n (X_i-\mu)^2}{\chi^2_{(1-\alpha)/2,n}}\Biggr)=\alpha.
$$
Если же среднее неизвестно, то
$$
P\Bigl(\frac{(n-1)S^2}{\chi^2_{(1+\alpha)/2,n-1}}\le\sigma^2\le
\frac{(n-1)S^2}{\chi^2_{(1-\alpha)/2,n-1}}\Bigr)=\alpha.
$$
\end{block}
}
\end{frame}
\begin{frame}{Правила вычисления погрешностей}
\begin{block}{}
\begin{enumerate}
\item
$$\Delta\bigl(\sum a_n\bigr)=\sum\Delta a_n.$$
\item
$$\prod(a_i\pm\Delta a_i)=\prod a_i\prod(1\pm\delta a_i)\approx
\prod a_i(1\pm\sum\delta a_i),$$
$$\bigl(a[1\pm\delta a]\bigr)^n\approx a^n(1\pm n\delta a).$$
\item В сложных функциях вида $y=f(x_1,\ldots,x_n)$ можно оценить
погрешность, воспользовавшись приближением:
$$
\delta y\approx\Bigl|\frac{dy}{y}\Bigr|=\Bigl|
\frac{d f(x_1,\ldots,x_n)}{f(x_1,\ldots,x_n)}\Bigr|,
$$
в котором следует заменить $\frc{dx_i}{x_i}=\delta x_i$~-- относительная
погрешность
измерения величины~$x_i$, $d x_i=\Delta x_i$~-- абсолютная погрешность. Все
слагаемые необходимо суммировать по абсолютной величине.
\end{enumerate}
\end{block}
\end{frame}
\section{Метод наименьших квадратов}
\begin{frame}{Метод наименьших квадратов}
\begin{block}{}
Пусть имеется функция $f(x|a)$, зависящая от аргумента $x$ и набора параметров~$a$. Данной функции
соответствует набор пар данных $(x_n,y_n)$, причем $y_n=f(x_n|a)+\epsilon_n$, где $\epsilon_n$~--
случайная ошибка. Математическое ожидание ошибки $\mean{\epsilon}=0$, ее среднеквадратическое
отклонение равно~$\sigma_n$. Для оценки~$a$ (аппроксимации набора данных заданной функцией)
необходимо минимизировать выражение
$$\Phi=\sum_{n=1}^N\Bigl(\frac{y_n-f(x_n|a)}{\sigma^2_n}\Bigr)^2.$$
При этом подразумевается, что число измерений превышает число параметров~$a$.
\end{block}
\end{frame}
\begin{frame}{Пример: линейная зависимость}
\begin{block}{}
Пусть $y=ax+b$, $x_n$ известны с пренебрежимо малой погрешностью, $y_n$~-- результаты измерений
с нормальным распределением, $\mean{y_i}=ax_i+b$. Минимизируем величину $Y=\sum(y_i-\mean{y_i})^2$,
$\partder{Y}{a}=0$, $\partder{Y}{b}=0$:
$$
a=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{n\sum x^2_i-\Bigl(\sum x_i\Bigr)^2}=
\frac{\mean{xy}-\mean{x}\,\mean{y}}{\mean{x^2}-(\mean{x})^2},
$$
$$
b=\frac{\sum x_i^2\sum y_i-\sum x_i\sum x_i y_i}{n\sum x^2_i-\Bigl(\sum
x_i\Bigr)^2}=
\frac{\mean{x^2\strut}\,\mean{\strut
y}-\mean{x}\,\mean{xy}}{\mean{x^2}-(\mean{x})^2}.
$$
$$
\sigma^2=\frac{n}{n-2}\Bigl(\mean{y^2}-(\mean{y})^2-a^2\bigl[
\mean{x^2}-(\mean{x})^2\bigr]\Bigr),\qquad
\sigma^2_a=\frac{\sigma^2}{n\bigl(\mean{x^2}-(\mean{x})^2\bigr)},\quad
\sigma_b^2=\sigma_a^2\mean{x^2}.
$$
\end{block}
\end{frame}
\begin{frame}{Аппроксимация МНК}
\only<1>{\img{lesssquare}}
\only<2>{
\begin{block}{}
Некоторые зависимости, можно свести к линейным. Например, $y=\e^{ax+b}$ \so $\ln y=ax+b$.
Возможно также сведение зависимостей к системам линейных уравнений $A\vec{x}=\vec{b}$, ранг матрицы
$A$ должен быть больше количества искомых переменных. Минимизируем
$(A\vec{x}-\vec{b})^T(A\vec{x}-\vec{b})$, что приводит к системе уравнений
$$
A^TA\vec{x}=A^T\vec{b}\quad\so\quad
\vec{x}=(A^TA)^{-1}A^T\vec{b}.
$$
Или $\vec{x}=A^{+}\vec{b}$ (псевдообратная матрица), в Octave~--- <<левое деление>> $A\backslash
b$.
\end{block}
}
\end{frame}
\begin{frame}[fragile]{}
\begin{block}{Пример}
Пусть заведомо величина изменяется по закону $y=a_0+a_1\e^{-t}+a_2te^{-t}$.
В матричном виде $Y=TA$, где $T$~-- функциональная матрица, у которой в первом столбце
размещены единицы (соответствует умножению на~$a_0$), во втором~--- функция
$\e^{-t}$, а в третьем~--- $t\e^{-t}$. Коэффициенты~$A$ найдем при помощи МНК:
$A=T\backslash Y$.
\begin{verbatim}
t = [0 0.3 0.8 1.1 1.6 2.3]';
y = [0.6 0.67 1.01 1.35 1.47 1.25]';
T = [ones(size(t)) exp(-t) t.*exp(-t)];
A = T\y
\end{verbatim}
\end{block}
\end{frame}
\section{Правило <<трех сигм>>}
\begin{frame}{Правило <<трех сигм>>}
\begin{block}{}
При гауссовом распределении случайной величины вероятность
$$P(|x-\mean{x}|<3\sigma)=2\Phi(3)=0.9973.$$
($\Phi$~-- нормальное интегральное распределение).
\end{block}
\begin{defin}
Правило трех сигм: если случайная величина распределена нормально, то абсолютная величина ее
отклонения от математического ожидания не превосходит утроенного среднего квадратичного отклонения.
\end{defin}
\begin{defin}
Теорема Ляпунова: случайная величина, являющаяся суммой большого числа взаимно независимых
случайных величин, имеет нормальное распределение.
\end{defin}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

BIN
Komp_obr/05-sistur.pdf Normal file

Binary file not shown.

226
Komp_obr/05-sistur.tex Normal file
View File

@ -0,0 +1,226 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{ed}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 5.]{Компьютерная обработка результатов
измерений}
\subtitle{Лекция 5. Системы уравнений}
\date{29 сентября 2016 года}
\begin{document}
% Титул
\begin{frame}
\maketitle
\end{frame}
% Содержание
\begin{frame}
\tableofcontents
\end{frame}
\section{Системы уравнений}
\begin{frame}{Системы уравнений}
\begin{defin}
Система линейных уравнений для $n$ неизвестных имеет вид:
$$
\left\{
\begin{aligned}
a_{11}x_1+a_{12}x_2&+\cdots+a_{1n}x_n&=b_1;\\
a_{21}x_1+a_{22}x_2&+\cdots+a_{2n}x_n&=b_2;\\
\cdots\\
a_{n1}x_1+a_{n2}x_2&+\cdots+a_{nn}x_n&=b_n.
\end{aligned}
\right.
$$
\end{defin}
\begin{defin}
Если существует вектор--столбец~$\B x$, обращающий выражение~$\B{Ax=b}$ в тождество, говорят,
что~$\B x$ является решением данной системы уравнений.
$|\B A|\ne0$.
\end{defin}
\end{frame}
\begin{frame}{Методы решений}
\only<1>{\begin{block}{}
$\delta=\B{Ax-b}$.
Приближенные методы: $\mathrm{min}(\delta)$. Точные методы: $\delta=0$.\\
\end{block}
\begin{block}{Метод простой итерации}
$\B{x=Bx+c}$, $\B x_{n+1}=\B B\B x_n+\B c$.\\
Сложностью метода простой итерации при решении матриц больших размерностей является особое свойство
таких матриц~--- существование почти собственных значений, $\lambda$:
$||\B{Ax}-\lambda\B x||\le\epsilon||\B x||$ при $||\B x||\ne0$.\\
\end{block}
\begin{block}{Матричный метод}
$\B x = \B A^{-1}\B b$
\end{block}
}
\only<2>{
\begin{block}{Метод Гаусса}
$$
\B A_d\B{x} = \pmb\beta,\quad
\B A_d=\begin{pmatrix}
\alpha_{11}&\alpha_{12}&\alpha_{13}&\cdots&\alpha_{1m}\\
0&\alpha_{22}&\alpha_{23}&\cdots&\alpha_{2m}\\
\cdot&\cdot&\cdot&\cdots&\cdot\\
0&0&0&\cdots&\alpha_{mm}
\end{pmatrix}.
$$
Прямой ход~--- преобразование к диагональной форме:
$$
\left(\begin{matrix}
\alpha_{11}&\alpha_{12}&\alpha_{13}&\cdots&\alpha_{1m}\\
0&\alpha_{22}&\alpha_{23}&\cdots&\alpha_{2m}\\
\cdot&\cdot&\cdot&\cdots&\cdot\\
0&0&0&\cdots&\alpha_{mm}
\end{matrix}\middle|
\begin{matrix}\beta_1\\\beta_2\\\cdot\\\beta_m\end{matrix}\right).
$$
Обратный ход~--- последовательное нахождение $x_m$, $x_{m-1}$, \dots, $x_1$.
$N\propto n^3$~--- прямой, $N\propto n^2$~--- обратный ход.
\end{block}
}
\only<3>{
\begin{block}{}
Метод Зейделя: \\
$$\B{Bx}_{n+1}+\B{Cx}_n=\B b,$$
где
$$\B B=\begin{pmatrix}
a_{11}&0&0&\cdots&0\\
a_{21}&a_{22}&0&\cdots&0\\
\cdot&\cdot&\cdot&\cdots&\cdot\\
a_{m1}&a_{m2}&a_{m3}&\cdots&a_{mm}
\end{pmatrix},\qquad
\B C=\begin{pmatrix}
0&a_{12}&a_{13}&\cdots&a_{1m}\\
0&0&a_{23}&\cdots&a_{2m}\\
\cdot&\cdot&\cdot&\cdots&\cdot\\
0&0&0&\cdots&0
\end{pmatrix}.
$$
Отсюда получаем
$$\B x_{n+1}=-\B B^{-1}\B{Cx}_n +\B B^{-1}\B b.$$
\end{block}
}
\only<4>{
\begin{block}{}
Если $\B A$ содержит~$m$ строк и~$n$ столбцов, то:
\begin{description}
\item[$m=n$] квадратная матрица, возможно существование точного решения;
\item[$m<n$] недоопределенная система, решение возможно лишь в общем виде
с по крайней мере~$n-m$ свободных коэффициентов;
\item[$m>n$] переопределенная система, приближенное решение которой находится
при помощи метода наименьших квадратов (в случае линейной зависимости строк
данной системы может существовать и точное решение).
\end{description}
\end{block}
\begin{block}{Приближенные решения}
МНК ($\B{x=A\backslash b}$), псевдообратная матрица, \dots
\end{block}
}
\end{frame}
\section{Степенные уравнения}
\begin{frame}{Степенные уравнения}
\begin{defin}
Степенное уравнение имеет вид $p_n(x)=0$, где $p_n(x)$~-- полином~$n$~-й степени вида
$p_n(x)=\sum_{i=0}^n C_nx^n$.
\end{defin}
\begin{block}{Методы решения}
Точные~--- до третьей степени включительно (в общем случае) и итерационные:
\begin{description}
\item[бисекция] деление пополам отрезка, где находится корень;
\item[метод хорд] замена полинома хордой, проходящей через точки $(x_1, p_n(x_1)$ и $(x_2,
p_n(x_2)$;
\item[метод Ньютона] имеет быструю сходимость, но требует знакопостоянства $f'(x)$ и $f''(x)$ на
выбранном интервале $(x_1, x_2)$.
\end{description}
\end{block}
\end{frame}
\begin{blueframe}{Метод Ньютона}
\img[0.7]{Newton_iteration}
\end{blueframe}
\section{Численное интегрирование и дифференцирование}
\begin{frame}{Численное интегрирование и дифференцирование}
\only<1>{
\begin{block}{Численное интегрирование}
Для численного решения уравнения $\displaystyle I=\Int_a^b f(x)\,dx$ наиболее популярны:
\begin{description}
\item[метод прямоугольников] $I\approx\sum_{i=1}^n f(x_i)[x_i-x_{i-1}]$;
\item[метод трапеций] $I\approx\sum_{i=1}^n \frac{f(x_{i-1})+f(x_i)}{2}[x_i-x_{i-1}]$;
\item[метод Симпсона] $\Int_{-1}^1 f(x)\,dx\approx\frac13\bigl(f(-1)+4f(0)+f(1)\bigr)$ \so
$I\approx\frac{b-a}{6n}\Bigl(f(x_0)+f(x_n)+2\sum_{i=1}^{n/2-1}
f(x_{2i}) + 4\sum_{i=1}^{n/2}f(x_{2i-1})\Bigr)$.
\end{description}
и многие другие.
\end{block}}
\only<2>{
\begin{block}{Численное дифференцирование}
Аппроксимация функции интерполяционным многочленом (Ньютона, Стирлинга и т.п.), разделенные
разности.
В нулевом приближении можно заменить производную $f^{(n)}$ разделенной разностью $n$-го порядка:
$$f(x_0; x_1; \ldots; x_n) = \sum_{i=0}^n \frac{f(x_i)}{\displaystyle
\prod_{j=0, j\ne i}^n\!\!(x_i - x_j)}.$$
\end{block}}
\end{frame}
\section{Дифференциальные уравнения}
\begin{frame}{Дифференциальные уравнения}
\only<1>{
\begin{defin}
Обыкновенные дифференциальные уравнения~(ОДУ) порядка~$n$ задаются в виде
функции $f(x,y,y',\ldots,y^{(n)})=0$.
\end{defin}
\begin{block}{}
Разделение переменных:\vspace{-2em}
$$y'=f(x,y) \so \phi(y)\,dy=\psi(x)\,dx \so y=y_0+\Int_0^{x}\psi(x)\,dx.$$
ОДУ второго порядка:
$$Ay''+By'+Cy+Dx=0.$$
Если $D\equiv0$, а множители $A$, $B$ и~$C$~--- константы, имеем однородное ОДУ.
$y=\C_1\exp(k_1x)+\C_2\exp(k_2x)$, где~$k_1$ и~$k_2$~-- корни
характеристического уравнения $Ak^2+Bk+C=0$.
\end{block}}
\only<2>{
\begin{defin}
Дифференциальные уравнения в частных производных~(ЧДУ) для функции
$y=y(x_1,x_2,\cdots,x_n)$ имеют вид
$$f(y,x_1,\ldots,x_n;\partder{y}{x_1},\ldots;\dpartder{y}{x_1},\ldots;\cdots;
\frac{\partial^m y}{\partial x_1^m},\ldots)=0.$$
\end{defin}
\begin{block}{}
Однако, наиболее часто встречаются ЧДУ первого порядка для функции двух
переменных $z=z(x,y)$ вида
$$f(z,x,y,\partder{z}{x},\partder{z}{y})=0.$$
\end{block}}
\only<3>{
\begin{block}
Нелинейные дифференциальные уравнения содержат некоторые производные
функции~$y$ не как простые множители, а как аргументы функций (чаще всего~---
степенных), например: $(y'')^3-\sin y'=\tg(xy)$. Обычные физические задачи
никогда не приводят к таким уравнениям, однако, и их решения вполне можно
найти при помощи численных методов.
\end{block}
\begin{block}{Методы решения}
Рунге--Кутты, Эйлера, Адамса, конечных разностей и т.п.
Дифференциальные уравнения высших порядков сводят путем замены переменных к системе ОДУ первого
порядка.
\end{block}
}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

BIN
Komp_obr/06-analysis.pdf Normal file

Binary file not shown.

99
Komp_obr/06-analysis.tex Normal file
View File

@ -0,0 +1,99 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
%\hypersetup{pdfpagemode=FullScreen}
\usepackage{ed}
\usepackage{lect}
\title[Компьютерная обработка. Лекция 6.]{Компьютерная обработка результатов измерений}
\subtitle{Лекция 6. Анализ временных рядов. Фурье-- и Вейвлет--анализ}
\date{5 октября 2016 года}
\begin{document}
% Титул
\begin{frame}
\maketitle
\end{frame}
% Содержание
\begin{frame}
\tableofcontents
\end{frame}
\section{Аппроксимация и интерполяция}
\begin{frame}{Аппроксимация и интерполяция}
\only<1>{
\begin{defin}
Аппроксимация. Некоторую функцию $f(x)$, $x\in(x_0, x_1)$ требуется приближенно заменить
некоторой функцией~$g(x)$ так, чтобы отклонение~$g(x)$ от~$f(x)$ в заданной области было наименьшим.
\end{defin}
\begin{block}{}
Точечная (интерполяция, среднеквадратичное приближение и т.п.) и непрерывная аппроксимации.
\end{block}
\begin{defin}
Интерполяция является частным случаем аппроксимации, позволяющем вычислить промежуточные
значения дискретной функции.
\end{defin}}
\begin{block}{Ряд Тейлора}
$$f(x)=f(x_0)+(x-x_0)f'(x_0)+\cdots+\frac{(x-x_0)^nf^{(n)}(x_0)}{n!}+R_n.$$
\end{block}
\only<2>{
\begin{block}{}
Выбирая первые $N$ членов ряда Тейлора получаем разные виды интерполяции. Линейная:
$$f_n(x)\approx y_n+(x-x_n)\frac{y_{n+1}-y_n}{x_{n+1}-x_n}.$$
Ньютона (для равноотстоящих $x$, $h=x_{n+1}-x_n$):
$$f^k_n(x)\approx y_n + q\Delta y_n + \frac{1(1-q)}{2!}\Delta^2y_n + \cdots
+\frac{q(q-1)\cdots(q-k+1)}{k!}\Delta^ky_n,$$
где $q=\dfrac{x-x_n}{h}$, $\Delta^i$~-- конечные разности ($\Delta y_n = y_{n+1}-y_n$, \dots,
$\Delta^k y_n = \Delta^{k-1}y_{n+1} - \Delta^{k-1}y_n$).
\end{block}
}
\end{frame}
\begin{frame}{}
\begin{defin}
Сплайн~--- кусочная полиномиальная функция, которая на заданном отрезке может принимать очень
простую форму, в то же время имея гибкость и гладкость.
\end{defin}
\begin{block}{Степенной сплайн}
Набор полиномов степени $k$ со следующими ограничениями:
\begin{itemize}
\item сплайны должны совпадать в узловых точках с задающей функцией: $p_n(x_n) = f(x_n)$;
\item предыдущий сплайн должен переходить в следующий в точках сшивания,
$p_n(x_n)=p_{n+1}(x_n)$;
\item все производные до $f^{(k-1)}$ должны быть непрерывными и гладкими:
$p^i_n(x_n)=p^i_{n+1}(x_n)$ для $i=\overline{1,k-1}$;
\end{itemize}
$n-1$ полином степени $k$ имеют $(k+1)(n-1)=(k+1)n-k-1$ свободных коэффициентов. Данные ограничения
дают нам
$n+(n-2)\cdot k=(k+1)n-2k$ уравнений. Чтобы получить еще $k-1$ уравнений, нужны дополнительные
условия. Чем больше $k$, тем тяжелей. Поэтому обычно дальше $k=3$ не идут.
\end{block}
\end{frame}
\begin{frame}{}
\only<1>{
\begin{block}{B--сплайн}
Базисные сплайны менее подвержены влиянию изменения отдельных точек данных (изменение одной вершины
B--сплайна степени $k$ ведет к изменению лишь $k+1$ соседних сплайнов). При этом, однако, теряются
точные интерполяционные свойства: $p_n(x_n)\ne f(x_n)$ \so снижается влияние шумов (B--сплайн
проходит только через первый и последний узлы, повышаем степень~--- улучшаем сглаживание данных).
Количество узлов: $n\ge k+1$.
\end{block}
\begin{block}{Сплайны Акимы}
Дают меньшие осцилляции.
\end{block}}
\only<2>{
\img[0.7]{1D_Inter_polation}
}
\end{frame}
\begin{frame}{Спасибо за внимание!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

11
Komp_obr/Makefile Normal file
View File

@ -0,0 +1,11 @@
SRCS = $(wildcard *.tex)
PDFS = $(SRCS:.tex=.pdf)
all: $(PDFS)
%.pdf : %.tex
latexmk --pdf $<
clean:
rm -f *.aux *.log *.nav *.out *.snm *.vrb *.backup *.toc *~ *.fls *.fdb_latexmk

85
Komp_obr/lect.sty Normal file
View File

@ -0,0 +1,85 @@
\usepackage[T2A]{fontenc} %ÐÏÄÄÅÒÖËÁ ËÉÒÉÌÌÉÃÙ
\usepackage[koi8-r]{inputenc}
\usepackage[english,russian]{babel}
\usepackage{xspace}
%\usepackage[intlimits]{amsmath}
\def\No{\textnumero}
\graphicspath{{./pic/}}
\usetheme{Boadilla}
\usefonttheme{structurebold}
\usefonttheme[onlymath]{serif}
\setbeamercovered{transparent}
\newenvironment{pict}%
{\begin{figure}[!h]\begin{center}\noindent}%
{\end{center}\end{figure}}
\setbeamercolor{color1}{bg=blue!50!black,fg=white}
\setbeamercolor{normal text}{bg=blue!20!black,fg=cyan!70!white}
\setbeamercolor{frametitle}{fg=red,bg=blue!40!black}
\setbeamercolor{title}{fg=red,bg=blue!40!black}
\setbeamercolor{block title}{fg=cyan,bg=blue!40!black}
\newenvironment{defin}{\begin{beamercolorbox}[shadow=true, rounded=true]{color1}}%
{\end{beamercolorbox}}
\newcommand{\img}[2][]{\begin{pict}\includegraphics[width=#1\columnwidth]{#2}\end{pict}}
\newcommand{\smimg}[2][]{\includegraphics[width=#1\columnwidth]{#2}}
\logo{\includegraphics[width=1cm,height=1cm,keepaspectratio]{saologo.jpg}}
\def\daterussian{ % fix for iÀÎÑ and iÀÌÑ
\def\today{\number\day~\ifcase\month\or
\cyrya\cyrn\cyrv\cyra\cyrr\cyrya\or
\cyrf\cyre\cyrv\cyrr\cyra\cyrl\cyrya\or
\cyrm\cyra\cyrr\cyrt\cyra\or
\cyra\cyrp\cyrr\cyre\cyrl\cyrya\or
\cyrm\cyra\cyrya\or
\cyri\cyryu\cyrn\cyrya\or
\cyri\cyryu\cyrl\cyrya\or
\cyra\cyrv\cyrg\cyru\cyrs\cyrt\cyra\or
\cyrs\cyre\cyrn\cyrt\cyrya\cyrb\cyrr\cyrya\or
\cyro\cyrk\cyrt\cyrya\cyrb\cyrr\cyrya\or
\cyrn\cyro\cyrya\cyrb\cyrr\cyrya\or
\cyrd\cyre\cyrk\cyra\cyrb\cyrr\cyrya\fi
\space \number\year~\cyrg.}}
\author[åÍÅÌØÑÎÏ× ü.÷.]{åÍÅÌØÑÎÏ× üÄÕÁÒÄ ÷ÌÁÄÉÍÉÒÏ×ÉÞ}
\institute[óáï òáî]{óÐÅÃÉÁÌØÎÁÑ ÁÓÔÒÏÆÉÚÉÞÅÓËÁÑ ÏÂÓÅÒ×ÁÔÏÒÉÑ òáî\\
{\tiny ìÁÂÏÒÁÔÏÒÉÑ ÏÂÅÓÐÅÞÅÎÉÑ ÎÁÂÌÀÄÅÎÉÊ}\\
}
\def\Ö{\bf}
\def\Ô{\tt}
\def\Î{\normalfont}
\def\Ë{\it}
\def\t#1{\texttt{#1}}
\def\bi{\bfseries\itshape} % öÉÒÎÙÊ ËÕÒÓÉ×
\def\red#1{\textcolor{red}{#1}}
\def\green#1{\textcolor{green}{#1}}
\def\blue#1{\textcolor{blue}{#1}}
\newenvironment{lightframe}{\bgroup\setbeamercolor{normal text}%
{bg=blue}\begin{frame}}{\end{frame}\egroup}
\newenvironment{blueframe}{\bgroup\setbeamercolor{normal text}%
{bg=cyan!70!white}\begin{frame}}{\end{frame}\egroup}
\def\aver#1{\bgroup\mathopen{<}#1\mathclose{>}\egroup}
\def\B#1{\ensuremath{\mathbf{#1}}}
\def\ceil#1{\bgroup\lceil #1\rceil\egroup}
\def\const{\ensuremath{\mathfrak{const}}}
\def\C{\ensuremath{\mathfrak{C}}}
\def\dpartder#1#2{\dfrac{\partial^2 #1}{\partial #2^2}} % ×ÔÏÒÁÑ ÞÁÓÔÎÁÑ ÐÒÏÉÚ×ÏÄÎÁÑ
\def\e{\mathop{\mathrm e}\nolimits}
\def\floor#1{\bgroup\lfloor #1\rfloor\egroup}
\def\frc#1#2{\bgroup\raisebox{2pt}{$#1$}\big/\raisebox{-3pt}{$#2$}\egroup}
\def\FT#1{\mathcal{F}(#1)}
\def\Int{\int\limits}
\def\Infint{\int\limits_{-\infty}^\infty}
\def\mean#1{\overline{#1}}
\def\med{\mathop{\mathrm{med}}\nolimits}
\def\moda{\mathop{\mathrm{Mo}}\nolimits}
\def\partder#1#2{\dfrac{\partial #1}{\partial #2}}
\def\so{\ensuremath{\Longrightarrow}\xspace} % ÓÌÅÄÏ×ÁÔÅÌØÎÏ
\def\SNR{\mathop{\mathrm{SNR}}\nolimits}

BIN
Komp_obr/pic/ADC.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 37 KiB

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 9.1 KiB

Binary file not shown.

BIN
Komp_obr/pic/DAC.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 6.4 KiB

Binary file not shown.

BIN
Komp_obr/pic/MF3.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/MF5.pdf Normal file

Binary file not shown.

Binary file not shown.

BIN
Komp_obr/pic/Noiced.pdf Normal file

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 53 KiB

BIN
Komp_obr/pic/SNR.pdf Normal file

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 62 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 40 KiB

BIN
Komp_obr/pic/autocorr.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/binopdf.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/bisect.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 8.1 KiB

BIN
Komp_obr/pic/chi2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 9.8 KiB

BIN
Komp_obr/pic/convcorr.pdf Normal file

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 3.6 KiB

BIN
Komp_obr/pic/disc_sig.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 32 KiB

BIN
Komp_obr/pic/exppdf.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/graph_res.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 32 KiB

BIN
Komp_obr/pic/lesssquare.pdf Normal file

Binary file not shown.

Binary file not shown.

After

Width:  |  Height:  |  Size: 49 KiB

BIN
Komp_obr/pic/normpdf.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/oscill.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 9.7 KiB

BIN
Komp_obr/pic/poissonpdf.pdf Normal file

Binary file not shown.

BIN
Komp_obr/pic/saologo.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 7.0 KiB

BIN
Komp_obr/pic/tab_res.jpg Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 35 KiB

Binary file not shown.

After

Width:  |  Height:  |  Size: 189 KiB

28
Komp_obr/template.tex Normal file
View File

@ -0,0 +1,28 @@
\documentclass[10pt,pdf,hyperref={unicode}]{beamer}
\hypersetup{pdfpagemode=FullScreen}
\usepackage{ed}
\usepackage{lect}
\title[ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ. ìÅËÃÉÑ .]{ëÏÍÐØÀÔÅÒÎÁÑ ÏÂÒÁÂÏÔËÁ ÒÅÚÕÌØÔÁÔÏ× ÉÚÍÅÒÅÎÉÊ}
\subtitle{ìÅËÃÉÑ .}
\date{23 ÍÁÑ 2016 ÇÏÄÁ}
\begin{document}
% ôÉÔÕÌ
\begin{frame}
\maketitle
\end{frame}
% óÏÄÅÒÖÁÎÉÅ
\begin{frame}
\tableofcontents
\end{frame}
\begin{frame}{óÐÁÓÉÂÏ ÚÁ ×ÎÉÍÁÎÉÅ!}
\centering
\begin{minipage}{5cm}
\begin{block}{mailto}
eddy@sao.ru\\
edward.emelianoff@gmail.com
\end{block}\end{minipage}
\end{frame}
\end{document}

View File

@ -2,3 +2,6 @@
## Astroschool_lect ## Astroschool_lect
Лекции для 4-й сессии астрофизической школы ("Траектория") Лекции для 4-й сессии астрофизической школы ("Траектория")
## Komp_obr
Лекции для аспирантов САО РАН по программе "Компьютерная обработка результатов измерений"