diff --git a/Komp_obr/01-measurements.pdf b/Komp_obr/01-measurements.pdf new file mode 100644 index 0000000..2b1d81e Binary files /dev/null and b/Komp_obr/01-measurements.pdf differ diff --git a/Komp_obr/01-measurements.tex b/Komp_obr/01-measurements.tex new file mode 100644 index 0000000..df6f5aa --- /dev/null +++ b/Komp_obr/01-measurements.tex @@ -0,0 +1,322 @@ +\documentclass[10pt,pdf,hyperref={unicode}]{beamer} +\hypersetup{pdfpagemode=FullScreen} +\usepackage{lect} + +\title[Компьютерная обработка. Лекция 1.]{Компьютерная обработка результатов измерений} +\subtitle{Лекция 1. Общие сведения об измерениях. Виды сигналов и методы их анализа} +\date{30 июня 2016 года} + +\begin{document} +% Титул +\begin{frame}{} +\maketitle +\end{frame} +% Содержание +\begin{frame}{} +\tableofcontents[hideallsubsections] +\end{frame} + +\section{Физические измерения} +\begin{frame}{Физические измерения} +\begin{defin} +Экспериментальное определение значения измеряемой величины с применением средств +измерений называется {\bf измерением}. +\end{defin} +\begin{block}{} +Важнейшей особенностью измерений является {\it принципиальная невозможность +получения результатов измерения, в точности равных истинному значению +измеряемой величины} (особенно эта особенность проявляется в микромире, где +господствует принцип неопределенности). + +Эта особенность приводит к необходимости оценки степени близости результата +измерения к истинному значению измеряемой величины, т.е. вычислять +{\bf погрешность измерения}. +\end{block} +\end{frame} + + +\begin{frame}{Виды измерений} +\begin{block}{} +\ж Статическими\н называют такие измерения, при +которых зависимость погрешности измерения от скорости измерения пренебрежимо +мала и ее можно не учитывать.\ж Динамические\н +измерения противоположны статическим. + +Результаты\ж прямых\н измерений находят непосредственно из опыта,\ж косвенных\н же измерений~--- +путем расчета по известной зависимости измеряемой величины от величин, находимых +прямыми измерениями (например, измерение мощности). + +\ж Совместное измерение\н --- одновременное измерение нескольких неодноименных величин для +нахождения зависимости между ними (например, ВАХ диода). + +\ж Совокупное измерение\н~--- это проведение ряда измерений нескольких величин одинаковой +размерности в различных сочетаниях с нахождением искомых величин из решения системы уравнений +(например, измерение $R$ включенных треугольником резисторов). +\end{block} +\end{frame} + + +\begin{frame}{Представление результатов} +\begin{block}{Табличное} +Позволяет избежать многократной записи единиц измерения, обозначений измеряемой величины, +используемых множителей. В таблицы, помимо основных измерений, могут быть включены и результаты +промежуточных измерений. + +Для удобства импортирования данных и одновременно наглядности чтения удобно хранить в формате TSV. +SED позволит легко преобразовать TSV в таблицу латеха. +\end{block} + +\begin{block}{Графическое} +На основе графика легко можно сделать вывод о соответствии +теоретических представлений данным эксперимента, определить вид функциональной +зависимости измеряемой величины. +\end{block} +\end{frame} + +\section{Сигналы и их виды} +\begin{frame}{Сигналы и их виды} +\begin{defin} +Если некоторая изменяющаяся величина измеряется непрерывно (или квазинепрерывно), мы +имеем дело с потоком информации, или\ж сообщением\н. +В теории информации физический процесс, значения параметров которого отображают +передаваемое сообщение, называется\ж сигналом\н. +\end{defin} +\begin{block}{} +Модуляция--демодуляция. Зашумление. +{\bf Помехи}: аддитивные, мультипликативные, фазовые. +\end{block} +\end{frame} +\begin{frame}{Виды сигналов} +\only<1>{ +\begin{block}{Аналоговый} +Описывается непрерывной (или кусочно--непрерывной) функцией $x(t)$: $t\in[t_0,t_1]$, +$x\in[x_0,x_1]$. Аудиосигналы, телевизионные сигналы. +\end{block} +\img[0.3]{oscill} +} +\only<2>{ +\begin{block}{Дискретный} +Описывается решетчатой функцией (последовательностью, временн\'ым рядом) $x(nT)$: $x\in[x_0,x_1]$, +$n=\overline{1,N}$, $T$~--\к интервал дискретизации\н. Величину $f=1/T$ +называют\к частотой дискретизации\н. Если интервал дискретизации является +постоянной величиной, дискретный сигнал можно задать в виде ряда $\{x_1,\ldots, x_N\}$. +\end{block} +\img[0.6]{disc_sig} +} +\only<3>{ +\begin{block}{Цифровой} +Описывается квантованной решетчатой функцией и отличается от обычного дискретного сигнала тем, что +каждый уровень квантования кодируется двоичным кодом. Таким образом, если +величина $x\in[x_0,x_1]$ квантуется $N$~разрядным кодом, для +обратного представления из кода $K_x$ в значение $x$ применяется +преобразование: $x=x_0+K_x\cdot (x_1-x_0)/2^{N}$. К цифровым сигналам относятся +сигналы, используемые в системах связи с импульсно--кодовой модуляцией. +\end{block} +\img[0.4]{digital_signal} +} +\end{frame} + + +\begin{frame}{Дискретизация} +\begin{block}{} +Дискретизация строит по заданному аналоговому сигналу $x(t)$ дискретный сигнал $x_n(nT)$, причем +$x_n(nT)=x(nT)$. Операция\ж восстановления\н состоит в том, что по заданному дискретному сигналу +строится аналоговый сигнал. +\end{block} +\begin{block}{Теорема Котельникова--Найквиста} +\begin{itemize} +\item любой аналоговый сигнал может быть восстановлен с какой угодно точностью по своим дискретным +отсчётам, взятым с частотой $f > 2f_c$, где $f_c$~-- максимальная частота, которой ограничен спектр +реального сигнала; +\item если максимальная частота в сигнале равна или превышает половину частоты дискретизации +(наложение спектра), то способа восстановить сигнал из дискретного в аналоговый без искажений не +существует. +\end{itemize} +\end{block} +\end{frame} + + +\begin{frame}{Теорема Котельникова--Найквиста} +\begin{block}{} +$$X_{s}(f)\ {\stackrel {\mathrm {def} }{=}}\sum _{n=-\infty }^{\infty }T\cdot x(nT)\ e^{-i2\pi +nTf}$$ +$$X(f) = \sum _{n=-\infty }^{\infty }x(nT)\cdot \underbrace {T\cdot \mathrm {rect} (Tf)\cdot +e^{-i2\pi nTf}} _{{\mathcal {F}}\left\{\mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]\right\}}$$ +\end{block} +\begin{columns}\column{0.5\textwidth} +\img{ReconstructFilter} +\column{0.5\textwidth} +\begin{block}{Формула Уиттекера--Шеннона} +$$x(t)=\sum _{n=-\infty }^{\infty }x(nT)\cdot \mathrm{sinc}\left[\frac{\pi}{T}(t-nT)\right]$$ +\end{block} +\end{columns} +\end{frame} + + +\begin{frame}{Квантование} +\begin{defin} +Для преобразования дискретного сигнала в цифровой вид применяется операция\ж квантования\н или\ж +аналогово--цифрового преобразования\н~(АЦП), которая по заданному дискретному сигналу $x_n(nT)$ +строит цифровой кодированный сигнал $x_d(nT)$, причем $x_n(nT)\approx x_d(nT)$. Обратная квантованию +операция называется операцией\ж цифро--аналогового преобразования\н~(ЦАП). +\end{defin} +\only<1>{\img[0.7]{ADC}} +\only<2>{\img{DAC}} +\end{frame} + + +\section{Методы анализа сигналов} +\begin{frame}{Методы анализа сигналов} +\begin{block}{Группы методов} +\begin{description} +\item[В пространственной области] над сигналом производят какие--либо преобразования, одинаковые +для всего сигнала (аддитивные, мультипликативные или матричные) --- бинаризация, гистограммы, +свертка, выделение компонент, сглаживание\dots +\item[В частотной области] работа производится не с сигналом, а с его спектром (обычно Фурье) --- +свертка через Фурье, сглаживание \slash фильтрация, выделение деталей, деконволюция\dots +\end{description} +\end{block} +\begin{block}{} +Процесс зашумления сигнала $x(t)$ импульсной (аппаратной) функцией шума $n(t)$ описывается +сверткой: +$x'(t)=x(t)\otimes n(t)$. В пространстве Фурье: +$$\FT{x'(t)}=\FT{x(f)}\cdot\FT{n(t)}\text{ или }X'(f)=X(f)\cdot N(f).$$ +$N(f)$~-- передаточная функция. +\end{block} +\end{frame} + + +\begin{frame}{Вейвлет--анализ} +\only<1>{\begin{block}{} +Локализованный в пространственной и частотной области набор ортонормированных функций. +$$T_{m,n}=\int\limits_{-\infty}^{\infty }x(t)\,\psi_{m,n}^{*}(t)\,dt,$$ +$$x(t)=K_{\psi}\sum\limits_{m=-\infty }^{\infty }\sum\limits_{n=-\infty +}^{\infty}T_{m,n}\psi_{m,n}(t).$$ +\end{block}} +\only<2>{\img{Continuous_wavelet_transform}} +\only<3>{\begin{block}{}Детализирующие и аппроксимирующие коэффициенты\end{block} +\img[0.5]{wavelet_img}} +\end{frame} + + +\section{Обзор программы} +\begin{frame}{Обзор программы} +\tableofcontents[currentsection,hideothersubsections,sectionstyle=hide] +\end{frame} + + +\subsection{Статистика и вероятность. Случайные величины и распределения} +\begin{frame}{Статистика и вероятность} +\begin{block}{} +Вероятность, плотность вероятности, закон больших чисел, характеристики набора случайных величин, +законы распределения, корреляция и ковариация, шум, SNR. +\end{block} +\img[0.7]{binopdf} +\end{frame} + + +\subsection{Теория физических измерений. Систематические и случайные погрешности} +\begin{frame}{Теория физических измерений} +\begin{block}{} +Меры и значения величин, абсолютная и относительная погрешности, промахи, систематические и +случайные погрешности, класс точности прибора, доверительный интервал, критерий Стьюдента, правила +вычисления погрешностей косвенных измерений, аппроксимация наименьшими квадратами. +\end{block} +\img[0.7]{lesssquare} +\end{frame} + + +\subsection{Теория оценок} +\begin{frame}{Теория оценок} +\begin{block}{} +Правило ,,трех сигм``, теорема Ляпунова, распределение $\chi^2$, распределение Стьюдента, оценки: +их виды и надежность. +\end{block} +\img[0.5]{chi2} +\end{frame} + +\subsection{Системы уравнений. Степенные и дифференциальные уравнения} +\begin{frame}{Системы уравнений} +\begin{block}{} +Методы решения систем линейных уравнений: Гаусса, простой итерации, Зейделя, наименьших квадратов, +численные методы; степенные и прочие нелинейные уравнения и метод бисекции; численное +интегрирование (прямоугольник, трапеция, Симпсона); обыкновенные дифференциальные уравнения. +\end{block} +\img[0.4]{bisect} +\end{frame} + + +\subsection{Анализ временных рядов. Фурье-- и Вейвлет--анализ} +\begin{frame}{Анализ временных рядов} +\begin{block}{} +Аппроксимация, интерполяция, сплайны, преобразование Лапласа, Z--преобразования, ряды Фурье, +Фурье--преобразование, Фурье--фильтрация, вейвлет--анализ и вейвлет--фильтрация. +\end{block} +\img[0.7]{Four-filter} +\end{frame} + + +\subsection{Обработка изображений} +\begin{frame}{Обработка изображений} +\vspace{-2em} +\begin{block}{} +Цифровые изображения, модели цветовых пространств; преобразования в пространственной области: +логарифмическое преобразование, растяжение контрастности, свертка с различными масками, медианный +фильтр; гистограмма и эквализация гистограммы; преобразования в частотной области: ДПФ, частотные +фильтры; ФРТ и ОПФ; адаптивная медианная фильтрация; инверсная и винеровская фильтрация; +геометрические преобразования изображений; вейвлет--преобразования; морфологические операции; +проблема распознавания изображений. +\end{block} +\smimg[0.33]{Noiced} +\smimg[0.33]{MF3} +\smimg[0.33]{MF5} +\end{frame} + +\section{Литература} +\begin{frame}{Основная литература} +\begin{thebibliography}{9} +\bibitem{} Интернет--энциклопедия: http:/\!/wikipedia.org (Википедия). +\bibitem{} Гонсалес~Р., Вудс~Р. Цифровая обработка изображений.~--- М.: Техносфера, 2012.~--- +1104~с. +\bibitem{} Витязев~В.В. Вейвлет-анализ временных рядов: Учеб. пособие.~--- +СПб.: Изд-во С.-Петерб. ун-та., 2001.~--- 58~с. +\bibitem{} Гонсалес~Р., Вудс~Р., Эддинс~С. Цифровая обработка изображений +в среде MATLAB.~--- М.: Техносфера, 2006~--- 616~с. +\bibitem{} Гмурман~В.\,Е. Теория вероятностей и математическая статистика. +Учеб. пособие для вузов.~--- Изд. 7-е, стер.~--- М.: Высш. шк., 2001.~--- 479~с. +\bibitem{} Говорухин~В., Цибулин~В. Компьютер в математическом исследовании. +Учебный курс.~--- СПб.: Питер, 2001.~--- 624~с. +\bibitem{} Сергиенко~А.\,Б. Цифровая обработка сигналов.~--- СПб.: Питер, 2005.~--- +604~с. +\bibitem{} Чен~К., Джиблин~П., Ирвинг~А. MATLAB в математических исследованиях: +Пер. с англ.~--- М.: Мир, 2001.~--- 346~с. +\end{thebibliography} +\end{frame} + +\begin{frame}{Дополнительная литература} +\begin{thebibliography}{9} +\bibitem{} Бахвалов~Н.\,С., Жидков~Н.\,П., Кобельков~Г.\,М. Численные методы.~--- +М.: Высш. шк., 1987.~--- 630~с. +\bibitem{} Кнут~Д.\,Э. Все про \TeX./ Пер. с англ. М.\,В.~Лисиной.~--- +Протвино: АО~RD\TeX, 1993.~--- 592~с.: ил. +\bibitem{} Львовский~С.\,М. Набор и верстка в системе \LaTeX.~--- 3-е изд., +исрп. и доп.~--- М.: МЦНМО, 2003.~--- 448~с. +\bibitem{} Физическая энциклопедия/ Гл. ред. А.М.~Прохоров.~--- М.: Сов. +энциклопедия. Тт. I~--~V. 1988. +\bibitem{} Цифровая обработка сигналов: Справочник/ Л.М.~Гольденберг, +Б.Д.~Матюшкин, М.Н.~Поляк.~--- М.: Радио и связь, 1985.~--- 312~с., ил. +\bibitem{} Pan~G.\,W. Wavelets in electromagnetic and device modeling.~--- +John~Wiley \& Sons, Inc., Hobocen, New Jersey, 2003.~--- 531~p. +\end{thebibliography} +\end{frame} + + +\begin{frame}{Спасибо за внимание!} +\centering +\begin{minipage}{5cm} +\begin{block}{mailto} +eddy@sao.ru\\ +edward.emelianoff@gmail.com +\end{block}\end{minipage} +\end{frame} +\end{document} diff --git a/Komp_obr/02-statistics.pdf b/Komp_obr/02-statistics.pdf new file mode 100644 index 0000000..af09aaf Binary files /dev/null and b/Komp_obr/02-statistics.pdf differ diff --git a/Komp_obr/02-statistics.tex b/Komp_obr/02-statistics.tex new file mode 100644 index 0000000..31b18e1 --- /dev/null +++ b/Komp_obr/02-statistics.tex @@ -0,0 +1,319 @@ +\documentclass[10pt,pdf,hyperref={unicode}]{beamer} +\hypersetup{pdfpagemode=FullScreen} +\usepackage{lect} + +\title[Компьютерная обработка. Лекция 2]{Компьютерная обработка результатов измерений} +\subtitle{Лекция 2. Статистика и вероятность. Случайные величины и распределения} +\date{12 июля 2016 года} + +\begin{document} +% Титул +\begin{frame} +\maketitle +\end{frame} +% Содержание +\begin{frame} +\tableofcontents +\end{frame} + +\section{Случайные величины, вероятность} +\begin{frame}{Случайные величины, вероятность} +\begin{defin} +\ж Случайной величиной\н называется величина~$X$, если все ее возможные значения образуют конечную +или бесконечную последовательность чисел~$x_1,\ldots$, $x_N$, и если принятие ею каждого из этих +значений есть случайное событие. +\end{defin} +\begin{defin}\begin{columns}\column{0.75\textwidth} +\ж Вероятность\н наступления данного события~--- это предел относительной частоты наступления +данного события~$n_k/N$:\column{0.25\textwidth} +$$P(x_k)=\lim_{N\to\infty}\frac{n_k}{N}.$$ +\end{columns} +\end{defin} +\begin{block}{} +Совместные и несовместные события, полная группа, свойства вероятности. +Для непрерывных случайных величин вводят понятие\ж плотности вероятности\н: +$$\rho(x)=\lim_{\Delta x\to 0}\frac{P(x{\begin{block}{Медиана и мода} +{\ж Мода}~--- наиболее часто встречающееся значение (но вполне могут быть мультимодальные +распределения). {\ж Медиана} делит площадь распределения пополам. +\end{block} +\img[0.6]{mode_median}} +\only<2>{\begin{block}{Моменты} +Если $f(x)=(x-x_0)^n$, то $\mean{f(x)}$~--- момент порядка~$n$. Если $x_0=0$~--- начальный +момент, если $x_0=\mean{X}$--- центральный момент. + +Моменты нулевого порядка равны~1, начальный момент первого порядка равен математическому ожиданию +случайной величины; центральный момент первого порядка равен нулю. + +Центральный момент второго порядка называют\ж дисперсией\н: $D(X)=\mean{(x-\mean{x})^2}\equiv +\mean{x^2}-\mean{x}^2$, $\sigma=\sqrt{D}$. + +\smallskip + +Свойства дисперсии: +\begin{itemize} +\item $D(\const)=0$; +\item $D(\const X)=C^2 D(X)$, где $\C$~-- постоянная величина; +\item $D(\sum X_n)=\sum D(X_n)$. +\end{itemize} +\end{block} +} +\end{frame} + +\section{Законы распределения} +\begin{frame}{Законы распределения} +\begin{defin} +\ж Закон распределения\н \к дискретной\н случайной величины~--- соответствие между возможными +значениями и их вероятностями. +\end{defin} +\begin{block}{Функция распределения} +$$F(x)\equiv P(X\le x)=\Int_{-\infty}^x\phi(x)\,dx, \qquad +\Infint\phi(x)\,dx=1.$$ +$$P(a\le X\le b)=F(b)-F(a).$$ +\end{block} +\end{frame} + +\begin{frame}{Равномерное распределение} +\begin{columns}\column{0.45\textwidth} +\begin{block}{} +$$ +\phi(x)=\begin{cases}\frac1{b-a}, & x\in [a,b] \\ 0, & x\not\in [a,b] +\end{cases}. +$$ +$$F(x)= \begin{cases} 0, & x < a \\ \frac{x-a}{b-a}, & a \le x < b \\ 1, & x \ge +b \end{cases}. +$$ +\end{block}\column{0.45\textwidth} +\begin{block}{} +$\mean{X}=\med(X)=(a+b)/2$, $\moda(X)=\forall x\in[a,b]$, +$\displaystyle\sigma^2_X = \frac{(b-a)^2}{12}$. +\end{block} +\end{columns} + +\smimg[0.45]{Uniform_distribution_PDF}\hspace{3pt} +\smimg[0.45]{Uniform_distribution_CDF} +\end{frame} + +\begin{lightframe}{Биномиальное распределение} +\vspace*{-0.8em}\begin{block}{} +\ж Формула Бернулли\н: +$\displaystyle P_n(k)=C_n^k p^k q^{n-k},\quad C_n^k=\frac{n!}{k!(n-k)!},\quad +q=1-p.$ +$$(p+q)^n=C_n^n p^n+\cdots+C_n^k p^k q^{n-k}+\cdots+C_n^0 q^k.$$ +Описывает вероятность наступления события~$k$ +раз в~$n$ независимых испытаниях +\end{block}\vspace*{-1em} +\begin{columns} +\column{0.45\textwidth} +\img{Binomial_Distribution} +\column{0.55\textwidth} +\begin{block}{} +$$ +F(k;n,p)=P(X\leq k)=\sum_{i=0}^\floor{k} C_n^i p^i(1-p)^{n-i}.$$ +$\mean{X}=np$, $\moda(X)=\floor{(n+1)p}$, $\floor{np}\le\med(X)\le\ceil{np}$, +$\sigma^2_X = npq$. +\end{block} +\end{columns} +\end{lightframe} + +\begin{frame}{Распределение Пуассона} +\vspace*{-2em}\begin{block}{} +При $n\to\infty$ распределение Бернулли преобразуется в распределение Пуассона ($\lambda=np$): +$$P_n(k)=\frac{\lambda^k}{k!}\exp(-\lambda).$$ +\end{block} +\begin{columns}\column{0.48\textwidth} +\begin{block}{} +$F(k, \lambda) = \displaystyle\frac{\Gamma(k+1,\lambda)}{k!}$, +$\mean{X} = \lambda$, $\moda(X) = \floor{\lambda}$, +$\med{X}\approx\floor{\lambda+1/3-0.02/\lambda}$, +$\sigma^2_X = \lambda$. + +С ростом $\lambda$ распределение Пуассона стремится к распределению Гаусса. +\end{block} +\column{0.48\textwidth} +\img{poissonpdf} +\end{columns} +\end{frame} + +\begin{frame}{Распределение Гаусса} +\vspace*{-2em}\begin{block}{} +$$ +\phi (x) = \frac 1 {\sigma \sqrt {2 \pi}} \exp \left( -\frac {(x -\mean{x})^2}{2 +\sigma^2} \right) +$$ +\end{block} +\vspace*{-1em}\begin{block}{} +$F(x) = \displaystyle\frac 1{\sigma \sqrt {2 \pi}} \Int_{-\infty}^x \exp \left( -\frac{(t +-\mean{x})^2}{2 \sigma^2} \right)\, dt$, +$\moda(X) = \med{X} = \mean{X}$. +\end{block} +\vspace*{-1em}\img[0.6]{normpdf} +\end{frame} + +\begin{frame}{Показательное (экспоненциальное) распределение} +\vspace*{-1em}\begin{block}{} +Время между двумя последовательными свершениями события +$$f(x)=\begin{cases} +0,& x<0,\\ +\lambda\exp(-\lambda x),& x\ge0; +\end{cases}\qquad +F(x)=\begin{cases} +0,& x<0,\\ +1-\exp(-\lambda x),& x\ge0, +\end{cases} +$$ +\end{block} +\vspace*{-1em}\begin{block}{} +$\mean{X} = \lambda^{-1}$, +$\moda(X) = 0$, $\med{X} = \ln(2)/\lambda$, +$\sigma^2_X = \lambda^{-2}$. +\end{block} +\vspace*{-1em}\img[0.5]{exppdf} +\end{frame} + +\section{Корреляция и ковариация} +\begin{frame}{Корреляция и ковариация} +\begin{defin} +\ж{}Ковариация\н является мерой линейной зависимости случайных величин и определяется формулой: +$\mathrm{cov}(X,Y)=\mean{(X-\mean{X})(Y-\mean{Y})}$ $\Longrightarrow$ $\mathrm{cov}(X,X) = +\sigma^2_X$. +\к Ковариация независимых случайных величин равна нулю\н, обратное неверно. +\end{defin} +\begin{block}{} +Если ковариация положительна, то с ростом значений одной случайной величины, значения второй имеют +тенденцию возрастать, а если знак отрицательный~--- убывать. + +Масштаб зависимости величин пропорционален их дисперсиям $\Longrightarrow$ масштаб можно +отнормировать (\ж{}коэффициент корреляции\н Пирсона): +$$\rho_{X,Y}=\frac{\mathrm{cov}(X,Y)}{\sigma X\sigma Y}, \qquad \mathbf{r}\in[-1,1].$$ +\end{block} +\end{frame} + +\begin{frame}{} +\begin{block}{} +Коэффициент корреляции равен~$\pm1$ тогда и только тогда, когда~$X$ и~$Y$ линейно зависимы. Если +они независимы, $\rho_{X,Y}=0$ (\ж{}обратное неверно!\н). Промежуточные значения коэффициента +корреляции не позволяют однозначно судить о зависимости случайных величин, но позволяет предполагать +степень их зависимости. +\end{block} +\begin{block}{Корреляционная функция} +Одна из разновидностей~---\ж автокорреляционная функция\н: +$$ +\Psi(\tau) = \Int f(t) f(t-\tau)\, dt\equiv +\Int f(t+\tau) f(t)\,dt. +$$ +Для дискретных случайных величин автокорреляционная функция имеет вид +$$ +\Psi(\tau) = \aver{X(t)X(t-\tau)}\equiv\aver{X(t+\tau)X(t)}. +$$ +\end{block} +\end{frame} + +\begin{blueframe}{} +\begin{block}{Взаимно корреляционная функция} +Другая разновидность~---\ж кросс--корреляционная функция\н: +$$(f\star g)(t)\stackrel{\mathrm{def}}{=}\Infint f^{*}(\tau)g(t+\tau)\,d\tau$$ +свертка: +$$ (f*g)(x)\stackrel{\mathrm{def}}{=}\Infint f(y)\,g(x-y)\,dy = \Infint f(x-y)\,g(y)\, dy.$$ + +\end{block} +\img[0.5]{convcorr} +\end{blueframe} + +\begin{frame}{} +\begin{block}{} +Если $X$ и $Y$~--- два независимых случайных числа с функциями распределения вероятностей +$f$ и $g$, то $f\star g$ соответствует распределению вероятностей выражения $-X+Y$, а $f*g$~--- +распределению вероятностей суммы $X + Y$. + +ВКФ часто используется для поиска в длинной последовательности более короткой заранее известной, +определения сдвига (см.~рис). + +Связь со сверткой: $f(t)\star g(t) = f^*(-t) * g(t)$, если $f$ и $g$ четны, то +$f(t)\star g(t) = f(t) * g(t)$. Через преобразование Фурье: +$\FT{f \star g} = \FT{f}^*\cdot\FT{g}$. +\end{block}\img[0.6]{autocorr} +\end{frame} + +\section{Шум} +\begin{frame}{Шум} +\begin{defin} +\ж Шум\н~--- беспорядочные колебания различной физической природы, отличающиеся сложной временной и +спектральной структурой. +\end{defin} +\begin{block}{} +\ж Белый шум\н, $\xi(t)$, имеет время корреляции много меньше всех характерных времен физической +системы; $\mean{\xi(t)}=0$, $\Psi(t,\tau)=\aver{\xi(t+\tau)\xi(t)}=\sigma^2(t)\delta(\tau)$. +Разновидность~--- AWGN. + +\ж Дробовой шум\н имеет пуассонову статистику~\so $\sigma_X\propto\sqrt{x}$ и +$\SNR(N)\propto\sqrt{N}$. Суточные и вековые корреляции. + +Шум вида \ж<<соль--перец>>\н обычно характерен для изображений, считываемых с ПЗС. +\end{block} +\end{frame} +\begin{frame}{SNR} +\begin{defin} +\ж SNR\н~--- безразмерная величина, равная отношению мощности полезного сигнала к мощности шума. +\end{defin} +\begin{block}{} +$$\SNR = {P_\mathrm{signal} \over P_\mathrm{noise}} = \left ({A_\mathrm{signal} \over +A_\mathrm{noise} } \right )^2, \quad +\SNR(dB) = 10 \lg \left ( {P_\mathrm{signal} \over P_\mathrm{noise}} +\right ) += 20 \lg \left ( {A_\mathrm{signal} \over A_\mathrm{noise}} \right ). +$$ +\end{block} + +\img[0.6]{SNR} +\centerline{\tiny (10, 0, -10~дБ.)} +\end{frame} + + +\begin{frame}{Спасибо за внимание!} +\centering +\begin{minipage}{5cm} +\begin{block}{mailto} +eddy@sao.ru\\ +edward.emelianoff@gmail.com +\end{block}\end{minipage} +\end{frame} +\end{document} diff --git a/Komp_obr/03-phis_measurements,04-estimation.pdf b/Komp_obr/03-phis_measurements,04-estimation.pdf new file mode 100644 index 0000000..1710e13 Binary files /dev/null and b/Komp_obr/03-phis_measurements,04-estimation.pdf differ diff --git a/Komp_obr/03-phis_measurements,04-estimation.tex b/Komp_obr/03-phis_measurements,04-estimation.tex new file mode 100644 index 0000000..3f3e261 --- /dev/null +++ b/Komp_obr/03-phis_measurements,04-estimation.tex @@ -0,0 +1,283 @@ +\documentclass[10pt,pdf,hyperref={unicode}]{beamer} +\hypersetup{pdfpagemode=FullScreen} +\usepackage{ed} +\usepackage{lect} + +\title[Компьютерная обработка. Лекции 3, 4.]{Компьютерная обработка результатов измерений} +\subtitle{Лекция 3. Теория физических измерений. Систематические и случайные погрешности.\\ +Лекция 4. Теория оценок.} +\date{28 сентября 2016 года} + +\begin{document} +% Титул +\begin{frame} +\maketitle +\end{frame} +% Содержание +\begin{frame} +\tableofcontents +\end{frame} + +\section{Измерения и величины} +\begin{frame}{Измерения и величины} +\begin{defin} +\ж Мерой\н называется средство измерений, предназначенное для воспроизведения и хранения значения +физической величины. +Результатом сравнения оцениваемой вещи с мерой является именованное число, +называемое\ж значением величины\н. +\end{defin} +\begin{block}{Физические величины} +\begin{itemize} +\item постоянные (инварианты, константы, априорно фиксированные значения); +\item изменяющиеся (по определенному закону от $t$); +\item случайные (не имеющие точного значения). +\end{itemize} +Единицы измерения, размерность.\par +Скалярные, векторные, комплексные, тензорные величины.\par +Метрология. +\end{block} +\end{frame} + +\begin{frame}{Виды измерений} +\begin{description} +\only<1>{ +\item[Прямое] при котором искомое значение физической величины получают непосредственно. +\item[Косвенное] на основании результатов прямых измерений других физических величин, +функционально связанных с искомой величиной. +\item[Совместные] проводимые одновременно для нескольких неодноименных величин для определения +зависимости между ними. +\item[Совокупные] при которых искомые значения величин определяют путем решения системы уравнений, +получаемых при измерениях этих величин в различных сочетаниях. +\item[Равноточные] выполненные одинаковыми по точности средствами измерений. +\item[Неравноточные] выполненных различающимися по точности средствами измерений и (или) в разных +условиях.} +\only<2>{ +\item[Однократное, многократное] +\item[Статическое] для величины, принимаемой в соответствии с конкретной измерительной задачей за +неизменную на протяжении времени измерения. +\item[Динамическое] для изменяющейся по размеру физической величины. +\item[Абсолютное] основанное на прямых измерениях одной или нескольких основных +величин и (или) использовании значений физических констант. +\item[Относительное] сравнение с эталонными мерами.} +\end{description} +\end{frame} + + +\begin{frame}{Представление результатов измерений} +\begin{columns}\column{0.5\textwidth} +Графическое +\img[0.7]{graph_res} +\column{0.5\textwidth} +Табличное +\img{tab_res} +\end{columns} +\end{frame} + +\section{Погрешность} +\begin{frame}{Погрешность} +\only<1>{ +\begin{defin} +\ж Погрешность\н --- отклонение измеренного значения величины от её истинного (действительного) +значения. +\end{defin} +\begin{block}{} +Абсолютная погрешность, $\Delta x$ (напр., RMS); относительная погрешность, $\delta x=\Delta +x/\mean{x}$; приведенная погрешность $\gamma x=\Delta x/N_x$ (нормировочный коэффициент). +\end{block} +\begin{block}{По причине возникновения} +\begin{description} +\item[Инструментальные] определяются погрешностями применяемых средств измерений. +\item[Методические] обусловлены несовершенством метода, а также упрощениями, положенными в основу +методики. +\item[Субъективные] обусловлены качествами экспериментатора. +\end{description} +\end{block}} +\only<2>{ +\begin{block}{По характеру проявления} +\begin{description} +\item[Случайные] обусловлены совокупностью внешних факторов, влияющих на результат эксперимента. +\item[Систематические] связаны с влиянием прибора на измеряемую величину или методическими +ошибками, выявляются лишь сменой прибора\slash метода\slash экспериментатора. +\item[Промахи] наиболее сильно себя проявляют и связаны с неисправностью прибора или +экспериментатора. +\end{description} +\end{block} +\begin{block}{Средняя квадратическая погрешность среднего арифметического} +$$ +\sigma_{\mean{x}}=\frac{\sigma_x}{\sqrt{n}}= +\sqrt{\frac{\sum\limits_{i=1}^n(\mean{x_i}-\aver{x})^2}{n(n-1)}}. +$$ +\end{block} +} +\end{frame} + +\begin{frame}{Доверительный интервал} +\only<1>{\begin{columns}\column{0.6\textwidth} +\begin{block}{Доверительная вероятность} +$p = P(X_0 \le x \le X_1)$ +\end{block} +\begin{block}{Математическое ожидание} +Если известен закон распределения (мат. ожидание и дисперсия: $\mu$ и $\sigma$), то +$$P\Bigl(\mean{X}-z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}} \le \mu \le + \mean{X}+z_{1-\frac{\alpha}2}\frac{\sigma}{\sqrt{n}}\Bigr) = 1 - \alpha,$$ +где $z_\alpha$~-- $\alpha$--квантиль нормального распределения +\end{block} +\column{0.4\textwidth} +\img{Boxplot_vs_PDF} +Квантили: первый, второй (медиана) и третий. +\end{columns} +} +\only<2>{ +\begin{block}{Математическое ожидание} +Если закон распределения неизвестен, то +$$P\Bigl(\mean{X}-t_{1-\frac{\alpha}2, n-1}\frac{S}{\sqrt{n}} \le \mu \le + \mean{X}+t_{1-\frac{\alpha}2,n-1}\frac{S}{\sqrt{n}}\Bigr) = 1 - \alpha,$$ +где $S$~-- несмещенный RMS. Величина +$$T=\frac{\mean{X}-\mu}{S/\sqrt{n}}$$ имеет распределение Стьюдента, а $t_{\alpha, n-1}$~-- его +квантили. + +Пример: $\mean{X}=10$, $S_n=2$, $n=11$ (10~степеней свободы), по таблице для двухстороннего +распределения Стьюдента с вероятностью~95\% $T_{10}^{95}=2.228$. Тогда доверительный интервал есть +$\mean{X}\pm TS_n/\sqrt{n}$, т.е. $\mu\in(8.6565, 11.3440)$. +\end{block} +} +\only<3>{ +\begin{block}{Дисперсия} +Если известно среднее, можно воспользоваться распределением $\chi^2$. +$$ +P\Biggl(\frac{\displaystyle\sum_{i=1}^n (X_i-\mu)^2}{\chi^2_{(1+\alpha)/2,n}}\le\sigma^2\le +\frac{\displaystyle\sum_{i=1}^n (X_i-\mu)^2}{\chi^2_{(1-\alpha)/2,n}}\Biggr)=\alpha. +$$ +Если же среднее неизвестно, то +$$ +P\Bigl(\frac{(n-1)S^2}{\chi^2_{(1+\alpha)/2,n-1}}\le\sigma^2\le +\frac{(n-1)S^2}{\chi^2_{(1-\alpha)/2,n-1}}\Bigr)=\alpha. +$$ +\end{block} +} +\end{frame} + +\begin{frame}{Правила вычисления погрешностей} +\begin{block}{} +\begin{enumerate} +\item +$$\Delta\bigl(\sum a_n\bigr)=\sum\Delta a_n.$$ +\item +$$\prod(a_i\pm\Delta a_i)=\prod a_i\prod(1\pm\delta a_i)\approx +\prod a_i(1\pm\sum\delta a_i),$$ +$$\bigl(a[1\pm\delta a]\bigr)^n\approx a^n(1\pm n\delta a).$$ +\item\ж В сложных функциях\н вида $y=f(x_1,\ldots,x_n)$ можно оценить +погрешность, воспользовавшись приближением: +$$ +\delta y\approx\Bigl|\frac{dy}{y}\Bigr|=\Bigl| +\frac{d f(x_1,\ldots,x_n)}{f(x_1,\ldots,x_n)}\Bigr|, +$$ +в котором следует заменить $\frc{dx_i}{x_i}=\delta x_i$~-- относительная +погрешность +измерения величины~$x_i$, $d x_i=\Delta x_i$~-- абсолютная погрешность. Все +слагаемые необходимо суммировать по абсолютной величине. +\end{enumerate} +\end{block} +\end{frame} + +\section{Метод наименьших квадратов} +\begin{frame}{Метод наименьших квадратов} +\begin{block}{} +Пусть имеется функция $f(x|a)$, зависящая от аргумента $x$ и набора параметров~$a$. Данной функции +соответствует набор пар данных $(x_n,y_n)$, причем $y_n=f(x_n|a)+\epsilon_n$, где $\epsilon_n$~-- +случайная ошибка. Математическое ожидание ошибки $\mean{\epsilon}=0$, ее среднеквадратическое +отклонение равно~$\sigma_n$. Для оценки~$a$ (аппроксимации набора данных заданной функцией) +необходимо минимизировать выражение +$$\Phi=\sum_{n=1}^N\Bigl(\frac{y_n-f(x_n|a)}{\sigma^2_n}\Bigr)^2.$$ +При этом подразумевается, что число измерений превышает число параметров~$a$. +\end{block} +\end{frame} + +\begin{frame}{Пример: линейная зависимость} +\begin{block}{} +Пусть $y=ax+b$, $x_n$ известны с пренебрежимо малой погрешностью, $y_n$~-- результаты измерений +с нормальным распределением, $\mean{y_i}=ax_i+b$. Минимизируем величину $Y=\sum(y_i-\mean{y_i})^2$, +$\partder{Y}{a}=0$, $\partder{Y}{b}=0$: +$$ +a=\frac{n\sum x_iy_i-\sum x_i\sum y_i}{n\sum x^2_i-\Bigl(\sum x_i\Bigr)^2}= +\frac{\mean{xy}-\mean{x}\,\mean{y}}{\mean{x^2}-(\mean{x})^2}, +$$ +$$ +b=\frac{\sum x_i^2\sum y_i-\sum x_i\sum x_i y_i}{n\sum x^2_i-\Bigl(\sum +x_i\Bigr)^2}= +\frac{\mean{x^2\strut}\,\mean{\strut +y}-\mean{x}\,\mean{xy}}{\mean{x^2}-(\mean{x})^2}. +$$ +$$ +\sigma^2=\frac{n}{n-2}\Bigl(\mean{y^2}-(\mean{y})^2-a^2\bigl[ +\mean{x^2}-(\mean{x})^2\bigr]\Bigr),\qquad +\sigma^2_a=\frac{\sigma^2}{n\bigl(\mean{x^2}-(\mean{x})^2\bigr)},\quad +\sigma_b^2=\sigma_a^2\mean{x^2}. +$$ +\end{block} +\end{frame} + +\begin{frame}{Аппроксимация МНК} +\only<1>{\img{lesssquare}} +\only<2>{ +\begin{block}{} +Некоторые зависимости, можно свести к линейным. Например, $y=\e^{ax+b}$ \so $\ln y=ax+b$. + +Возможно также сведение зависимостей к системам линейных уравнений $A\vec{x}=\vec{b}$, ранг матрицы +$A$ должен быть больше количества искомых переменных. Минимизируем +$(A\vec{x}-\vec{b})^T(A\vec{x}-\vec{b})$, что приводит к системе уравнений +$$ +A^TA\vec{x}=A^T\vec{b}\quad\so\quad +\vec{x}=(A^TA)^{-1}A^T\vec{b}. +$$ +Или $\vec{x}=A^{+}\vec{b}$ (псевдообратная матрица), в Octave~--- <<левое деление>> $A\backslash +b$. +\end{block} +} +\end{frame} + +\begin{frame}[fragile]{} +\begin{block}{Пример} +Пусть заведомо величина изменяется по закону $y=a_0+a_1\e^{-t}+a_2te^{-t}$. +В матричном виде $Y=TA$, где $T$~-- функциональная матрица, у которой в первом столбце +размещены единицы (соответствует умножению на~$a_0$), во втором~--- функция +$\e^{-t}$, а в третьем~--- $t\e^{-t}$. Коэффициенты~$A$ найдем при помощи МНК: +$A=T\backslash Y$. +\begin{verbatim} +t = [0 0.3 0.8 1.1 1.6 2.3]'; +y = [0.6 0.67 1.01 1.35 1.47 1.25]'; +T = [ones(size(t)) exp(-t) t.*exp(-t)]; +A = T\y +\end{verbatim} + +\end{block} + +\end{frame} + +\section{Правило <<трех сигм>>} +\begin{frame}{Правило <<трех сигм>>} +\begin{block}{} +При гауссовом распределении случайной величины вероятность +$$P(|x-\mean{x}|<3\sigma)=2\Phi(3)=0.9973.$$ +($\Phi$~-- нормальное интегральное распределение). +\end{block} +\begin{defin} +\ж Правило трех сигм\н: если случайная величина распределена нормально, то абсолютная величина ее +отклонения от математического ожидания не превосходит утроенного среднего квадратичного отклонения. +\end{defin} +\begin{defin} +\ж Теорема Ляпунова\н: случайная величина, являющаяся суммой большого числа взаимно независимых +случайных величин, имеет нормальное распределение. +\end{defin} +\end{frame} + + +\begin{frame}{Спасибо за внимание!} +\centering +\begin{minipage}{5cm} +\begin{block}{mailto} +eddy@sao.ru\\ +edward.emelianoff@gmail.com +\end{block}\end{minipage} +\end{frame} +\end{document} diff --git a/Komp_obr/05-sistur.pdf b/Komp_obr/05-sistur.pdf new file mode 100644 index 0000000..bd2076b Binary files /dev/null and b/Komp_obr/05-sistur.pdf differ diff --git a/Komp_obr/05-sistur.tex b/Komp_obr/05-sistur.tex new file mode 100644 index 0000000..2b88aea --- /dev/null +++ b/Komp_obr/05-sistur.tex @@ -0,0 +1,226 @@ +\documentclass[10pt,pdf,hyperref={unicode}]{beamer} +\hypersetup{pdfpagemode=FullScreen} +\usepackage{ed} +\usepackage{lect} + +\title[Компьютерная обработка. Лекция 5.]{Компьютерная обработка результатов +измерений} +\subtitle{Лекция 5. Системы уравнений} +\date{29 сентября 2016 года} + +\begin{document} +% Титул +\begin{frame} +\maketitle +\end{frame} +% Содержание +\begin{frame} +\tableofcontents +\end{frame} + +\section{Системы уравнений} +\begin{frame}{Системы уравнений} +\begin{defin} +\ж Система линейных уравнений\н для $n$ неизвестных имеет вид: +$$ +\left\{ +\begin{aligned} +a_{11}x_1+a_{12}x_2&+\cdots+a_{1n}x_n&=b_1;\\ +a_{21}x_1+a_{22}x_2&+\cdots+a_{2n}x_n&=b_2;\\ +\cdots\\ +a_{n1}x_1+a_{n2}x_2&+\cdots+a_{nn}x_n&=b_n. +\end{aligned} +\right. +$$ +\end{defin} +\begin{defin} +Если существует вектор--столбец~$\B x$, обращающий выражение~$\B{Ax=b}$ в тождество, говорят, +что~$\B x$ является\ж решением\н данной системы уравнений. +$|\B A|\ne0$. +\end{defin} +\end{frame} + +\begin{frame}{Методы решений} +\only<1>{\begin{block}{} +$\delta=\B{Ax-b}$. +Приближенные методы: $\mathrm{min}(\delta)$. Точные методы: $\delta=0$.\\ +\end{block} +\begin{block}{Метод простой итерации} +$\B{x=Bx+c}$, $\B x_{n+1}=\B B\B x_n+\B c$.\\ +Сложностью метода простой итерации при решении матриц больших размерностей является особое свойство +таких матриц~--- существование\к почти собственных значений\н, $\lambda$: +$||\B{Ax}-\lambda\B x||\le\epsilon||\B x||$ при $||\B x||\ne0$.\\ +\end{block} +\begin{block}{Матричный метод} +$\B x = \B A^{-1}\B b$ +\end{block} +} +\only<2>{ +\begin{block}{Метод Гаусса} +$$ +\B A_d\B{x} = \pmb\beta,\quad +\B A_d=\begin{pmatrix} +\alpha_{11}&\alpha_{12}&\alpha_{13}&\cdots&\alpha_{1m}\\ +0&\alpha_{22}&\alpha_{23}&\cdots&\alpha_{2m}\\ +\cdot&\cdot&\cdot&\cdots&\cdot\\ +0&0&0&\cdots&\alpha_{mm} +\end{pmatrix}. +$$ +Прямой ход~--- преобразование к диагональной форме: +$$ +\left(\begin{matrix} +\alpha_{11}&\alpha_{12}&\alpha_{13}&\cdots&\alpha_{1m}\\ +0&\alpha_{22}&\alpha_{23}&\cdots&\alpha_{2m}\\ +\cdot&\cdot&\cdot&\cdots&\cdot\\ +0&0&0&\cdots&\alpha_{mm} +\end{matrix}\middle| +\begin{matrix}\beta_1\\\beta_2\\\cdot\\\beta_m\end{matrix}\right). +$$ +Обратный ход~--- последовательное нахождение $x_m$, $x_{m-1}$, \dots, $x_1$. + +$N\propto n^3$~--- прямой, $N\propto n^2$~--- обратный ход. +\end{block} +} +\only<3>{ +\begin{block}{} +\ж Метод Зейделя\н: \\ +$$\B{Bx}_{n+1}+\B{Cx}_n=\B b,$$ +где +$$\B B=\begin{pmatrix} +a_{11}&0&0&\cdots&0\\ +a_{21}&a_{22}&0&\cdots&0\\ +\cdot&\cdot&\cdot&\cdots&\cdot\\ +a_{m1}&a_{m2}&a_{m3}&\cdots&a_{mm} +\end{pmatrix},\qquad +\B C=\begin{pmatrix} +0&a_{12}&a_{13}&\cdots&a_{1m}\\ +0&0&a_{23}&\cdots&a_{2m}\\ +\cdot&\cdot&\cdot&\cdots&\cdot\\ +0&0&0&\cdots&0 +\end{pmatrix}. +$$ +Отсюда получаем +$$\B x_{n+1}=-\B B^{-1}\B{Cx}_n +\B B^{-1}\B b.$$ +\end{block} +} +\only<4>{ +\begin{block}{} +Если $\B A$ содержит~$m$ строк и~$n$ столбцов, то: +\begin{description} +\item[$m=n$] квадратная матрица, возможно существование точного решения; +\item[$mn$] переопределенная система, приближенное решение которой находится +при помощи метода наименьших квадратов (в случае линейной зависимости строк +данной системы может существовать и точное решение). +\end{description} +\end{block} +\begin{block}{Приближенные решения} +МНК ($\B{x=A\backslash b}$), псевдообратная матрица, \dots +\end{block} +} +\end{frame} + +\section{Степенные уравнения} +\begin{frame}{Степенные уравнения} +\begin{defin} +\ж Степенное уравнение\н имеет вид $p_n(x)=0$, где $p_n(x)$~-- полином~$n$~-й степени вида +$p_n(x)=\sum_{i=0}^n C_nx^n$. +\end{defin} +\begin{block}{Методы решения} +Точные~--- до третьей степени включительно (в общем случае) и итерационные: +\begin{description} +\item[бисекция] деление пополам отрезка, где находится корень; +\item[метод хорд] замена полинома хордой, проходящей через точки $(x_1, p_n(x_1)$ и $(x_2, +p_n(x_2)$; +\item[метод Ньютона] имеет быструю сходимость, но требует знакопостоянства $f'(x)$ и $f''(x)$ на +выбранном интервале $(x_1, x_2)$. +\end{description} +\end{block} +\end{frame} + +\begin{blueframe}{Метод Ньютона} +\img[0.7]{Newton_iteration} +\end{blueframe} + +\section{Численное интегрирование и дифференцирование} +\begin{frame}{Численное интегрирование и дифференцирование} +\only<1>{ +\begin{block}{Численное интегрирование} +Для численного решения уравнения $\displaystyle I=\Int_a^b f(x)\,dx$ наиболее популярны: +\begin{description} +\item[метод прямоугольников] $I\approx\sum_{i=1}^n f(x_i)[x_i-x_{i-1}]$; +\item[метод трапеций] $I\approx\sum_{i=1}^n \frac{f(x_{i-1})+f(x_i)}{2}[x_i-x_{i-1}]$; +\item[метод Симпсона] $\Int_{-1}^1 f(x)\,dx\approx\frac13\bigl(f(-1)+4f(0)+f(1)\bigr)$ \so +$I\approx\frac{b-a}{6n}\Bigl(f(x_0)+f(x_n)+2\sum_{i=1}^{n/2-1} +f(x_{2i}) + 4\sum_{i=1}^{n/2}f(x_{2i-1})\Bigr)$. +\end{description} +и многие другие. +\end{block}} +\only<2>{ +\begin{block}{Численное дифференцирование} +Аппроксимация функции интерполяционным многочленом (Ньютона, Стирлинга и т.п.), разделенные +разности. + +В нулевом приближении можно заменить производную $f^{(n)}$ разделенной разностью $n$-го порядка: +$$f(x_0; x_1; \ldots; x_n) = \sum_{i=0}^n \frac{f(x_i)}{\displaystyle +\prod_{j=0, j\ne i}^n\!\!(x_i - x_j)}.$$ +\end{block}} +\end{frame} + +\section{Дифференциальные уравнения} +\begin{frame}{Дифференциальные уравнения} +\only<1>{ +\begin{defin} +\ж Обыкновенные дифференциальные уравнения\н~(ОДУ) порядка~$n$ задаются в виде +функции $f(x,y,y',\ldots,y^{(n)})=0$. +\end{defin} +\begin{block}{} +Разделение переменных:\vspace{-2em} +$$y'=f(x,y) \so \phi(y)\,dy=\psi(x)\,dx \so y=y_0+\Int_0^{x}\psi(x)\,dx.$$ + +ОДУ второго порядка: +$$Ay''+By'+Cy+Dx=0.$$ +Если $D\equiv0$, а множители $A$, $B$ и~$C$~--- константы, имеем однородное ОДУ. +$y=\C_1\exp(k_1x)+\C_2\exp(k_2x)$, где~$k_1$ и~$k_2$~-- корни\к +характеристического уравнения\н $Ak^2+Bk+C=0$. +\end{block}} +\only<2>{ +\begin{defin} +\ж Дифференциальные уравнения в частных производных\н~(ЧДУ) для функции +$y=y(x_1,x_2,\cdots,x_n)$ имеют вид +$$f(y,x_1,\ldots,x_n;\partder{y}{x_1},\ldots;\dpartder{y}{x_1},\ldots;\cdots; +\frac{\partial^m y}{\partial x_1^m},\ldots)=0.$$ +\end{defin} +\begin{block}{} +Однако, наиболее часто встречаются ЧДУ первого порядка для функции двух +переменных $z=z(x,y)$ вида +$$f(z,x,y,\partder{z}{x},\partder{z}{y})=0.$$ +\end{block}} +\only<3>{ +\begin{block} +\ж Нелинейные\н дифференциальные уравнения содержат некоторые производные +функции~$y$ не как простые множители, а как аргументы функций (чаще всего~--- +степенных), например: $(y'')^3-\sin y'=\tg(xy)$. Обычные физические задачи +никогда не приводят к таким уравнениям, однако, и их решения вполне можно +найти при помощи численных методов. +\end{block} +\begin{block}{Методы решения} +Рунге--Кутты, Эйлера, Адамса, конечных разностей и т.п. + +Дифференциальные уравнения высших порядков сводят путем замены переменных к системе ОДУ первого +порядка. +\end{block} +} +\end{frame} + + +\begin{frame}{Спасибо за внимание!} +\centering +\begin{minipage}{5cm} +\begin{block}{mailto} +eddy@sao.ru\\ +edward.emelianoff@gmail.com +\end{block}\end{minipage} +\end{frame} +\end{document} diff --git a/Komp_obr/06-analysis.pdf b/Komp_obr/06-analysis.pdf new file mode 100644 index 0000000..2f63354 Binary files /dev/null and b/Komp_obr/06-analysis.pdf differ diff --git a/Komp_obr/06-analysis.tex b/Komp_obr/06-analysis.tex new file mode 100644 index 0000000..74eb611 --- /dev/null +++ b/Komp_obr/06-analysis.tex @@ -0,0 +1,99 @@ +\documentclass[10pt,pdf,hyperref={unicode}]{beamer} +%\hypersetup{pdfpagemode=FullScreen} +\usepackage{ed} +\usepackage{lect} + +\title[Компьютерная обработка. Лекция 6.]{Компьютерная обработка результатов измерений} +\subtitle{Лекция 6. Анализ временных рядов. Фурье-- и Вейвлет--анализ} +\date{5 октября 2016 года} + +\begin{document} +% Титул +\begin{frame} +\maketitle +\end{frame} +% Содержание +\begin{frame} +\tableofcontents +\end{frame} + +\section{Аппроксимация и интерполяция} +\begin{frame}{Аппроксимация и интерполяция} +\only<1>{ +\begin{defin} +\ж Аппроксимация\н. Некоторую функцию $f(x)$, $x\in(x_0, x_1)$ требуется приближенно заменить +некоторой функцией~$g(x)$ так, чтобы отклонение~$g(x)$ от~$f(x)$ в заданной области было наименьшим. +\end{defin} +\begin{block}{} +Точечная (интерполяция, среднеквадратичное приближение и т.п.) и непрерывная аппроксимации. +\end{block} +\begin{defin} +\ж Интерполяция\н является частным случаем аппроксимации, позволяющем вычислить промежуточные +значения дискретной функции. +\end{defin}} +\begin{block}{Ряд Тейлора} +$$f(x)=f(x_0)+(x-x_0)f'(x_0)+\cdots+\frac{(x-x_0)^nf^{(n)}(x_0)}{n!}+R_n.$$ +\end{block} +\only<2>{ +\begin{block}{} +Выбирая первые $N$ членов ряда Тейлора получаем разные виды интерполяции. Линейная: +$$f_n(x)\approx y_n+(x-x_n)\frac{y_{n+1}-y_n}{x_{n+1}-x_n}.$$ +Ньютона (для равноотстоящих $x$, $h=x_{n+1}-x_n$): +$$f^k_n(x)\approx y_n + q\Delta y_n + \frac{1(1-q)}{2!}\Delta^2y_n + \cdots ++\frac{q(q-1)\cdots(q-k+1)}{k!}\Delta^ky_n,$$ +где $q=\dfrac{x-x_n}{h}$, $\Delta^i$~-- конечные разности ($\Delta y_n = y_{n+1}-y_n$, \dots, +$\Delta^k y_n = \Delta^{k-1}y_{n+1} - \Delta^{k-1}y_n$). +\end{block} +} +\end{frame} + +\begin{frame}{} +\begin{defin} +\ж Сплайн\н~--- кусочная полиномиальная функция, которая на заданном отрезке может принимать очень +простую форму, в то же время имея гибкость и гладкость. +\end{defin} + +\begin{block}{Степенной сплайн} +Набор полиномов степени $k$ со следующими ограничениями: +\begin{itemize} +\item сплайны должны совпадать в узловых точках с задающей функцией: $p_n(x_n) = f(x_n)$; +\item предыдущий сплайн должен переходить в следующий в точках сшивания, +$p_n(x_n)=p_{n+1}(x_n)$; +\item все производные до $f^{(k-1)}$ должны быть непрерывными и гладкими: +$p^i_n(x_n)=p^i_{n+1}(x_n)$ для $i=\overline{1,k-1}$; +\end{itemize} +$n-1$ полином степени $k$ имеют $(k+1)(n-1)=(k+1)n-k-1$ свободных коэффициентов. Данные ограничения +дают нам +$n+(n-2)\cdot k=(k+1)n-2k$ уравнений. Чтобы получить еще $k-1$ уравнений, нужны дополнительные +условия. Чем больше $k$, тем тяжелей. Поэтому обычно дальше $k=3$ не идут. +\end{block} +\end{frame} + +\begin{frame}{} +\only<1>{ +\begin{block}{B--сплайн} +Базисные сплайны менее подвержены влиянию изменения отдельных точек данных (изменение одной вершины +B--сплайна степени $k$ ведет к изменению лишь $k+1$ соседних сплайнов). При этом, однако, теряются +точные интерполяционные свойства: $p_n(x_n)\ne f(x_n)$ \so снижается влияние шумов (B--сплайн +проходит только через первый и последний узлы, повышаем степень~--- улучшаем сглаживание данных). +Количество узлов: $n\ge k+1$. +\end{block} +\begin{block}{Сплайны Акимы} +Дают меньшие осцилляции. +\end{block}} +\only<2>{ +\img[0.7]{1D_Inter_polation} +} +\end{frame} + + + +\begin{frame}{Спасибо за внимание!} +\centering +\begin{minipage}{5cm} +\begin{block}{mailto} +eddy@sao.ru\\ +edward.emelianoff@gmail.com +\end{block}\end{minipage} +\end{frame} +\end{document} diff --git a/Komp_obr/Makefile b/Komp_obr/Makefile new file mode 100644 index 0000000..c59e7a5 --- /dev/null +++ b/Komp_obr/Makefile @@ -0,0 +1,11 @@ +SRCS = $(wildcard *.tex) +PDFS = $(SRCS:.tex=.pdf) + + +all: $(PDFS) + +%.pdf : %.tex + latexmk --pdf $< + +clean: + rm -f *.aux *.log *.nav *.out *.snm *.vrb *.backup *.toc *~ *.fls *.fdb_latexmk diff --git a/Komp_obr/lect.sty b/Komp_obr/lect.sty new file mode 100644 index 0000000..93cbf33 --- /dev/null +++ b/Komp_obr/lect.sty @@ -0,0 +1,85 @@ +\usepackage[T2A]{fontenc} %поддержка кириллицы +\usepackage[koi8-r]{inputenc} +\usepackage[english,russian]{babel} +\usepackage{xspace} +%\usepackage[intlimits]{amsmath} + + +\def\No{\textnumero} + +\graphicspath{{./pic/}} +\usetheme{Boadilla} +\usefonttheme{structurebold} +\usefonttheme[onlymath]{serif} +\setbeamercovered{transparent} + +\newenvironment{pict}% + {\begin{figure}[!h]\begin{center}\noindent}% + {\end{center}\end{figure}} + +\setbeamercolor{color1}{bg=blue!50!black,fg=white} +\setbeamercolor{normal text}{bg=blue!20!black,fg=cyan!70!white} +\setbeamercolor{frametitle}{fg=red,bg=blue!40!black} +\setbeamercolor{title}{fg=red,bg=blue!40!black} +\setbeamercolor{block title}{fg=cyan,bg=blue!40!black} +\newenvironment{defin}{\begin{beamercolorbox}[shadow=true, rounded=true]{color1}}% +{\end{beamercolorbox}} +\newcommand{\img}[2][]{\begin{pict}\includegraphics[width=#1\columnwidth]{#2}\end{pict}} +\newcommand{\smimg}[2][]{\includegraphics[width=#1\columnwidth]{#2}} +\logo{\includegraphics[width=1cm,height=1cm,keepaspectratio]{saologo.jpg}} + +\def\daterussian{ % fix for iюня and iюля + \def\today{\number\day~\ifcase\month\or + \cyrya\cyrn\cyrv\cyra\cyrr\cyrya\or + \cyrf\cyre\cyrv\cyrr\cyra\cyrl\cyrya\or + \cyrm\cyra\cyrr\cyrt\cyra\or + \cyra\cyrp\cyrr\cyre\cyrl\cyrya\or + \cyrm\cyra\cyrya\or + \cyri\cyryu\cyrn\cyrya\or + \cyri\cyryu\cyrl\cyrya\or + \cyra\cyrv\cyrg\cyru\cyrs\cyrt\cyra\or + \cyrs\cyre\cyrn\cyrt\cyrya\cyrb\cyrr\cyrya\or + \cyro\cyrk\cyrt\cyrya\cyrb\cyrr\cyrya\or + \cyrn\cyro\cyrya\cyrb\cyrr\cyrya\or + \cyrd\cyre\cyrk\cyra\cyrb\cyrr\cyrya\fi + \space \number\year~\cyrg.}} + +\author[Емельянов Э.В.]{Емельянов Эдуард Владимирович} +\institute[САО РАН]{Специальная астрофизическая обсерватория РАН\\ + {\tiny Лаборатория обеспечения наблюдений}\\ +} + +\def\ж{\bf} +\def\т{\tt} +\def\н{\normalfont} +\def\к{\it} +\def\t#1{\texttt{#1}} +\def\bi{\bfseries\itshape} % Жирный курсив +\def\red#1{\textcolor{red}{#1}} +\def\green#1{\textcolor{green}{#1}} +\def\blue#1{\textcolor{blue}{#1}} + +\newenvironment{lightframe}{\bgroup\setbeamercolor{normal text}% +{bg=blue}\begin{frame}}{\end{frame}\egroup} +\newenvironment{blueframe}{\bgroup\setbeamercolor{normal text}% +{bg=cyan!70!white}\begin{frame}}{\end{frame}\egroup} + +\def\aver#1{\bgroup\mathopen{<}#1\mathclose{>}\egroup} +\def\B#1{\ensuremath{\mathbf{#1}}} +\def\ceil#1{\bgroup\lceil #1\rceil\egroup} +\def\const{\ensuremath{\mathfrak{const}}} +\def\C{\ensuremath{\mathfrak{C}}} +\def\dpartder#1#2{\dfrac{\partial^2 #1}{\partial #2^2}} % вторая частная производная +\def\e{\mathop{\mathrm e}\nolimits} +\def\floor#1{\bgroup\lfloor #1\rfloor\egroup} +\def\frc#1#2{\bgroup\raisebox{2pt}{$#1$}\big/\raisebox{-3pt}{$#2$}\egroup} +\def\FT#1{\mathcal{F}(#1)} +\def\Int{\int\limits} +\def\Infint{\int\limits_{-\infty}^\infty} +\def\mean#1{\overline{#1}} +\def\med{\mathop{\mathrm{med}}\nolimits} +\def\moda{\mathop{\mathrm{Mo}}\nolimits} +\def\partder#1#2{\dfrac{\partial #1}{\partial #2}} +\def\so{\ensuremath{\Longrightarrow}\xspace} % следовательно +\def\SNR{\mathop{\mathrm{SNR}}\nolimits} + diff --git a/Komp_obr/pic/ADC.jpg b/Komp_obr/pic/ADC.jpg new file mode 100644 index 0000000..110c25d Binary files /dev/null and b/Komp_obr/pic/ADC.jpg differ diff --git a/Komp_obr/pic/Binomial_Distribution.pdf b/Komp_obr/pic/Binomial_Distribution.pdf new file mode 100644 index 0000000..adaa34b Binary files /dev/null and b/Komp_obr/pic/Binomial_Distribution.pdf differ diff --git a/Komp_obr/pic/Boxplot_vs_PDF.png b/Komp_obr/pic/Boxplot_vs_PDF.png new file mode 100644 index 0000000..2dd7b9f Binary files /dev/null and b/Komp_obr/pic/Boxplot_vs_PDF.png differ diff --git a/Komp_obr/pic/Continuous_wavelet_transform.pdf b/Komp_obr/pic/Continuous_wavelet_transform.pdf new file mode 100644 index 0000000..111fb49 Binary files /dev/null and b/Komp_obr/pic/Continuous_wavelet_transform.pdf differ diff --git a/Komp_obr/pic/DAC.png b/Komp_obr/pic/DAC.png new file mode 100644 index 0000000..2c11d99 Binary files /dev/null and b/Komp_obr/pic/DAC.png differ diff --git a/Komp_obr/pic/Four-filter.pdf b/Komp_obr/pic/Four-filter.pdf new file mode 100644 index 0000000..b0cfb64 Binary files /dev/null and b/Komp_obr/pic/Four-filter.pdf differ diff --git a/Komp_obr/pic/MF3.pdf b/Komp_obr/pic/MF3.pdf new file mode 100644 index 0000000..8a94c8a Binary files /dev/null and b/Komp_obr/pic/MF3.pdf differ diff --git a/Komp_obr/pic/MF5.pdf b/Komp_obr/pic/MF5.pdf new file mode 100644 index 0000000..fe19405 Binary files /dev/null and b/Komp_obr/pic/MF5.pdf differ diff --git a/Komp_obr/pic/Newton_iteration.pdf b/Komp_obr/pic/Newton_iteration.pdf new file mode 100644 index 0000000..9ba10ee Binary files /dev/null and b/Komp_obr/pic/Newton_iteration.pdf differ diff --git a/Komp_obr/pic/Noiced.pdf b/Komp_obr/pic/Noiced.pdf new file mode 100644 index 0000000..0903cf7 Binary files /dev/null and b/Komp_obr/pic/Noiced.pdf differ diff --git a/Komp_obr/pic/ReconstructFilter.png b/Komp_obr/pic/ReconstructFilter.png new file mode 100644 index 0000000..436beee Binary files /dev/null and b/Komp_obr/pic/ReconstructFilter.png differ diff --git a/Komp_obr/pic/SNR.pdf b/Komp_obr/pic/SNR.pdf new file mode 100644 index 0000000..5fab233 Binary files /dev/null and b/Komp_obr/pic/SNR.pdf differ diff --git a/Komp_obr/pic/Uniform_distribution_CDF.png b/Komp_obr/pic/Uniform_distribution_CDF.png new file mode 100644 index 0000000..712dbf3 Binary files /dev/null and b/Komp_obr/pic/Uniform_distribution_CDF.png differ diff --git a/Komp_obr/pic/Uniform_distribution_PDF.png b/Komp_obr/pic/Uniform_distribution_PDF.png new file mode 100644 index 0000000..4b83897 Binary files /dev/null and b/Komp_obr/pic/Uniform_distribution_PDF.png differ diff --git a/Komp_obr/pic/autocorr.pdf b/Komp_obr/pic/autocorr.pdf new file mode 100644 index 0000000..f9d591c Binary files /dev/null and b/Komp_obr/pic/autocorr.pdf differ diff --git a/Komp_obr/pic/binopdf.pdf b/Komp_obr/pic/binopdf.pdf new file mode 100644 index 0000000..6ba9511 Binary files /dev/null and b/Komp_obr/pic/binopdf.pdf differ diff --git a/Komp_obr/pic/bisect.jpg b/Komp_obr/pic/bisect.jpg new file mode 100644 index 0000000..029e356 Binary files /dev/null and b/Komp_obr/pic/bisect.jpg differ diff --git a/Komp_obr/pic/chi2.png b/Komp_obr/pic/chi2.png new file mode 100644 index 0000000..aa1c7f0 Binary files /dev/null and b/Komp_obr/pic/chi2.png differ diff --git a/Komp_obr/pic/convcorr.pdf b/Komp_obr/pic/convcorr.pdf new file mode 100644 index 0000000..2c2d33b Binary files /dev/null and b/Komp_obr/pic/convcorr.pdf differ diff --git a/Komp_obr/pic/digital_signal.jpg b/Komp_obr/pic/digital_signal.jpg new file mode 100644 index 0000000..a380043 Binary files /dev/null and b/Komp_obr/pic/digital_signal.jpg differ diff --git a/Komp_obr/pic/disc_sig.png b/Komp_obr/pic/disc_sig.png new file mode 100644 index 0000000..cd08c17 Binary files /dev/null and b/Komp_obr/pic/disc_sig.png differ diff --git a/Komp_obr/pic/exppdf.pdf b/Komp_obr/pic/exppdf.pdf new file mode 100644 index 0000000..46edb9d Binary files /dev/null and b/Komp_obr/pic/exppdf.pdf differ diff --git a/Komp_obr/pic/graph_res.jpg b/Komp_obr/pic/graph_res.jpg new file mode 100644 index 0000000..7f84a77 Binary files /dev/null and b/Komp_obr/pic/graph_res.jpg differ diff --git a/Komp_obr/pic/lesssquare.pdf b/Komp_obr/pic/lesssquare.pdf new file mode 100644 index 0000000..c89ba28 Binary files /dev/null and b/Komp_obr/pic/lesssquare.pdf differ diff --git a/Komp_obr/pic/mode_median.png b/Komp_obr/pic/mode_median.png new file mode 100644 index 0000000..b7978a7 Binary files /dev/null and b/Komp_obr/pic/mode_median.png differ diff --git a/Komp_obr/pic/normpdf.pdf b/Komp_obr/pic/normpdf.pdf new file mode 100644 index 0000000..80a935a Binary files /dev/null and b/Komp_obr/pic/normpdf.pdf differ diff --git a/Komp_obr/pic/oscill.jpg b/Komp_obr/pic/oscill.jpg new file mode 100644 index 0000000..54cf580 Binary files /dev/null and b/Komp_obr/pic/oscill.jpg differ diff --git a/Komp_obr/pic/poissonpdf.pdf b/Komp_obr/pic/poissonpdf.pdf new file mode 100644 index 0000000..89dcd8c Binary files /dev/null and b/Komp_obr/pic/poissonpdf.pdf differ diff --git a/Komp_obr/pic/saologo.jpg b/Komp_obr/pic/saologo.jpg new file mode 100644 index 0000000..69c0b52 Binary files /dev/null and b/Komp_obr/pic/saologo.jpg differ diff --git a/Komp_obr/pic/tab_res.jpg b/Komp_obr/pic/tab_res.jpg new file mode 100644 index 0000000..df34f61 Binary files /dev/null and b/Komp_obr/pic/tab_res.jpg differ diff --git a/Komp_obr/pic/wavelet_img.png b/Komp_obr/pic/wavelet_img.png new file mode 100644 index 0000000..53cd0df Binary files /dev/null and b/Komp_obr/pic/wavelet_img.png differ diff --git a/Komp_obr/template.tex b/Komp_obr/template.tex new file mode 100644 index 0000000..fb62968 --- /dev/null +++ b/Komp_obr/template.tex @@ -0,0 +1,28 @@ +\documentclass[10pt,pdf,hyperref={unicode}]{beamer} +\hypersetup{pdfpagemode=FullScreen} +\usepackage{ed} +\usepackage{lect} + +\title[Компьютерная обработка. Лекция .]{Компьютерная обработка результатов измерений} +\subtitle{Лекция .} +\date{23 мая 2016 года} + +\begin{document} +% Титул +\begin{frame} +\maketitle +\end{frame} +% Содержание +\begin{frame} +\tableofcontents +\end{frame} + +\begin{frame}{Спасибо за внимание!} +\centering +\begin{minipage}{5cm} +\begin{block}{mailto} +eddy@sao.ru\\ +edward.emelianoff@gmail.com +\end{block}\end{minipage} +\end{frame} +\end{document} diff --git a/README.md b/README.md index dd0393c..7168db9 100644 --- a/README.md +++ b/README.md @@ -2,3 +2,6 @@ ## Astroschool_lect Лекции для 4-й сессии астрофизической школы ("Траектория") + +## Komp_obr +Лекции для аспирантов САО РАН по программе "Компьютерная обработка результатов измерений"