Метод канонического разложения данных акселерограмм лекция.

Лекция 14 Случайные процессы Каноническое разложение случайных процессов. Спектральное разложение стационарного случайного процесса. СлуЛекция 14
Случайные процессы
Каноническое разложение случайных процессов.
Спектральное разложение стационарного случайного
процесса. Случайные процессы с независимыми
сечениями. Марковские процессы и цепи Маркова.
Нормальные случайные процессы. Периодически
нестационарные случайные процессы
(Ахметов С.К.)

Каноническое разложение случайных процессов

Любой СП X(t) м.б. представлен в
виде его разложения, т.е. в виде суммы
элементарных процессов:
Vk – случайные величины
φk(t) – неслучайные функции (синусоиды, экспоненты, степенные
функции и т.д)
Частный случай такого разложения-Каноническое
разложение
СП X(t), имеющее вид
mx(t) = M – математическое ожидание СП X(t)
V1, V2…Vk – некоррелированные и центрированные СВ
D1, D2 …Dk- дисперсии СВ V1, V2…Vk
φk(t) – неслучайные функции аргумента t
Случайные величины V1, V2…Vk называются коэффициентами канонического
разложения,
а неслучайные функции φ1(t), φ2(t) φk(t) - координатными функциями
канонического разложения

Основные характеристики СП, заданного каноническим разложением

M – математическое ожидание СП X(t)
Kx(t,t’) – корреляционная функция СП X(t)
Выражение
- каноническое разложение корреляционной
функции
Если t=t’, то в соответствие с первым
свойством корреляционной функции
Выражение
Dk(t) –
дисперсия
каноническое разложение дисперсии СП X(t)

Спектральное разложение стационарного СП

Стационарный СП м.б. представлен каноническим разложением
Vk и Uk – некоррелированные и центрированные СВ с дисперсиями
D = D = Dk
ω – неслучайная величина (частота)
В этом случае каноническое разложение корреляционной функции
определяется выражением
Представленное
каноническое
разложение
СП
X(t)
называется
спектральным разложением СП и
выражается в виде
Θk - фаза гармонического колебания элементарного стационарного СП,
являющаяся СВ равномерно распределенной в интервале (0, 2π);
Zk – СВ, представляющая собой амплитуду гармонического колебания
элементарного стационарного СП

Спектральное разложение стационарного СП (2)

Случайные величины Θk и Zk зависимы и для них справедливо:
Vk = Zk cos Θk
Uk = Zk sin Θk
Стационарный СП м.б. представлен в виде суммы гармонических
колебаний со случайными амплитудами Zk и случайными фазами Θk на
различных неслучайных частотах ωk
Корреляционная функция стационарного СП X(t) является четной
функцией своего аргумента, т.е. kx(τ) = kx(-τ). Поэтому ее на интервале (-Т,
Т) можно разложить в ряд Фурье по четным (косинусам) гармоникам:
Дисперсия стационарного СП X(t) равна
сумме
дисперсий
всех
гармоник
его
спектрального разложения
Зависимость Dk = f(wk) называется дискретным спектром дисперсий или
дискретным спектром стационарного СП.

Спектральное разложение стационарного СП (3)

При ∆ω
→ 0 произойдет переход к непрерывному спектру
Sx(ω) - спектральная плотность
Таким образом, корреляционная функция и спектральная плотность
связаны косинус – преобразованием Фурье. Следовательно, спектральная
плотность стационарного СП м.б. выражена через корреляционную
функцию формулой

Случайные процессы с независимыми сечениями

В гидрологии считается, что ряд соответствует модели случайной
величины, если отсутствует значимая корреляция между членами этого ряда
при любом сдвиге τ.
Случайный процесс с независимыми сечениями – это СП, для которого
при значениях t и t’
mx(t) = mx
Dx (t) = Dx
Kx(t,t’) = kx(τ) = {Dx при τ = 0 и 0 при τ ≠ 0}
Такой процесс является стационарным и обладает эргодическим
свойством
Для таких процессов характеристики одномерного закона распределения
можно оценить как по любому сечению, так и по любой (достаточно
продолжительной) реализации
У таких процессов отсутствует корреляция между членами внутри любой
реализации
Принимая такую модель, допускается, что ряд гидрологических величин
представляет собой одну реализацию СП
Случайный процесс с независимыми сечениями иногда называют
«белым шумом» по аналогии с белым светом

Марковские процессы и цепи Маркова

Случайный процесс
называется марковским, если для любого
момента времени t вероятность каждого из состояний системы в будущем
(при t > t0) зависит только от ее состояния в настоящем (при t = t0) и не
зависит от ее состояния в прошлом (при t < t0)
Марковской цепью или простой марковской цепью называется
марковский процесс с дискретным состоянием и дискретным временем
Марковский СП полностью описывается двумерным законом
распределения. Если Марковский процесс является стационарным и
эргодическим, то его характеристики можно оценить по одной
реализации.
Цепь, в которой условные вероятности состояний в будущем зависят
от ее состояния на нескольких предыдущих шагах, называется сложной
цепью Маркова.

Нормальные (Гауссовские) случайные процессы

Нормальным (гауссовским) случайным процессом X(t) называется
СП, у которого во всех сечениях СВ X(ti) имеет нормальное
распределение
Периодически нестационарные СП
При изучении годовых, месячных, суточных и т.д. процессов, обычно,
наблюдаются внутригодовые и т.д. колебания. В этом случае, в качестве
математической модели можно использовать модель периодически
нестационарного случайного процесса (ПНСП)
Случайный процесс называют периодически нестационарным, если
его вероятностные характеристики инварианты относительно сдвигов на
положительное число Т. Например, при шаге дискретности один месяц
инвариантность должна сохраняться при сдвигах 12, 24, 36 и т.д.

Пусть непрерывный центрированный случайный процесс задан каноническим разложением

, (1.21)

где - некоррелированные случайные коэффициенты с параметрами - система некоторых детерминированных координатных функций.

Из условия некоррелированности коэффициентов , следует аналогичное каноническое разложение корреляционной функции случайного процесса :

. (1.22)

Задание случайного процесса в виде канонического разложения - это и есть параметрическое задание случайного процесса, о котором шла речь в § 1.1.

Моделирование случайного процесса, заданного каноническим разложением, осуществляется довольно просто: в процессе формирования дискретных реализаций (в процессе выработки координат случайного вектора) они вычисляются по формуле (1.21) непосредственно. При этом в качестве используются выборочные значения некоррелированных случайных величин с параметрами . Бесконечный ряд. (1.21) при вычислениях приближенно заменяется усеченным конечным рядом.

Подготовительная работа при моделировании случайных векторов методом канонических разложений заключается в выборе системы координатных функций и в нахождении дисперсий , т. е. в осуществлении непосредственно канонического разложения. Часто в качестве координатных функций выбирают систему ортонормированных функций, т. е. функций, удовлетворяющих условию

Разложение случайного процесса в ряд с некоррелированными коэффициентами по ортонормированной системе функций всегда может быть произведено (теорема Карунена - Лоева). При этом дисперсии находятся как собственные значения, а функции - как собственные функции интегрального уравнения

, (1.23)

где - интервал разложения (в том числе и ); – произвольная неотрицательная функция веса.

К сожалению, разложение (1.21), полученное с помощью (1.23), больше применяется при теоретических исследованиях, а практическое использование его затруднено, так как не существует достаточно простого общего способа решения интегральных уравнений вида (1.23). Сравнительно несложное решение можно получить лишь в некоторых специальных случаях, например для стационарных случайных процессов с рациональной спектральной плотностью.

Существуют приближенные способы получения канонических разложений случайных процессов. Среди них наиболее удобным для моделирования случайных векторов и случайных процессов является способ канонического разложения случайных функций в дискретном ряде точек, предложенный В. С. Пугачевым. Описание этого способа и порядок его практического использования дается в . Мы приведем здесь лишь окончательный алгоритм вычисления дисперсий некоррелированных случайных коэффициентов и координатных функций в разложении (1.21).

Пусть задан случайный процесс с корреляционной функцией и пусть на временной оси задана последовательность точек , (не обязательно равностоящих). Требуется аппроксимировать случайный процесс случайным процессом , представленным в виде разложения (1.21) и таким, что его корреляционная функция совпадает с в заданных дискретных точках, т. е.

Такому условию, как показано в , удовлетворяет каноническое разложение с конечным числом слагаемых, равным числу дискретных точек :

, (1.24)

причем дисперсии коэффициентов и координатные функции в разложении (1.24) могут быть найдены по следующим рекуррентным формулам:

(1.25)

Существенным достоинством данного способа является то, что он позволяет получить каноническое разложение с помощью обычных алгебраических операций, не прибегая к решению интегральных уравнений, и особенно удобен при небольшом числе дискретных точек. При большом числе дискретных точек данный способ требует довольно громоздких вычислений.

Корреляционная функция случайного процесса, каноническое разложение которого получается по формулам (1.26), в промежутках между дискретными точками, вообще говоря, не совпадает с корреляционной функцией исходного процесса. Однако если дискретные точки выбираются так, что значения процесса в этих точках имеют высокую корреляцию между собой, то совпадение корреляционных функций в промежуточных точках будет достаточно хорошим. Это позволяет использовать процесс не только для формирования значений процесса в заданных дискретных точках, но и в промежуточных точках.

Пусть требуется формировать на ЦВМ значения процесса только в заданных дискретных точках , т. е. требуется получать выборочные значения -мерного вектора

с корреляционной матрицей

где - корреляционная функция дискретного случайного процесса . Используя данное каноническое разложение, получим следующий моделирующий алгоритм:

, (1.26)

в котором дисперсии некоррелированных случайных коэффициентов и дискретные координатные функции находятся из соотношений:

(1.27)

Алгоритм (1.26) можно записать в виде

, (1.28)

где - некоррелированные случайные величины с параметрами (0,1).

Если моделируемый процесс является нормальным, то, положив закон распределения случайных коэффициентов в каноническом разложении по данному способу нормальным, придем к алгоритму, позволяющему точно, т. е. в рамках многомерных распределений, а не в рамках корреляционных приближений, формировать на ЦВМ дискретные реализации стационарных и нестационарных нормальных случайных процессов, заданных на конечном интервале времени.

При формировании по этому способу реализаций случайных векторов подготовительная работа по объему вычислительных затрат примерно такая же, что и при формировании случайных векторов с помощью линейного преобразования, описанного выше. Однако необходимое количество ячеек памяти в данном способе может быть значительно меньшим. Это имеет место в тех случаях, когда координатные функции удается выразить достаточно простыми аналитическими выражениями. В противном случае значения и т. д.

Таким образом, формулы (1.27) являются разновидностью формул (1.19) для вычисления элементов матрицы преобразования .

В подразделе 15.7 мы познакомились с общими правилами линейных преобразований случайных функций. Эти правила сводятся к тому, что при линейном преобразовании случайной функции ее математическое ожидание подвергается тому же линейному преобразованию, а корреляционная функция подвергается этому преобразованию дважды: по одному и другому аргументу.

Правило преобразования математического ожидания очень просто и при практическом применении затруднений не вызывает. Что касается двойного преобразования корреляционной функции, то оно в ряде случаев приводит к чрезвычайно сложным и громоздким операциям, что затрудняет практическое применение изложенных общих методов.

Действительно, рассмотрим, например, простейший интегральный оператор:

Согласно общему правилу корреляционная функция преобразуется тем же оператором дважды:

Очень часто бывает, что полученная из опыта корреляционная функция K x (t, t") не имеет аналитического выражения и задана таблично; тогда интеграл (16.1.2) приходится вычислять численно, определяя его как функцию обоих пределов. Это - задача очень громоздкая и трудоемкая. Если даже аппроксимировать подынтегральную функцию каким-либо аналитическим выражением, то и в этом случае чаще всего интеграл (16.1.2) через известные функции не выражается. Так обстоит дело даже при простейшей форме оператора преобразования. Если же, как часто бывает, работа динамической системы описывается дифференциальными уравнениями, решение которых не выражается в явной форме, задача об определении корреляционной функции на выходе еще более осложняется: она требует интегрирования дифференциальных уравнений с частными производными.

Рис. 16.1.1

В связи с этим на практике применение изложенных общих методов линейных преобразований случайных функций, как правило, оказывается слишком сложным и себя не оправдывает. При решении практических задач значительно чаще применяются другие методы, приводящие к более простым преобразованиям. Один из них - так называемый метод канонических разложений, разработанный В. С. Пугачевым, и составляет содержание данной главы.

Идея метода канонических разложений состоит в том, что случайная функция, над которой нужно произвести те или иные преобразования, предварительно представляется в виде суммы так называемых элементарных случайных функций.

Элементарной случайной функцией называется функция вида:

где К - обьиная случайная величина;

Элементарная случайная функция является наиболее простым типом случайной функции. Действительно, в выражении (16.1.3) случайным является только множитель V, стоящий перед функцией ф (/); сама же зависимость от времени случайной не является.

Все возможные реализации элементарной случайной функции X(t) могут быть получены из графика функции х = ф (?) простым изменением масштаба по оси ординат (рис. 16.1.1). При этом ось абсцисс (х=0) также представляет собой одну из возможных реализаций случайной функции X(t ), осуществляющуюся, когда случайная величина V принимает значение 0 (если это значение принадлежит к числу возможных значений величины V).

В качестве примеров элементарных случайных функций приведем функцииX(t) =Fsin/(рис. 16.1.2) иX(t) =Vt 2 (рис. 16.1.3).

Элементарная случайная функция характерна тем, что в ней разделены две особенности случайной функции: случайность вся сосредоточена в коэффициенте V, а зависимость от времени - в обычной функции ф (/).

Рис. 16.1.2

Рис. 16.1.3

Определим характеристики элементарной случайной функции (16.1.3). Имеем:

где т„ - математическое ожидание случайной величины V.

Если m v = 0, математическое ожидание случайной функции X(t) также равно нулю, причем тождественно:

Мы знаем, что любую случайную функцию можно центрировать, т.е. привести к такому виду, когда ее математическое ожидание равно нулю. Поэтому в дальнейшем мы будем рассматривать только центрированные элементарные случайные функции, для которых m v = 0;

V = V; m x (t) = 0. Определим корреляционную функцию элементарной случайной функции X(t). Имеем:

где D - дисперсия величины V.

Над элементарными случайными функциями весьма просто выполняются все возможные линейные преобразования.

Например, продифференцируем случайную функцию (16.1.3). Случайная величина V , не зависящая от t, выйдет за знак производной, и мы получим:

Аналогично

Вообще, если элементарная случайная функция (16.1.3) преобразуется линейным оператором L, то при этом случайный множитель V, как не зависящий от /, выходит за знак оператора, а неслучайная функция ф (?) преобразуется тем же оператором L:

Значит, если элементарная случайная функция поступает на вход линейной системы, то задача ее преобразования сводится к простой задаче преобразования одной неслучайной функции ф (/). Отсюда возникает идея: если на вход динамической системы поступает некоторая случайная функция общего вида, то можно ее представить - точно или приближенно - в виде суммы элементарных случайных функций и только затем подвергать преобразованию. Такая идея разложения случайной функции на сумму элементарных случайных функций и лежит в основе метода канонических разложений.

Пусть имеется случайная функция:

Допустим, что нам удалось - точно или приближенно - представить ее в виде суммы

где V/ - случайные величины с математическими ожиданиями, равными нулю; ср,-(0 - неслучайные функции; m x (t) - математическое ожидание функции X(t).

Условимся называть представление случайной функции в форме (16.1.6) разложением случайной функции. Случайные величины К, V 2 , V m будем называть коэффициентами разложения, а неслучайные функции ф^/), ф 2 (/), , Ф, н (0 - координатными функциями.

Определим реакцию линейной системы с оператором L на случайную функцию X(t), заданную в виде разложения (16.1.6). Известно, что линейная система обладает так называемым свойством суперпозиции, состоящим в том, что реакция системы на сумму нескольких воздействий равна сумме реакций системы на каждое отдельное воздействие. Действительно, оператор системы L, будучи линейным, может по определению применяться к сумме почленно.

Обозначая Y(t) реакцию системы на случайное воздействие Х(1), имеем:

Придадим выражению (16.1.7) несколько иную форму. Учитывая общее правило линейного преобразования математического ожидания, убеждаемся, что L{m x {1)} = m y (t).

Обозначая

Выражение (16.1.8) представляет собой не что иное, какразложение случайной функции Y(t) по элементарным функциям. Коэффициентами этого разложения являются те же случайные величины V x , V 2 , ..., V m , а математическое ожидание и координатные функции получены из математического ожидания и координатных функций исходной случайной функции тем же линейным преобразованием L, какому подвергается случайная функция У (О-

Резюмируя, получаем следующее правило преобразования случайной функции, заданной разложением.

Если случайная функция X(t), заданная разложением по элементарным функциям, подвергается линейному преобразованию L, то коэффициенты разложения остаются неизменными, а математическое ожидание и координатные функции подвергаются тому же линейному преобразованию L.

Таким образом, смысл представления случайной функции в виде разложения сводится к тому, чтобы свести линейное преобразование случайной функции к таким же линейным преобразованиям нескольких неслучайных функций - математического ожидания и координатных функций. Это позволяет значительно упростить решение задачи нахождения характеристик случайной функции Y(t) по сравнению с общим решением, данным в подразделе 15.7. Действительно, каждая из неслучайных функций m x (t), ф, (7), ф 2 (/), ..., ..., Ф,„(Г) в данном случае преобразуется только один раз в отличие от корреляционной функции K x (t, /"), которая согласно общим правилам преобразуется дважды.

Каноническое разложение случайных функций. Введем понятие простейшей случайной функции, которая определяется выражением:

X(t) = X?j(t), (9.2.1)

где Х - обычная случайная величина, j(t) - произвольная неслучайная функция.

Математическое ожидание простейшей случайной функции:

m x (t) = M{Xj(t)}= j(t)?M{X}= j(t)?m x , (9.2.2)

где m x - математическое ожидание случайной величины Х. При m x = 0 математическое ожидание m x (t) также равно нулю для всех t и функция (9.2.1) в этом случае называется элементарной случайной функцией. Ковариационная функция элементарной случайной функции определится выражением:

K x (t 1 ,t 2) = M{X(t 1)X(t 2)}= j(t 1)j(t 2)?M{X 2 }= j(t 1)j(t 2)?D x . (9.2.3)

где D x - дисперсия случайной величины Х.

Центрированную случайную функцию 0 X(t) можно представить суммой взаимно некоррелированных элементарных случайных функций:

0 X(t) = X i ?j i (t), (9.2.4)

Из взаимной некоррелированности элементарных случайных функций следует взаимная некоррелированность величин X i . Математическое ожидание и ковариационная функция случайной функции 0 X(t):

M{ 0 X(t)}= M{ X i ?j i (t)}= 0.

K x (t 1 ,t 2) = M{ 0 X(t 1) 0 X(t 2)}= M{ X i ?j i (t 1)X j ?j j (t 2)}= j i (t 1)j j (t 2)M{X i X j }.

В силу взаимной некоррелированности парных значений X i X j имеет место M{X i X j }= 0 при i ? j, и все члены суммы в последнем выражении равны нулю, за исключением значений при i = j, для которых M{X i X j }= M{X i 2 }= D i .

Отсюда:

K x (t 1 ,t 2) = j i (t 1)j i (t 2)D i . (9.2.5)

Произвольная нецентрированная случайная функция соответственно может быть представлена в виде

X(t) = m x (t) + 0 X(t) = m x (t) + X i ?j i (t), (9.2.6)

с математическим ожиданием m x (t) и с той же самой ковариационной функцией (9.2.5) в силу свойств ковариационных функций, где 0 X(t) - флюктуационная составляющая случайной функции X(t). Выражение (9.2.6) и является каноническим разложением функции X(t). Случайные величины X i называются коэффициентами разложения, функции j i - координатными функциями разложения. При t 1 = t 2 из (9.2.5) получаем функцию дисперсии случайной функции X(t):

D x (t) = 2 ?D i . (9.2.7)

Таким образом, зная каноническое разложение (9.2.6) функции X(t), можно сразу определить каноническое разложение (9.2.5) ее ковариационной функции, и наоборот. Канонические разложения удобны для выполнения различных операций над случайными функциями. Это объясняется тем, что в разложении зависимость функции от аргумента t выражается через неслучайные функции j i (t), а соответственно операции над функцией X(t) сводятся к соответствующим операциям математического анализа над координатными функциями j i (t).

В качестве координатных функций разложения, как и при анализе детерминированных сигналов, обычно используются гармонические синус-косинусные функции, а в общем случае комплексные экспоненциальные функции exp(jwt).

Вы также можете найти интересующую информацию в научном поисковике Otvety.Online. Воспользуйтесь формой поиска:

Еще по теме 6. Каноническое разложение ковариационной функции:

  1. Разложение булевых функций в канонический полином Жегалкина
  2. 5. Ковариационная функция случайного процесса, ее свойства.
  3. Отыскание наибольшего общего делителя двух натуральных чисел по их каноническому виду требует предварительного разложения чисел на простые множители.
  4. 32. Разложение произвольной функции в ряд по собственным функциям полной ортонормальной системы.
  5. Простые числа. Бесконечность множества простых чисел. Каноническое разложение составного числа и его единственность.

При сигнатурном тестировании выходные реакции, получаемые за фиксированный интервал времени, обрабатываются на регистре сдвига с обратными связями – сигнатурном анализаторе, позволяющем сжимать длинные последовательности в короткие коды (сигнатуры). Полученные таким путем сигнатуры сравниваются с эталонными, которые получаются расчетным путем либо на предварительно отлаженном устройстве. Стимуляция объекта контроля осуществляется с помощью генератора псевдослучайных воздействий.

В заключение следует отметить, что не существует универсального метода контроля. Выбор метода должен производиться в зависимости от функционального назначения цифрового устройства, структурной организации системы, требуемых показателей надежности и достоверности.

При проведении регламентных работ или во время предполетной подготовки ИВК основными методами контроля являются тестовые. В процессе полета основными являются функциональные методы контроля, а тестирование в основном производится с целью локализации неисправностей в случае их возникновения.

6. ПРОГНОЗИРОВАНИЕ СОСТОЯНИЯ ИЗМЕРИТЕЛЬНОВЫЧИСЛИТЕЛЬНЫХ КОМПЛЕКСОВ ПРИ УЧЕТЕ ВЛИЯНИЯ УПРУГИХ СВОЙСТВ НА ОБЪЕКТ КОНТРОЛЯ 6.1. Влияние упругих свойств на объект контроля Известно, что влияние упругих свойств конструкции неблагоприятно сказывается на качестве управления летательного аппарата (ЛА), на точности измерения параметров его движения в ИВК, а также эффективности его использования . Установленные на упругом ЛА датчики и измерительные системы воспринимают не только его движение в пространстве как твердого тела, но и движения, связанные с упругими смещениями мест крепления датчиков. Это вызывает существенные погрешности в работе ИВК, а также приводит к принятию не достоверных решений о состоянии объекта контроля и диагностики. Отсюда следует, что для исключения вредного влияния упругих деформаций на систему управления необходимо, чтобы в выходных сигналах измерительных датчиков отсутствовали составляющие упругих деформаций. Для этого используют различные методы нейтрализации упругих деформаций и различные методы управления ЛА с упругими свойствами.

В качестве моделей, используемых для описания упругих ЛА как объектов контроля и диагностики, употребляют уравнения с распределенными параметрами, но данные модели не всегда удобны для использования в задачах контроля. Поэтому применяют различные методы дискретизации: метод конечных элементов; метод разложения в ряд по собственным формам, который иногда называют модельным анализом.

Результатом этих преобразований является получение системы обыкновенных дифференциальных уравнений. Собственные частоты и формы некоторых тонов колебаний, полученные на основе этих методов дискретизации, могут содержать ошибки, что может привести к ухудшению достоверности контроля и диагностики. В процессе полета параметры упругих колебаний: собственные частоты, амплитуды, формы и коэффициенты демпфирования – также могут изменяться вследствие изменения массы ЛА, его конфигурации.

Предлагается использовать методы прогнозирования дрейфа параметров упругих колебаний. В условиях ограниченности и неточности априорных данных предлагается использовать метод прогнозирования, основанный на идее экстремального (гарантированного) или минимаксного оценивания. Возможно описание процесса изменения параметров в виде ортогональных канонических разложений, при этом любой случайный процесс может быть описан в виде ряда, состоящего из комбинации неслучайных функций и некоторых некоррелированных случайных величин, например:

Y(t) = m (t)+ Vj fj(t), y где m (t) – детерминированная функция, представляющая собой матеy матическое ожидание случайного процесса Y(t); Vj – некоррелированные случайные величины, математические ожидания которых равны нулю; fj(t) – неслучайные функции времени, называемые координатными. Среди представлений случайного процесса наибольшее распространение получили канонические разложения В. С. Пугачева и Карунена–Лоэва. Основная разница между ними состоит в требованиях, предъявляемых к точности воспроизведения процесса любым заданным числом N членов суммы. Разложение КаруненаЛоэва обеспечивает минимум среднего квадрата ошибки, усредненной на интервале наблюдения, а разложение Пугачева – минимум среднеквадратичной ошибки в каждой точке этого интервала. Для описания случайных процессов изменения параметров в эксплуатации используют марковские случайные процессы.

Выбор модели процесса дрейфа параметров определяет математический аппарат, применяемый для прогнозирования, а также сложность и точность расчетов. Процедура прогнозирования технического состояния состоит в формировании по данным контроля и априорной информации некоторого апостериорного случайного процесса и последующей оценки его характеристик. Цель прогнозирования может заключаться в прямом прогнозировании, суть которого состоит в определении состояния объекта прогнозирования или совокупности объектов в упрежденный момент времени, являющийся правой границей заданного интервала упреждения. Под интервалом упреждения понимается промежуток времени, на который разрабатывается прогноз. Сущность обратного прогнозирования состоит в определении возможного времени работоспособности объекта или группы объектов. При этом отличие обратного прогнозирования от прямого состоит в том, что при прямом прогнозировании необходимо определять значение прогнозируемого параметра в заданный момент времени, а при обратном – будущий момент времени, в который параметр достигнет границы допуска. Обратное прогнозирование еще называют прогнозированием надежности. Решение задачи прогнозирования технического состояния можно рассматривать в двух аспектах: прогноз Y(t) в условиях полной априорной определенности;



прогноз Y(t) при ограниченности исходных данных.

Применительно к модели Y(t) при полной априорной определенности известны закон распределения случайных коэффициентов ai,j и детерминированный базис [Ф(t)]m, а погрешность контроля (t) описаj = на, например, как случайный процесс типа Ібелого шумаІ с известной дисперсией. Ограниченность априорных сведений чаще всего характеризуется отсутствием полного статического описания Y(t) и (t). Основу алгоритмов решения задачи прогнозирования технического состояния при полной определенности исходных данных составляют классические методы математической статистики (метод наименьших квадратов, максимального правдоподобия и т. п.). Частью таких алгоритмов являются оптимальные фильтры, среди которых наиболее универсальным является фильтр Калмана–Бьюси. Благодаря рекуррентной форме представления этот фильтр легко реализуется на ПЭВМ; оценки, получаемые с помощью фильтра, являются оптимальными в среднеквадратичном смысле, т. е. являются состоятельными, эффективными и несмещенными.

6.2. Метод гарантированного прогноза Применение методов прогнозирования технического состояния (в том числе и оптимальных фильтров), построенных на основе классических процедур анализа и обработки данных, требует знания полных вероятных характеристик погрешностей измерения (t) и прогнозируемого процесса Y(t). На практике такие сведения редко бывают заданными. Зачастую они не могут быть получены. Для обеспечения соответствия исходных данных предъявляемым требованиям могут быть приняты некоторые гипотезы, допущения, суть которых сводится к заданию неизвестных и неподдающихся экспериментальной проверке вероятностных характеристик (t) и Y(t). Фактически значения этих характеристик могут не совпадать с принятыми при расчете, что может привести к ухудшению точности получаемых результатов по сравнению с ее оценками, найденными из теоретических изображений. Решения задачи прогнозирования технического состояния в таких условиях с помощью статических методов оптимальных фильтров может привести к неоправданно оптимистическим оценкам. Очевидно, что значительно меньшую опасность представляет получение пессимистических (гарантированных) оценок Y(t).

Метод прогнозирования технического состояния, пригодный для использования в условиях ограниченности исходных данных, может быть построен на основе идей экстремального (гарантированного) или минимаксного оценивания . Принцип минимакса, т. е. расчет на наихудший случай по сравнению с принятым в классической теории статистики принципом минимизации среднего риска, позволяет:

решить задачу без привлечения каких-либо гипотез и допущений о стохастических свойствах прогнозируемого процесса;

полностью использовать заданную исходную информацию;

обеспечить гарантированную достоверность и точность прогноза.

Рассмотрим ситуацию, когда состояние объекта характеризуется одним параметром Y(t). Изменения Y(t) во времени представляют собой реализацию случайной функции следующего вида:

Y(t)=jj(t), где m – фиксировано; {j}m – случайные величины, {j(t)}m – неj=0 j=прерывные детерминированные функции времени. Эксплуатация объекта осуществляется на интервале времени . При этом возможен непрерывный контроль Y(t) на интервале времени . Погрешности контроля будем рассматривать как некоторую помеху (t), накладывающуюся на данную реализацию процесса. Помеха не превышает заданных величин (t) (t) при t .

В результате контроля, проведенного на интервале , получен отрезок реализации z(t). Ввиду наличия ошибок измерений (помехи) z(t) = Y(t) + (t).

Тогда можно записать z(t) – (t) Y(t) z(t) + (t) при t .

Таким образом, на интервале истинная реализация процесса Y(t) заключена в "трубке", ограниченной функциями f(t) = z(t) – (t) (снизу) и g(t) = z(t) + (t) (сверху). В "трубке", образованной функциями f(t) и g(t), находится множество кривых вида jj(t).

Для прогнозирования поведения процесса при t > t2 выделим из множества кривых "наихудшие", т. е. такие, которые при t > t2 идут либо выше, либо ниже всех остальных. Имеется доказательство теоремы Карлина, которое подтверждает факт существования и единственности таких наихудших реализаций:

Y(t)+ = q00(t) + u1(t) + q22(t)…;

Y(t)– = u00(t) + q11(t) + u22(t)…, где u(t) = ujj(t), q(t) = qjj(t) – пределы возможных изменений функции Y(t). Это же доказательство может распространяться не только на непрерывные измерения на интервале , но и на дискретные.

Алгоритм прогнозирования технического состояния может быть представлен в следующем виде:

1) на интервале производится не менее двух контрольных измерений Y(t);

2) данные контроля используются для поиска экстремальных полиномов Карлина Y(t)+ и Y(t) путем решения задачи линейного программирования ajj(t*) = max;

3) строятся экстремальные полиномы Карлина Y(t)+ и Y(t)–, определяется прогнозируемое значение параметра Y(t*), где t*– любая фиксированная точка на интервале прогнозирования;

4) при проведении дополнительных измерений процедура повторяется, начиная с п. 2.

Метод гарантированного прогноза удовлетворяет следующим требованиям.

1. Алгоритм является оптимальным для принятого критерия оптимальности прогноза Y(t) = min max y(t) – y(t) ;

y(t), y(t) N, t T\Tp, где N – множество, содержащееся на интервале прогнозирования t T /Tр (упреждения) реализации y(t), которые удовлетворяют неравенству z(t) – (t) y(t) z(t) + (t), y(t), y(t) – любые произвольные реализации y(t) из множества N.

2. Результат прогноза является однозначным (для данного алгоритма).

3. В предположении об отсутствии погрешностей измерения и ошибок модели результат прогноза должен совпадать с истинным значением прогнозируемого параметра, т. е. должно выполняться условие несмещенности.

По мере увеличения объема используемых данных, например числа измерений, длины интервала наблюдений и т. д., результат прогноза будет приближаться к истинному значению прогнозируемого параметра Івыполнение условия сходимости алгоритма прогнозаІ. Точность гарантированного прогноза зависит от величин предельных ошибок измерений, интервала наблюдения и интервала упреждения.

ЗАКЛЮЧЕНИЕ В учебном пособии рассмотрены основные понятия, принципы и задачи контроля и диагностики ИВК летательных аппаратов, структура, основные характеристики и организация систем контроля. В пособии значительное место уделено определению достоверности контроля и ее составляющих, квазиоптимальным методам комплексной классификации сигналов в процессе контроля. Рассмотрены основные методы поиска отказов в задачах диагностики, в том числе и цифровых ИВК.

Особое место уделено задачам прогнозирования состояния ИВК при учете влияния упругих свойств конструкции летательного аппарата на объект контроля. Авторы, ввиду ограниченности объема пособия, не рассматривали структуры, модели, выбор контролируемых параметров и организацию контроля конкретных измерительно-вычислительных комплексов.

Рассмотренные в учебном пособии методы и подходы к анализу и синтезу проектирования систем контроля и диагностики позволяют студентам правильно оценить характеристики контролепригодности вновь разрабатываемых ИВК, а также выбрать наилучшее и приемлемое решение задачи синтеза системы контроля.

Перспективными направлениями развития методов и средств контроля и диагностики ИВК являются методы, основанные на нечеткой логике (fuzzy logic) или нечетких множествах, экспертные системы и нейронные сети. Методы нечеткой логики позволяют значительно упростить описание модели объектов контроля и диагностики, а также являются более простыми для аппаратной реализации. Экспертные системы позволяют принимать решения о состоянии объекта контроля, если оценка состояния или поиска неисправности объекта контроля является трудно формализуемой задачей. Нейронные сети используются для идентификации объектов контроля, распознавания образов и прогнозирования состояния ИВК. Авторы надеются раскрыть эти новые, но недостаточно освещенные в учебной литературе проблемы в следующем учебном пособии.

Библиографический список 1. Евланов Л. Г. Контроль динамических систем. М.: Наука, ГРФМЛ, 1979.

2. Диагностирование и прогнозирование технического состояния авиационного оборудования: Учеб. пособие для вузов гражд. авиации /В.Г. Воробьев, В.

В. Глухов и др.; Под ред. И. М. Синдеева. М.: Транспорт, 1984. 191 с.

3. Воробьев В. Г., Зыль В. П., Кузнецов С. В. Основы технической эксплуатации пилотажно-навигационного оборудования. М.: Транспорт, 1999. 335 с.

4. Алексеев А. А., Солодовников А. И. Диагностика в технических системах управления.: Учеб. пособие для вузов /Под ред. В.Б. Яковлева. СПб.: Политехника, 1997. 188 с.

5. Техническая эксплуатация авиационного оборудования /Под ред. В. Г. Воробьева. М.: Транспорт, 1990. 325 с.

6. Буравлев А. И., Доценко Б. И., Козаков И. Е. Управление техническим состоянием динамических систем. М.: Машиностроение, 1995. 240 с.

7. Гуляев В. А., Кудряшов В. И. Автоматизация наладки и диагностирования микро-УВК. М.: Энергоатомиздат, 1992. 146 с.

8. Иванов Ю. П. и др. Контроль и диагностика измерительно-вычислительных комплексов: Метод. указ. к выполнению лаб. работ СПбГУАП. 45 с. СПб., 2000.

9. Гнедов Г. М., Россенбаули О. Б., Шумов Ю. А. Проектирование систем контроля ракет. М.: Машиностроение, 1975. 224 с.

10. ГОСТ 19919-74. Контроль автоматизированный технического состояния изделий авиационной техники. Термины и определения. М.: Изд-во стандартов, 1974. 24 с.

11. ГОСТ 19838-82. Характеристики контролепригодности изделий авиационной техники. Правила изложения и оформления. М.: Изд-во стандартов, 1982. 18 с.

12. ГОСТ 23664-79. Техническая диагностика. Показатели диагностирования.

М.: Изд-во стандартов, 1979. 16 с.

13. ГОСТ 23743-88. Изделия авиационной техники. Номенклатура показателей безопасности полета, надежности, контролепригодности, эксплуатационной и ремонтной технологичности. М.: Госстандарт, 1988. 25 с.

14. ОСТ 1.00433-81. Средства контроля технического состояния изделий авиационной техники. Методика определения характеристик инструментальной достоверности контроля МАП. М.: 1982. 21 с.

15. Иванов Ю. П., Синяков А. Н., Филатов И. В. Комплексирование информационно-измерительных устройств летательных аппаратов: Учеб. пособие для вузов /Под ред. В. А. Боднера. Л.: Машиностроение, 1984. 207 с.

16. Абрамов О. В., Розенбаум А. Н. Прогнозирование состояния технических систем. М.: Наука, 1990. 126 с.



Понравилась статья? Поделитесь с друзьями!