Способ управления реакцией нейропроцессора на входные сигналы

Изобретение относится к нейрокибернетике и может быть использовано в качестве функциональной единицы различных искусственных нейронных сетей. Техническим результатом является устранение проблемы нереализуемости разделения нелинейно неразделимых классов известными моделями нейронов. Указанный результат достигается за счет того, что с учетом нелинейных свойств поверхности разделения классов объектов в N-мерном континуальном пространстве нейропроцессор (НП) выполняет линейную аппроксимацию функций в подобластях области Ω, а параметры нейропроцессора настраиваются путем обучения на основе экспериментальных или теоретических данных о поведении нейропроцессора в заданных точках N-мерного континуального пространства. При обучении нейропроцессора на обучающий вход поочередно подают эталонные сигналы d1, d2,…, ds, а на сигнальные входы НП подают соответствующие им стимулы х1, х2,…, xN. Эталонные сигналы выбирают так, чтобы в каждой подобласти Ω*∈Ω находилась хотя бы одна обучающая выборка. При повторении эпох выполняется минимизация погрешностей функции в вершинах N-мерного куба, ограничивающего каждую подобласть Ω*. 4 ил.

 

Известна техническая и математическая модель искусственного нейрона [1-4]. Первая модель предложена в работе [1]. Позже [2], на основе таких моделей нейронов, реализованы первые искусственные нейронные сети (персептроны) для решения задач распознавания изображений букв. Подобные искусственные нейроны используются в качестве функциональной единицы всех современных искусственных нейронных сетей [3, 4] и представляют собой устройства с несколькими входами и одним выходом. Входные сигналы, поступая на входы, перемножаются с соответствующими весовыми коэффициентами, суммируются и преобразуются функцией передачи, в качестве которой может использоваться пороговая, линейная, сигмоидальная, гиперболическая и др. [3, 4]. Такая модель нейрона позволяет, хотя и достаточно грубо, воспроизводить некоторые из функций естественного нейрона. Объединяя искусственные нейроны в слои и сети, в совокупности с алгоритмами обучения, можно добиться приемлемого решения нейронной сетью сложных задач, не поддающихся адекватной формализации [3, 4].

Известна модель простейшего персептронного нейрона с двумя входами, парой весовых коэффициентов, сумматором и активационным блоком [3, 4]. Достоинством такой модели является возможность реализации ею большинства логических булевых функций. Так, для двух переменных, согласно [5], существует набор из 16 функций алгебры логики.

Наиболее близкой по техническим возможностям к предлагаемой модели нейрона является модель простейшего персептронного нейрона с двумя входами, парой весовых коэффициентов, сумматором и активационным блоком [6], устраняющая проблемы нереализуемости логической функции неравнозначности. Модель нейрона, реализующая логическую функцию неравнозначности, содержащая два входа, сигналы x1 и x2, принимающие значения 0 или 1, с которых перемножаются с соответствующими весовыми коэффициентами ω1 и ω2, где ω1=1, а ω2=-1,и поступают на сумматор, причем s∈(-l, 0, 1), где s - сумма с выхода сумматора, s=x1ω1+x2ω2, отличающаяся тем, что сумма s преобразуется в активационном блоке модульной функцией активации видаа затем пороговой функцией

где Р - величина порога, Р=0,5, f(x) - функция на выходе нейрона. Данная модель устраняет проблемы нереализуемости логической функции неравнозначности, оставляя нерешенным вопрос разделения линейно неразделимых классов объектов. Однако она, как и все перечисленные выше модели выполняет функцию линейного разделения классов с помощью гиперплоскости, построенной в многомерном континуальном пространстве.

Предлагаемый способ управления реакцией нейропроцессора (НП) на входные сигналы направлен на устранение рассмотренного недостатка (проблемы разделения линейно неразделимых классов объектов) известных моделей нейрона. Аппроксимация многомерных функций позволяет учитывать нелинейные свойства поверхности разделения классов объектов в N-мерном континуальном пространстве. На основе экспериментальных или теоретических данные о поведении НП в заданных точках многомерного континуального пространства его параметры настраиваются путем обучения на исчисление реакции во всей области поиска решений.

В патентуемом способе управления реакцией нейронного процессора (НП) на входные сигналы (стимулы) x1, x2,…, xN в каждую ячейку запоминающего устройства (ЗУ) НП записывают кортеж значений параметров где F - фиксированное значение реакции НП на комбинацию значений стимулов комбинации значений стимулов в ЗУ получают перебором значений каждого воздействия xi из возрастающей последовательности фиксированных значений где K - количество фиксированных значений стимулов xi, из соседних значений последовательности Xi в ЗУ образуют K-1 интервалов по каждому стимулу, перебором интервалов по всем переменным x1, x2, …, xN образуют (K-1)N подобластей Ω* в области Ω определения реакции НП F(x1, x2, …, хN), на N входов НП подают стимулы определяют принадлежность поданных сигналов некоторой подобласти Ω*, ограниченной интервалами где x1min, x1max, x2min, x2max, …, xNmin, xNmax - ближайшие значения стимулов из последовательностей Xi, i изменяется от 1 до N, в интервале (x1min, x1max) вычисляют 2N-1 интерполирующих значений реакции НП (ИЗРН) F по формуле

где i - номер промежуточного ИЗРН F на первом шаге вычисления, - крайние значения стимулов, ограничивающие выбранную подобласть Ω* в N-мерной области определения реакции НП,

на j-м шаге в интервале [xjmin, Xjmax) вычисляют 2N-j ИЗРН F по формуле

где i - номер промежуточного ИЗРН на j-м шаге (j изменяется от 2 до N), на N-м шаге в интервале [хNmin, xNmax) при j=N по формуле (3) вычисляют искомое значение реакции НП на сигналы для настройки НП в каждую ячейку ЗУ записывают кортежи значений параметров где - комбинация заданных значений стимулов, получаемая для каждого стимула xi из возрастающей последовательности - начальное значение реакции НП при заданных значениях стимулов, формируют обучающие кортежи состоящих из эталонного сигнала d* и соответствующих ему стимулов на обучающий вход НП поочередно подают эталонные сигналы d1, d2, … dS, образующие обучающую выборку (эпоху), а на сигнальные входы НП подают соответствующие каждому эталонному сигналу d∈{d1, d2,… dS} стимулы х1, х2,…, хN, эталонные сигналы выбирают так, чтобы в каждой подобласти Ω*∈Ω находился хотя бы один обучающий кортеж, при подаче очередного эталонного сигнала d*∈{d1, d2,… dS} и стимулов определяют подобласть Ω*, внутри которой находится обучающий кортеж вычисляют реакцию F* НП на стимулы вычисляют невязку е*=d*-F*, выполняют пошаговое вычисление невязок в вершинах параллелепипеда, ограничивающего подобласть Ω*, для этого на первом шаге вычисляют невязку в точке по формуле и невязку в точке по формуле где на втором шаге вычисляют невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле где на третьем шаге вычисляют невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле где и так далее, продолжая вычисления, на N-м шаге рассчитывают невязку во всех 2N вершинах N-мерного параллелепипеда, ограничивающего подобласть значений Ω*, выполняют корректировку значений реакции F в ЗУ во всех 2N вершинах N-мерного параллелепипеда на величины рассчитанных в них невязок, процедуры расчета невязок и коррекции значений реакции НП F повторяют для всех эталонных обучающих сигналов d1, d2,… dS до тех пор, пока не будет достигнут приемлемое отклонение расчетных значений от эталонных в кортежах.

Рассмотрим вычисление реакции НП на примере с тремя входными сигналы. Перед началом работы процессора в ЗУ загружаются исходные значения управляющего сигнала (конечное дискретное множество Ψ четких значений функции F), которые получают на множестве Θ фиксированных опорных точек по результатам экспериментальных или теоретических исследований N-мерной функции F. Каждая фиксированная точка представлена в ЗУ кортежем где F - выбранное значение реакции НП при исходных дискретных значениях стимулов Комбинации значений стимулов в ЗУ получают перебором значений каждого стимула хi, из возрастающей последовательности фиксированных значений где K - количество фиксированных значений стимулов хi. Выбирая из последовательностей Х1, Х2 и Х3 соседние значения стимулов в ЗУ образуют K-1 интервалов по каждому стимулу. Комбинируя интервалы, образуют (К-1)3 подобластей Ω* в области Ω определения реакции НП F(x1, x2, x3) Если на входы НП поданы сигналы то определяется подобласть Ω*, ограниченная интервалом где x1min, x1max, x2min, x2max, x3min, x3max - ближайшее значения стимулов из последовательностей X1, Х2 и Х3.

На фиг. 1 приведена иллюстрация порядка исчисления НП реакции при трех входных сигналах На первом этапе с помощью формулы (1) процессор рассчитывает промежуточные ИЗРН в точках 3, 6, 10, 13. Для расчета ИЗРН в точке 3 в формулу (1) подставляются значения функции в точках 1, 2 и координаты Для расчета в точке 6 в формулу (1) подставляются значения функции в точках 4 и 5 и координаты Для расчета в точке 10 в формулу (1) подставляются значения функции в точках 8 и 9 и координаты Для расчета в точке 13 в формулу (1) подставляются значения функции в точках 11 и 12 и координаты На втором этане, используя рассчитанные ранее промежуточные ИЗРН

Для расчета ИЗРН в точке 7 в формулу (3) подставляются значения ИЗРН в точках 3, 6 и координаты Для расчета ИЗРН в точке 14 в формулу (3) подставляются значения ИЗРН в точках 10, 13 и координаты

На последнем этапе расчета вычисляется значение реакции НП на стимулы в точке 15 с координатами Для этого в формулу (3) подставляются значения ИЗРН и координаты

На том же примере (Фиг. 1) проиллюстрируем настройку (обучение) НП. Структура НП изображена на фиг. 2. Обучение выполняется путем подачи на входы расчетного блока 16 стимулов x1, x2, x3 17 и обучающих эталонных сигналов d1, d2, … dS 18 на сумматор 19.

Очередной i-й шаг обучения начинается с подачи эталонного сигнала d*∈{d1, d2, … dS} 18 и соответствующих ему значений стимулов 18. В расчетном блоке 16 по значениям стимулов и значениям фиксированных опорных точек из ЗУ 20 определяют точку 15 внутри одной из (K-1)N подобластей Ω* в области Ω определения функции F(x1, х2, х3). В расчетном блоке 16 определяется текущее значение реакции F(X*) НП на стимулы В сумматоре 19 вычисляется невязка е*=d*-F(X*) (точка 15 на Фиг. 1). Далее переходят к распространению невязок от точки X* к вершинам параллепипеда, ограничивающего подобласть Ω*. На первом шаге вычисляют (блок 21) невязку в точке 7 с координатами по формуле и невязку в точке 14 с координатами по формуле где

На втором шаге вычисляют невязку в точке 3 с координатами по формуле (блок 22), невязку в точке 6 с координатами по формуле (блок 22), невязку в точке 10 с координатами по формуле (блок 23), невязку в точке 13 с координатами по формуле (блок 23), где

На третьем шаге вычисляют: невязку в точке 1 с координатами (x1min, x2min, x3min) по формуле невязку в точке 2 с координатами (х1max, x2min3min) по формуле (блок 24), невязку в точке 4 с координатами (х1min, х2max, x3min) по формуле невязку в точке 5 с координатами (x1max, x2max, x3min) по формуле (блок 25), невязку в точке 8 c координатами (х1min, х2min, х3max) по формуле невязку в точке 9 с координатами (x1max, х2min, x3max) по формуле (блок 26), невязку в точке 11 с координатами (x1min, х2max, x3max) по формуле невязку в точке 12 с координатами (x1max, x2max, x3max) по формуле (блок 27), где

В результате проведенных вычислений на третьем шаге получены значения невязок во всех 8-ми вершинах куба, ограничивающего область Ω* попадания значений стимулов которые применяют для корректировки значений функции F в фиксированных опорных точках в ЗУ 20.

Применяемые в способе обучения НП формулы расчета невязок выбраны из условия минимизации невязок, распространяемых в вершины N-куба области Ω*.

Работу алгоритма обучения иллюстрирует пример аппроксимации с помощью НП функции Cos(x).

Обучение НП выполнялось в интервале значений аргумента [0, π]. Интервал обучения был разбит на семь равных отрезков. Внутри отрезков были заданы опорные (точные) значения функции, которые подавались на вход НП вместе с значениями переменной x в опорной точке. В исходном состоянии все опорные значения НП были обнулены.

Невязки рассчитывались внутри каждого интервала и передавалась на его края для коррекции значений опорных точек. В процессе обучения одной эпохи процедуры коррекция опорных значений выполнялись последовательно от самого левого отрезка интервала обучения к правому. После каждой эпохи обучения регистрировалась максимальная невязка НП с образцовыми значениями.

Процесс обучения показал хорошую сходимость. После 15-й эпохи ошибка аппроксимации стала менее 1% и продолжала уменьшатся. На фиг. 3 приведена иллюстрация аппроксимации функции COS после первой и четвертой эпох обучения.

НП может быть применена для классификации линейно неразделимых классов объектов.

Классический подход к классификации образов опирается на байесовскую теорию проверки гипотез. На входы байесовского классификатора поступают параметры вектора наблюдений которые передаются на входы двух интерполирующих процессоров. Первый процессор аппроксимирует значения функции выбора класса C1:

второй значения функции выбора класса С2:

, где - функции плотности вероятности случайного вектора при условии, что он принадлежит пространству Х12), параметры c11,c12, c21,c22, p1,p2 определяются условиями решаемой задачи [7]. НП позволяет строить нелинейные функции (4) и (5) в процессе обучения при подаче на вход НП обучающих сигналов. Структура устройства, выполняющего функцию разделения двух классов, показана на Фиг. 4.

Устройство состоит из двух НП 28 и 29, выполняющих с помощью патентуемого способа исчисления значений реакции НП на подаваемые стимулы х1, х2,…, хn исчисление функций и компаратора 30 выполняющего сравнение значений. Если выбирается класс C1 31. В противном случае - класс С2 32.

Таким образом, предлагаемая модель нейропроцессора, реализуя модель нелинейной разделяющей поверхности, преодолевает проблему разделения линейно неразделимых классов объектов. Предлагаемый способ позволяет распараллеливать вычисления значений функции, что создает возможности повышения скорости НП в десятки раз по сравнению с традиционной моделью на основе персептрона. В последнем случае НП должен быть выполнен на аналоговых схемах, которые не требуют аналогово-цифровых преобразований входных сигналов.

Источники информации

1. McGuIIoch W.S., Pitts W. A logical calculus of the ideas imminent in nervous activity. // Bulletin of Mathematical Biophysics, vol.5, 1943, pp.115-133. (Рус. перевод: Маккаллок У.С., Питтс У. Логическое исчисление идей, относящихся к нервной деятельности. Автоматы. / Под ред. К.Э.Шеннона, Дж.Маккарти. - М.: ИЛ, 1956).

2. Rosenblatt F. Principles of neurodinamics. Perceptrons and the theory of brain mechanisms. Spartan Books, Washington, 1962. (Рус.перевод: Розенблатт Ф. Принципы нейродинамики. Нерцептроны и теория механизмов мозга. / Под ред. С.М.Осовца. - М: Мир, 1965 - 480 с).

3. Галушкин А.И. Теория нейронных сетей. Кн. 1: Учеб. пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 416 с.

4. Wasserman P. Neurocomputing. Theory and practice, Nostram Reinhold, 1990. (Рус. перевод: Уоссермен Ф. Нейрокомпьютерная техника: теория и практика. / Пер. с англ. Ю.А. уев, В.А.Точенов. - М.: Мир, 1992. - 240 с).

5. Куринной Г.Ч. Математика: Справочник. - Харьков: Фолио; Ростов н/Д: Феникс, 1997. - 463 с.

6. Самойлин Е. А. Патент RU №2269155 от 22.08.2003 МПК G06G 7/06 (2006.01) Модель нейрона, реализующая логическую функцию неравнозначности.

7. Осовский С.Нейронные сети для обработки информации. М.: Финансы и статистика, 2002. - 344 с.: ил.

Способ управления реакцией нейропроцессора на входные сигналы (стимулы) x1, х2, …, хN, в котором в каждую ячейку запоминающего устройства (ЗУ) НП записывают кортеж значений параметров , где F - фиксированное значение реакции НП на комбинацию значений стимулов комбинации значений стимулов в ЗУ получают перебором значений каждого воздействия хi из возрастающей последовательности фиксированных значений где K - количество фиксированных значений стимулов xi, из соседних значений последовательности Xi в ЗУ образуют K-1 интервалов по каждому стимулу, перебором интервалов по всем переменным x1, х2, …, xN образуют (K-1)N подобластей Ω* в области Ω определения реакции НП F(x1, x2, …, xN), на N входов НП подают стимулы x1*, х2*, …, xN*, определяют принадлежность поданных сигналов некоторой подобласти Ω*, ограниченной интервалами x1min≤x1*<x1max, x2min≤x2*<x2max, …, xNmin≤xN*<xNmax, где x1min, x1max, x2min, x2max, , xNmin, xNmax - ближайшие значения стимулов из последовательностей Xi, i изменяется от 1 до N, в интервале (х1min, x1max) вычисляют 2N-1 интерполирующих значений реакции НП (ИЗРН) F по формуле

где i - номер промежуточного ИЗРН F на первом шаге вычисления, - крайние значения стимулов, ограничивающие выбранную подобласть Ω* в N-мерной области определения реакции НП,

на j-м шаге в интервале [xjmin, xjmax) вычисляют 2N-j ИЗРН F по формуле

где i - номер промежуточного ИЗРН на j-м шаге (j изменяется от 2 до N), на N-м шаге в интервале [хNmin, хNmax) при j=N по формуле (3) вычисляют искомое значение реакции НП F(x1*, х2*, …, xN*) на сигналы х1*, х2*, …, xN*, для настройки НП в каждую ячейку ЗУ записывают кортежи значений параметров где - комбинация заданных значений стимулов, получаемая для каждого стимула xi из возрастающей последовательности Fj - начальное значение реакции НП при заданных значениях стимулов, формируют обучающие кортежи (d*, х1*, х2*, …, xN*), состоящие из эталонного сигнала d* и соответствующих ему стимулов Х*=(х1*, х2*, …, xN*), на обучающий вход НП поочередно подают эталонные сигналы d1, d2, …, dS, образующие обучающую выборку (эпоху), а на сигнальные входы НП подают соответствующие каждому эталонному сигналу d∈{d1, d2, …dS} стимулы x1 х2, …, xN, эталонные сигналы выбирают так, чтобы в каждой подобласти Ω*∈Ω находился хотя бы один обучающий кортеж, при подаче очередного эталонного сигнала d*∈{d1, d2, …dS} и стимулов Х*=(х1*, х2*, …, xN*) определяют подобласть Ω*, внутри которой находится обучающий кортеж (d*, x1*, x2*, …, xN*), вычисляют реакцию F* НП на стимулы x1*, x2*, …, xN*, вычисляют невязку е*=d*-F*, выполняют пошаговое вычисление невязок в вершинах параллелепипеда, ограничивающего подобласть Ω*, для этого на первом шаге вычисляют невязку в точке (x1*, х2*, …, xNmin) по формуле

и невязку в точке (х1*, x2*, …, xNmax) по формуле

,

где и ,

на втором шаге вычисляют невязку в точке (х1*, …, xN-1min, xNmin) по формуле

невязку в точке (х1*, …, xN-1max, xNmin) по формуле

невязку в точке (х1*, …, xN-1min, xNmax) по формуле

невязку в точке (x1*, …, xN-1max, xNmax) по формуле

где и

на третьем шаге вычисляют невязку в точке (х1*, …, xN-2min, xN-1min, xNmin) по формуле

,

невязку в точке (х1*, …, xN-2max, хN-1min, xNmin) по формуле

невязку в точке (х1*, …, xN-2min, xN-1max, xNmin) по формуле

невязку в точке (x1*, xN-2max, xN-1max, xNmin) по формуле

,

невязку в точке (х1*, …, xN-2min, xN-1min, xNmax) по формуле

невязку в точкe (x1*, …, xN-2max, xN-1min, xNmax) по формуле

нeвязку в точке (х1*, …, xN-2min, xN-1max, xNmax) по формуле

нeвязку в точке (x1*, …, xN-2max, xN-1max, xNmax) по формуле

где и

и так далее, продолжая вычисления, на N-м шаге рассчитывают невязку во всех 2N вершинах N-мерного параллелепипеда, ограничивающего подобласть значений Ω*, выполняют корректировку значений реакции F в ЗУ во всех 2N вершинах N-мерного параллелепипеда на величины рассчитанных в них невязок, процедуры расчета невязок и коррекции значений реакции НП F повторяют для всех эталонных обучающих сигналов d1, d2, …, dS до тех пор, пока не будет достигнуто приемлемое отклонение расчетных значений от эталонных в кортежах.



 

Похожие патенты:

Изобретение относится к способу определения динамической эффективной площади рассеяния гиперзвуковой крылатой ракеты. Технический результат заключается в повышении точности определения динамической эффективной площади рассеяния гиперзвуковой крылатой ракеты.

Изобретение относится к способу оценки вероятностей аварий изделий ракетно-космической техники с использованием стохастических сетевых моделей возникновения и развития аварийных ситуаций.

Изобретение относится к области средств индивидуальной защиты (PPE), более конкретно к средству индивидуальной защиты, которое генерирует данные. Технический результат заключается в обеспечении системы для захвата данных об использовании от РРЕ, которые свидетельствуют о работе такого РРЕ, для применения таких данных в модели обучения для обеспечения безопасности.

Изобретение относится к техническим средствам информатики и вычислительной техники. Технический результат заключается в расширении арсенала средств.

Изобретение относится к области оценки структуры поверхности на основе информации о профиле. Технический результат заключается в возможности учета полной информации о профиле поверхности за счет анализа спектральных коэффициентов профилограммы.

Изобретение относится к области вычислительной техники. Технический результат заключается в получении однородного множества данных, которые используются для получения ситуационных моделей, обеспечивающих возможности прогнозирования и автоматического регулирования производства.

Изобретение относится к области обработки цифровых данных с помощью электрических устройств, в частности к методам принятия единого согласованного решения в компьютерных системах, автоматически выбирающим оптимальный режим работы для достижения заданного критерия.

Изобретение относится к области вычислительной техники. Технический результат - создание управляемого устройства, способного повысить достоверность моделирования и прогноза случайных событий в условиях возникновения катастрофических состояний числа отказов производственной и телекоммуникационной системы при плавных изменениях параметров управляющих воздействий или внешних факторов, а также своевременно оповещать администратора, на основе полученных данных идентификации и верификации.

Изобретение относится к области моделирования. Технический результат заключается в расширении функциональных возможностей.

Изобретение относится к области вычислительной техники и может быть использовано для прогнозирования состояния группы подвижных объектов военного назначения. Техническим результатом является автоматический расчет значений, характеризующих местоположение, состояние и вероятность обнаружения подвижных объектов на заданный интервал прогнозирования.

Изобретение относится к области вычислительной техники. Технический результат заключается в увеличении точности классификации объектов вычислительной системы за счет использования двух степеней оценки принадлежности объектов вычислительной системы к классам.
Наверх