Способ управления реакцией нейропроцессора на входные сигналы Российский патент 2020 года по МПК G06N7/00 G06N20/00 

Описание патента на изобретение RU2724784C2

Известна техническая и математическая модель искусственного нейрона [1-4]. Первая модель предложена в работе [1]. Позже [2], на основе таких моделей нейронов, реализованы первые искусственные нейронные сети (персептроны) для решения задач распознавания изображений букв. Подобные искусственные нейроны используются в качестве функциональной единицы всех современных искусственных нейронных сетей [3, 4] и представляют собой устройства с несколькими входами и одним выходом. Входные сигналы, поступая на входы, перемножаются с соответствующими весовыми коэффициентами, суммируются и преобразуются функцией передачи, в качестве которой может использоваться пороговая, линейная, сигмоидальная, гиперболическая и др. [3, 4]. Такая модель нейрона позволяет, хотя и достаточно грубо, воспроизводить некоторые из функций естественного нейрона. Объединяя искусственные нейроны в слои и сети, в совокупности с алгоритмами обучения, можно добиться приемлемого решения нейронной сетью сложных задач, не поддающихся адекватной формализации [3, 4].

Известна модель простейшего персептронного нейрона с двумя входами, парой весовых коэффициентов, сумматором и активационным блоком [3, 4]. Достоинством такой модели является возможность реализации ею большинства логических булевых функций. Так, для двух переменных, согласно [5], существует набор из 16 функций алгебры логики.

Наиболее близкой по техническим возможностям к предлагаемой модели нейрона является модель простейшего персептронного нейрона с двумя входами, парой весовых коэффициентов, сумматором и активационным блоком [6], устраняющая проблемы нереализуемости логической функции неравнозначности. Модель нейрона, реализующая логическую функцию неравнозначности, содержащая два входа, сигналы x1 и x2, принимающие значения 0 или 1, с которых перемножаются с соответствующими весовыми коэффициентами ω1 и ω2, где ω1=1, а ω2=-1,и поступают на сумматор, причем s∈(-l, 0, 1), где s - сумма с выхода сумматора, s=x1ω1+x2ω2, отличающаяся тем, что сумма s преобразуется в активационном блоке модульной функцией активации видаа затем пороговой функцией

где Р - величина порога, Р=0,5, f(x) - функция на выходе нейрона. Данная модель устраняет проблемы нереализуемости логической функции неравнозначности, оставляя нерешенным вопрос разделения линейно неразделимых классов объектов. Однако она, как и все перечисленные выше модели выполняет функцию линейного разделения классов с помощью гиперплоскости, построенной в многомерном континуальном пространстве.

Предлагаемый способ управления реакцией нейропроцессора (НП) на входные сигналы направлен на устранение рассмотренного недостатка (проблемы разделения линейно неразделимых классов объектов) известных моделей нейрона. Аппроксимация многомерных функций позволяет учитывать нелинейные свойства поверхности разделения классов объектов в N-мерном континуальном пространстве. На основе экспериментальных или теоретических данные о поведении НП в заданных точках многомерного континуального пространства его параметры настраиваются путем обучения на исчисление реакции во всей области поиска решений.

В патентуемом способе управления реакцией нейронного процессора (НП) на входные сигналы (стимулы) x1, x2,…, xN в каждую ячейку запоминающего устройства (ЗУ) НП записывают кортеж значений параметров где F - фиксированное значение реакции НП на комбинацию значений стимулов комбинации значений стимулов в ЗУ получают перебором значений каждого воздействия xi из возрастающей последовательности фиксированных значений где K - количество фиксированных значений стимулов xi, из соседних значений последовательности Xi в ЗУ образуют K-1 интервалов по каждому стимулу, перебором интервалов по всем переменным x1, x2, …, xN образуют (K-1)N подобластей Ω* в области Ω определения реакции НП F(x1, x2, …, хN), на N входов НП подают стимулы определяют принадлежность поданных сигналов некоторой подобласти Ω*, ограниченной интервалами где x1min, x1max, x2min, x2max, …, xNmin, xNmax - ближайшие значения стимулов из последовательностей Xi, i изменяется от 1 до N, в интервале (x1min, x1max) вычисляют 2N-1 интерполирующих значений реакции НП (ИЗРН) F по формуле

где i - номер промежуточного ИЗРН F на первом шаге вычисления, - крайние значения стимулов, ограничивающие выбранную подобласть Ω* в N-мерной области определения реакции НП,

на j-м шаге в интервале [xjmin, Xjmax) вычисляют 2N-j ИЗРН F по формуле

где i - номер промежуточного ИЗРН на j-м шаге (j изменяется от 2 до N), на N-м шаге в интервале [хNmin, xNmax) при j=N по формуле (3) вычисляют искомое значение реакции НП на сигналы для настройки НП в каждую ячейку ЗУ записывают кортежи значений параметров где - комбинация заданных значений стимулов, получаемая для каждого стимула xi из возрастающей последовательности - начальное значение реакции НП при заданных значениях стимулов, формируют обучающие кортежи состоящих из эталонного сигнала d* и соответствующих ему стимулов на обучающий вход НП поочередно подают эталонные сигналы d1, d2, … dS, образующие обучающую выборку (эпоху), а на сигнальные входы НП подают соответствующие каждому эталонному сигналу d∈{d1, d2,… dS} стимулы х1, х2,…, хN, эталонные сигналы выбирают так, чтобы в каждой подобласти Ω*∈Ω находился хотя бы один обучающий кортеж, при подаче очередного эталонного сигнала d*∈{d1, d2,… dS} и стимулов определяют подобласть Ω*, внутри которой находится обучающий кортеж вычисляют реакцию F* НП на стимулы вычисляют невязку е*=d*-F*, выполняют пошаговое вычисление невязок в вершинах параллелепипеда, ограничивающего подобласть Ω*, для этого на первом шаге вычисляют невязку в точке по формуле и невязку в точке по формуле где на втором шаге вычисляют невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле где на третьем шаге вычисляют невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле невязку в точке по формуле где и так далее, продолжая вычисления, на N-м шаге рассчитывают невязку во всех 2N вершинах N-мерного параллелепипеда, ограничивающего подобласть значений Ω*, выполняют корректировку значений реакции F в ЗУ во всех 2N вершинах N-мерного параллелепипеда на величины рассчитанных в них невязок, процедуры расчета невязок и коррекции значений реакции НП F повторяют для всех эталонных обучающих сигналов d1, d2,… dS до тех пор, пока не будет достигнут приемлемое отклонение расчетных значений от эталонных в кортежах.

Рассмотрим вычисление реакции НП на примере с тремя входными сигналы. Перед началом работы процессора в ЗУ загружаются исходные значения управляющего сигнала (конечное дискретное множество Ψ четких значений функции F), которые получают на множестве Θ фиксированных опорных точек по результатам экспериментальных или теоретических исследований N-мерной функции F. Каждая фиксированная точка представлена в ЗУ кортежем где F - выбранное значение реакции НП при исходных дискретных значениях стимулов Комбинации значений стимулов в ЗУ получают перебором значений каждого стимула хi, из возрастающей последовательности фиксированных значений где K - количество фиксированных значений стимулов хi. Выбирая из последовательностей Х1, Х2 и Х3 соседние значения стимулов в ЗУ образуют K-1 интервалов по каждому стимулу. Комбинируя интервалы, образуют (К-1)3 подобластей Ω* в области Ω определения реакции НП F(x1, x2, x3) Если на входы НП поданы сигналы то определяется подобласть Ω*, ограниченная интервалом где x1min, x1max, x2min, x2max, x3min, x3max - ближайшее значения стимулов из последовательностей X1, Х2 и Х3.

На фиг. 1 приведена иллюстрация порядка исчисления НП реакции при трех входных сигналах На первом этапе с помощью формулы (1) процессор рассчитывает промежуточные ИЗРН в точках 3, 6, 10, 13. Для расчета ИЗРН в точке 3 в формулу (1) подставляются значения функции в точках 1, 2 и координаты Для расчета в точке 6 в формулу (1) подставляются значения функции в точках 4 и 5 и координаты Для расчета в точке 10 в формулу (1) подставляются значения функции в точках 8 и 9 и координаты Для расчета в точке 13 в формулу (1) подставляются значения функции в точках 11 и 12 и координаты На втором этане, используя рассчитанные ранее промежуточные ИЗРН

Для расчета ИЗРН в точке 7 в формулу (3) подставляются значения ИЗРН в точках 3, 6 и координаты Для расчета ИЗРН в точке 14 в формулу (3) подставляются значения ИЗРН в точках 10, 13 и координаты

На последнем этапе расчета вычисляется значение реакции НП на стимулы в точке 15 с координатами Для этого в формулу (3) подставляются значения ИЗРН и координаты

На том же примере (Фиг. 1) проиллюстрируем настройку (обучение) НП. Структура НП изображена на фиг. 2. Обучение выполняется путем подачи на входы расчетного блока 16 стимулов x1, x2, x3 17 и обучающих эталонных сигналов d1, d2, … dS 18 на сумматор 19.

Очередной i-й шаг обучения начинается с подачи эталонного сигнала d*∈{d1, d2, … dS} 18 и соответствующих ему значений стимулов 18. В расчетном блоке 16 по значениям стимулов и значениям фиксированных опорных точек из ЗУ 20 определяют точку 15 внутри одной из (K-1)N подобластей Ω* в области Ω определения функции F(x1, х2, х3). В расчетном блоке 16 определяется текущее значение реакции F(X*) НП на стимулы В сумматоре 19 вычисляется невязка е*=d*-F(X*) (точка 15 на Фиг. 1). Далее переходят к распространению невязок от точки X* к вершинам параллепипеда, ограничивающего подобласть Ω*. На первом шаге вычисляют (блок 21) невязку в точке 7 с координатами по формуле и невязку в точке 14 с координатами по формуле где

На втором шаге вычисляют невязку в точке 3 с координатами по формуле (блок 22), невязку в точке 6 с координатами по формуле (блок 22), невязку в точке 10 с координатами по формуле (блок 23), невязку в точке 13 с координатами по формуле (блок 23), где

На третьем шаге вычисляют: невязку в точке 1 с координатами (x1min, x2min, x3min) по формуле невязку в точке 2 с координатами (х1max, x2min3min) по формуле (блок 24), невязку в точке 4 с координатами (х1min, х2max, x3min) по формуле невязку в точке 5 с координатами (x1max, x2max, x3min) по формуле (блок 25), невязку в точке 8 c координатами (х1min, х2min, х3max) по формуле невязку в точке 9 с координатами (x1max, х2min, x3max) по формуле (блок 26), невязку в точке 11 с координатами (x1min, х2max, x3max) по формуле невязку в точке 12 с координатами (x1max, x2max, x3max) по формуле (блок 27), где

В результате проведенных вычислений на третьем шаге получены значения невязок во всех 8-ми вершинах куба, ограничивающего область Ω* попадания значений стимулов которые применяют для корректировки значений функции F в фиксированных опорных точках в ЗУ 20.

Применяемые в способе обучения НП формулы расчета невязок выбраны из условия минимизации невязок, распространяемых в вершины N-куба области Ω*.

Работу алгоритма обучения иллюстрирует пример аппроксимации с помощью НП функции Cos(x).

Обучение НП выполнялось в интервале значений аргумента [0, π]. Интервал обучения был разбит на семь равных отрезков. Внутри отрезков были заданы опорные (точные) значения функции, которые подавались на вход НП вместе с значениями переменной x в опорной точке. В исходном состоянии все опорные значения НП были обнулены.

Невязки рассчитывались внутри каждого интервала и передавалась на его края для коррекции значений опорных точек. В процессе обучения одной эпохи процедуры коррекция опорных значений выполнялись последовательно от самого левого отрезка интервала обучения к правому. После каждой эпохи обучения регистрировалась максимальная невязка НП с образцовыми значениями.

Процесс обучения показал хорошую сходимость. После 15-й эпохи ошибка аппроксимации стала менее 1% и продолжала уменьшатся. На фиг. 3 приведена иллюстрация аппроксимации функции COS после первой и четвертой эпох обучения.

НП может быть применена для классификации линейно неразделимых классов объектов.

Классический подход к классификации образов опирается на байесовскую теорию проверки гипотез. На входы байесовского классификатора поступают параметры вектора наблюдений которые передаются на входы двух интерполирующих процессоров. Первый процессор аппроксимирует значения функции выбора класса C1:

второй значения функции выбора класса С2:

, где - функции плотности вероятности случайного вектора при условии, что он принадлежит пространству Х12), параметры c11,c12, c21,c22, p1,p2 определяются условиями решаемой задачи [7]. НП позволяет строить нелинейные функции (4) и (5) в процессе обучения при подаче на вход НП обучающих сигналов. Структура устройства, выполняющего функцию разделения двух классов, показана на Фиг. 4.

Устройство состоит из двух НП 28 и 29, выполняющих с помощью патентуемого способа исчисления значений реакции НП на подаваемые стимулы х1, х2,…, хn исчисление функций и компаратора 30 выполняющего сравнение значений. Если выбирается класс C1 31. В противном случае - класс С2 32.

Таким образом, предлагаемая модель нейропроцессора, реализуя модель нелинейной разделяющей поверхности, преодолевает проблему разделения линейно неразделимых классов объектов. Предлагаемый способ позволяет распараллеливать вычисления значений функции, что создает возможности повышения скорости НП в десятки раз по сравнению с традиционной моделью на основе персептрона. В последнем случае НП должен быть выполнен на аналоговых схемах, которые не требуют аналогово-цифровых преобразований входных сигналов.

Источники информации

1. McGuIIoch W.S., Pitts W. A logical calculus of the ideas imminent in nervous activity. // Bulletin of Mathematical Biophysics, vol.5, 1943, pp.115-133. (Рус. перевод: Маккаллок У.С., Питтс У. Логическое исчисление идей, относящихся к нервной деятельности. Автоматы. / Под ред. К.Э.Шеннона, Дж.Маккарти. - М.: ИЛ, 1956).

2. Rosenblatt F. Principles of neurodinamics. Perceptrons and the theory of brain mechanisms. Spartan Books, Washington, 1962. (Рус.перевод: Розенблатт Ф. Принципы нейродинамики. Нерцептроны и теория механизмов мозга. / Под ред. С.М.Осовца. - М: Мир, 1965 - 480 с).

3. Галушкин А.И. Теория нейронных сетей. Кн. 1: Учеб. пособие для вузов / Общая ред. А.И.Галушкина. - М.: ИПРЖР, 2000. - 416 с.

4. Wasserman P. Neurocomputing. Theory and practice, Nostram Reinhold, 1990. (Рус. перевод: Уоссермен Ф. Нейрокомпьютерная техника: теория и практика. / Пер. с англ. Ю.А. уев, В.А.Точенов. - М.: Мир, 1992. - 240 с).

5. Куринной Г.Ч. Математика: Справочник. - Харьков: Фолио; Ростов н/Д: Феникс, 1997. - 463 с.

6. Самойлин Е. А. Патент RU №2269155 от 22.08.2003 МПК G06G 7/06 (2006.01) Модель нейрона, реализующая логическую функцию неравнозначности.

7. Осовский С.Нейронные сети для обработки информации. М.: Финансы и статистика, 2002. - 344 с.: ил.

Похожие патенты RU2724784C2

название год авторы номер документа
Способ хранения и считывания аналоговых значений функций многих переменных 2017
  • Дембицкий Николай Леонидович
RU2656704C1
СПОСОБ МОДЕЛИРОВАНИЯ НЕЙРОНА 2009
  • Самойлин Евгений Александрович
RU2402813C1
ПОСТРОЕНИЕ НЕЙРОННОЙ СЕТИ НА ОСНОВЕ НЕЙРОНОВ С ФУНКЦИОНАЛЬНЫМ ПРЕОБРАЗОВАНИЕМ ПРОИЗВОЛЬНОГО ВИДА ДЛЯ ВХОДНЫХ СИГНАЛОВ 2018
  • Приезжев Иван Иванович
RU2727080C2
СПОСОБ ОБУЧЕНИЯ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ 2014
  • Сальников Владимир Сергеевич
  • Хоанг Ван Чи
  • Анцев Александр Витальевич
RU2566979C1
СПОСОБ КЛАССИФИКАЦИИ ЭЛЕКТРОЭНЦЕФАЛОГРАФИЧЕСКИХ СИГНАЛОВ В ИНТЕРФЕЙСЕ МОЗГ - КОМПЬЮТЕР 2009
  • Владимирский Борис Михайлович
  • Владимирский Борис Борисович
  • Кан Максим Николаевич
  • Шепелев Игорь Евгеньевич
RU2415642C1
СПОСОБ АДАПТИВНОЙ ПРОСТРАНСТВЕННО-ВРЕМЕННОЙ АНИЗОТРОПНОЙ БИЛАТЕРАЛЬНОЙ ФИЛЬТРАЦИИ ВИДЕОСИГНАЛОВ 2007
  • Седунов Сергей Михайлович
  • Игнатов Артем Константинович
RU2360287C1
СПОСОБ ОБУЧЕНИЯ ГЛУБОКИХ НЕЙРОННЫХ СЕТЕЙ НА ОСНОВЕ РАСПРЕДЕЛЕНИЙ ПОПАРНЫХ МЕР СХОЖЕСТИ 2016
  • Устинова Евгения Сергеевна
  • Лемпицкий Виктор Сергеевич
RU2641447C1
Способ диагностики острого коронарного синдрома 2020
  • Пушкин Александр Сергеевич
  • Шулькин Дмитрий Яковлевич
  • Рукавишникова Светлана Александровна
  • Борисова Людмила Викторовна
  • Ким София Викторовна
  • Ахмедов Тимур Артыкович
RU2733077C1
СПОСОБ ОЦЕНИВАНИЯ ПАРАМЕТРОВ ТРАЕКТОРИИ ИСТОЧНИКА РАДИОИЗЛУЧЕНИЙ В ДВУХПОЗИЦИОННОЙ УГЛОМЕРНОЙ РАДИОЛОКАЦИОННОЙ СИСТЕМЕ 2003
  • Бирина Н.О.
  • Дрогалин В.В.
  • Меркулов В.И.
  • Рогов А.В.
  • Самарин О.Ф.
  • Суворов Н.Н.
  • Францев В.В.
  • Челей Г.С.
  • Чернов В.С.
RU2246121C9
СПОСОБ ИДЕНТИФИКАЦИИ И КЛАССИФИКАЦИИ ОБЪЕКТОВ 2017
  • Агафонова Регина Ренатовна
  • Мингалев Александр Владимирович
  • Габдуллин Ильдар Масхутович
  • Шушарин Сергей Николаевич
RU2692420C2

Иллюстрации к изобретению RU 2 724 784 C2

Реферат патента 2020 года Способ управления реакцией нейропроцессора на входные сигналы

Изобретение относится к нейрокибернетике и может быть использовано в качестве функциональной единицы различных искусственных нейронных сетей. Техническим результатом является устранение проблемы нереализуемости разделения нелинейно неразделимых классов известными моделями нейронов. Указанный результат достигается за счет того, что с учетом нелинейных свойств поверхности разделения классов объектов в N-мерном континуальном пространстве нейропроцессор (НП) выполняет линейную аппроксимацию функций в подобластях области Ω, а параметры нейропроцессора настраиваются путем обучения на основе экспериментальных или теоретических данных о поведении нейропроцессора в заданных точках N-мерного континуального пространства. При обучении нейропроцессора на обучающий вход поочередно подают эталонные сигналы d1, d2,…, ds, а на сигнальные входы НП подают соответствующие им стимулы х1, х2,…, xN. Эталонные сигналы выбирают так, чтобы в каждой подобласти Ω*∈Ω находилась хотя бы одна обучающая выборка. При повторении эпох выполняется минимизация погрешностей функции в вершинах N-мерного куба, ограничивающего каждую подобласть Ω*. 4 ил.

Формула изобретения RU 2 724 784 C2

Способ управления реакцией нейропроцессора на входные сигналы (стимулы) x1, х2, …, хN, в котором в каждую ячейку запоминающего устройства (ЗУ) НП записывают кортеж значений параметров , где F - фиксированное значение реакции НП на комбинацию значений стимулов комбинации значений стимулов в ЗУ получают перебором значений каждого воздействия хi из возрастающей последовательности фиксированных значений где K - количество фиксированных значений стимулов xi, из соседних значений последовательности Xi в ЗУ образуют K-1 интервалов по каждому стимулу, перебором интервалов по всем переменным x1, х2, …, xN образуют (K-1)N подобластей Ω* в области Ω определения реакции НП F(x1, x2, …, xN), на N входов НП подают стимулы x1*, х2*, …, xN*, определяют принадлежность поданных сигналов некоторой подобласти Ω*, ограниченной интервалами x1min≤x1*<x1max, x2min≤x2*<x2max, …, xNmin≤xN*<xNmax, где x1min, x1max, x2min, x2max, , xNmin, xNmax - ближайшие значения стимулов из последовательностей Xi, i изменяется от 1 до N, в интервале (х1min, x1max) вычисляют 2N-1 интерполирующих значений реакции НП (ИЗРН) F по формуле

где i - номер промежуточного ИЗРН F на первом шаге вычисления, - крайние значения стимулов, ограничивающие выбранную подобласть Ω* в N-мерной области определения реакции НП,

на j-м шаге в интервале [xjmin, xjmax) вычисляют 2N-j ИЗРН F по формуле

где i - номер промежуточного ИЗРН на j-м шаге (j изменяется от 2 до N), на N-м шаге в интервале [хNmin, хNmax) при j=N по формуле (3) вычисляют искомое значение реакции НП F(x1*, х2*, …, xN*) на сигналы х1*, х2*, …, xN*, для настройки НП в каждую ячейку ЗУ записывают кортежи значений параметров где - комбинация заданных значений стимулов, получаемая для каждого стимула xi из возрастающей последовательности Fj - начальное значение реакции НП при заданных значениях стимулов, формируют обучающие кортежи (d*, х1*, х2*, …, xN*), состоящие из эталонного сигнала d* и соответствующих ему стимулов Х*=(х1*, х2*, …, xN*), на обучающий вход НП поочередно подают эталонные сигналы d1, d2, …, dS, образующие обучающую выборку (эпоху), а на сигнальные входы НП подают соответствующие каждому эталонному сигналу d∈{d1, d2, …dS} стимулы x1 х2, …, xN, эталонные сигналы выбирают так, чтобы в каждой подобласти Ω*∈Ω находился хотя бы один обучающий кортеж, при подаче очередного эталонного сигнала d*∈{d1, d2, …dS} и стимулов Х*=(х1*, х2*, …, xN*) определяют подобласть Ω*, внутри которой находится обучающий кортеж (d*, x1*, x2*, …, xN*), вычисляют реакцию F* НП на стимулы x1*, x2*, …, xN*, вычисляют невязку е*=d*-F*, выполняют пошаговое вычисление невязок в вершинах параллелепипеда, ограничивающего подобласть Ω*, для этого на первом шаге вычисляют невязку в точке (x1*, х2*, …, xNmin) по формуле

и невязку в точке (х1*, x2*, …, xNmax) по формуле

,

где и ,

на втором шаге вычисляют невязку в точке (х1*, …, xN-1min, xNmin) по формуле

невязку в точке (х1*, …, xN-1max, xNmin) по формуле

невязку в точке (х1*, …, xN-1min, xNmax) по формуле

невязку в точке (x1*, …, xN-1max, xNmax) по формуле

где и

на третьем шаге вычисляют невязку в точке (х1*, …, xN-2min, xN-1min, xNmin) по формуле

,

невязку в точке (х1*, …, xN-2max, хN-1min, xNmin) по формуле

невязку в точке (х1*, …, xN-2min, xN-1max, xNmin) по формуле

невязку в точке (x1*, xN-2max, xN-1max, xNmin) по формуле

,

невязку в точке (х1*, …, xN-2min, xN-1min, xNmax) по формуле

невязку в точкe (x1*, …, xN-2max, xN-1min, xNmax) по формуле

нeвязку в точке (х1*, …, xN-2min, xN-1max, xNmax) по формуле

нeвязку в точке (x1*, …, xN-2max, xN-1max, xNmax) по формуле

где и

и так далее, продолжая вычисления, на N-м шаге рассчитывают невязку во всех 2N вершинах N-мерного параллелепипеда, ограничивающего подобласть значений Ω*, выполняют корректировку значений реакции F в ЗУ во всех 2N вершинах N-мерного параллелепипеда на величины рассчитанных в них невязок, процедуры расчета невязок и коррекции значений реакции НП F повторяют для всех эталонных обучающих сигналов d1, d2, …, dS до тех пор, пока не будет достигнуто приемлемое отклонение расчетных значений от эталонных в кортежах.

Документы, цитированные в отчете о поиске Патент 2020 года RU2724784C2

МОДЕЛЬ НЕЙРОНА, РЕАЛИЗУЮЩАЯ ЛОГИЧЕСКУЮ ФУНКЦИЮ НЕРАВНОЗНАЧНОСТИ 2003
  • Самойлин Евгений Александрович
RU2269155C2
СПОСОБ МОДЕЛИРОВАНИЯ НЕЙРОНА 2009
  • Самойлин Евгений Александрович
RU2402813C1
Бесконтактный электромагнитный датчик для измерения крутящего момента, передаваемого вращающимся валом 1960
  • Майоров М.М.
SU148932A1
US 5504839 A, 02.04.1996
Гидропривод механизма подачи деревообрабатывающего станка 1974
  • Глинин Лев Владимирович
  • Круглов Алфей Васильевич
  • Черняев Владимир Константинович
SU526504A1

RU 2 724 784 C2

Авторы

Дембицкий Николай Леонидович

Даты

2020-06-25Публикация

2018-05-18Подача