Программирование, 2020, № 1, стр. 54-62

Методология и инструментальные средства проектирования бинарных нейронных сетей

И. В. Степанян ab*

a Институт машиноведения им. А.А. Благонравова РАН
101000 Москва, Малый Харитоньевский переулок, д. 4, Россия

b АО “Интеллект”
115191 Москва, ул. Рощинская 2-я, д. 4, Россия

* E-mail: neurocomp.pro@gmail.com

Поступила в редакцию 15.02.2019
После доработки 17.04.2019
Принята к публикации 10.06.2019

Полный текст (PDF)

Аннотация

В статье представлены результаты исследований в области разработки программных методов проектирования, обучения и синтеза бинарных нейронных сетей. В основе исследований лежит модель биоморфного нейрона А.А. Жданова, обладающего помехозащищенностью, возможностью забывания и дообучения. Приведено описание программного инструментария для проектирования и визуализации результатов моделирования бинарных нейронных структур. Приведены примеры и особенности использования формального языка разметки нейросетевых моделей с описанием принципов генерации структур глубокого обучения. Возможности интерпретатора языка разметки нейронных сетей позволяют автоматически генерировать исходный код на языке Verilog с описанием нейроподобной реализации интеллектуальных систем для программных и аппаратных решений на программируемых логических интегральных схемах (ПЛИС).

1. ВВЕДЕНИЕ

В задачах проектирования и алгоритмического синтеза биоподобных нейросетевых структур для интеллектуальной обработки информации важную роль играет синтаксис языка разметки. Синтаксис должен обеспечивать простоту проектирования и наглядность результатов алгоритмической генерации кода и доступность всех необходимых нейросетевых операций синтеза: объединение, мутация, удаление и добавление синаптических связей и пр.

Из нейробиологии известно [1], что входные импульсы нейрона приводят к постепенному увеличению размеров входящих синапсов. При этом растущие синапсы могут подавлять активность соседних синапсов. Таким образом, в структуре нейрона происходит фиксация пространственно-временных комбинаций входных векторов, что лежит в основе механизма обнаружения коррелирующих сигналов. Данный принцип лежит в основе рассматриваемых в данной работе бинарных нейронов и метода автономного адаптивного управления (ААУ) [2], который является одним из подходов к построению адекватных биологическим прототипам моделей нервной системы.

В данной работе описаны нейронные сети на нейронах А.А. Жданова, которые работают исключительно с бинарными данными, передаваемыми на входы и на выходы каждого нейрона и которые не имеют синаптических весовых коэффициентов. Это их кардинально отличает от нейронных сетей, представляющих собой классические нейронные сети (с произвольными значениями на входе и выходе нейронов и весовыми коэффициентами). Особенностью бинарных нейронов А.А. Жданова является то, что для их обучения и настройки не требуется дорогостоящих вычислительных операций умножения, деления и нахождения производной, которые широко применяются в методах обучения классических нейронных сетей. Вместо этого в нейронах срабатывают триггеры-счетчики, которые при достижении определенных условий обеспечивают функционал нейрона, что ускоряет их обучение и приближает к биологическому прототипу.

На базе метода ААУ [2, 3] и описанного в данной работе подхода к его технической реализации, была разработана программно-аппаратная нейроподобная система с возможностью распознавания зашумленных образов [4] и автоматической генерацией нейросетевых структур для аппарата формирования и распознавания статических образов [5].

2. СТРУКТУРА И ФУНКЦИИ ИНСТРУМЕНТАЛЬНОЙ ПЛАТФОРМЫ ПРОЕКТИРОВАНИЯ БИНАРНЫХ НЕЙРОННЫХ СЕТЕЙ

В целях исследования возможностей алгоритмического синтеза и когнитивных свойств различных структур на бинарных нейронах разработана система автоматизированного проектирования на языке Lua. Эта инструментальная платформа включает в свой состав тройку: логическое ядро (API), интерфейс (GUI) и каталог нейронных сетей.

Основным функциональным блоком разработки является логическое ядро, которое может встраиваться в программные приложения и аппаратные объекты управления как самостоятельный программный модуль. Доступ ко всем функциям ядра осуществляется посредством API. С помощью модулей логического ядра системы разработаны и помещены в каталог нейронных сетей некоторые примеры, что позволяет шаблонизировать разработку нейроподобной реализации интеллектуальных систем. Для упрощения восприятия и администрирования платформы, а также в образовательных целях часть функций логического ядра была привязана к элементам графического интерфейса. Это удобно для отображения нейронных сетей в динамике за счет специально разработанных графических средств визуализации. Административные функции (создание, копирование, редактирование и т.д.) выполняются по умолчанию внутри пользовательского каталога нейронных сетей и могут быть реализованы встроенными средствами администрирования или средствами файловой системы.

Известны языки разметки нейронных сетей для вычислительных нейронаук [6], из которых были заимствованы некоторые идеи. Для нейроподобных алгоритмов был разработан формальный синтаксис, интерпретируемый ядром. В данной работе описан язык разметки биоморфных нейронных сетей, который позволяет описывать нейронные модели на базе бинарных нейронов, хранить и манипулировать ими независимо от конкретной среды моделирования.

3. ОСОБЕННОСТИ ИНИЦИАЛИЗАЦИИ, НЕЙРОНОВ, РЕЦЕПТОРОВ И ЭФФЕКТОРОВ

Бинарные нейроны существенно отличаются от формальных нейронов Маккалока-Питтса и демонстрируют свойства, где обучение и дообучение происходят непосредственно в процессе функционирования сети. Нейрон принимает бинарный вектор и на выходе дает 0, если образ не распознан и 1, если распознан. В целом, модель бинарного нейрона можно сопоставлять с классом импульсных (спайковых) нейронных сетей, которые воспроизводят специфичные механизмы нейробиологии [79]. Несмотря на то, что теоретические основы спайковых нейронных сетей были предложены еще в 1952 году, они интенсивно развиваются в настоящее время (отметим, что нейросетевые технологии эволюционируют не только в теоретической области нейромоделирования [16, 17], но и в значительной степени в связи с возможностями вычислительной техники11).

В соответствии с предлагаемым формальным синтаксисом бинарный нейрон задается своим идентификатором и набором атрибутов. Идентификатор нейрона представляет собой последовательность символов на латинице без пробелов, атрибуты нейрона указываются в скобках через запятую, либо задаются по умолчанию для всех нейронов. Для упрощения читаемости кода и возможности применения различных операций (в том числе автоматических замен) в именах идентификаторов рекомендуют применять префиксы и суффиксы. Это удобно не только для возможности интуитивного понимания нейронной сети, но и для разработки алгоритмов синтеза нейронных структур и алгоритмов путем манипулирования строковыми переменными в различных языках программирования.

При построении сети работает правило: слева от двоеточия – что присоединяем, справа – к чему присоединяем. Рецепторы – это нейроны, которые принимают внешние сигналы. Для передачи входного сигнала любой рецептор может быть подсоединен к любому нейрону из любого слоя сети. Для инициализации рецептора задается его идентификатор и идентификаторы нейронов, к которым подключается рецептор. Описание связей вектора входных значений с нейронной сетью имеет вид:

<ид_входа_1>:<ид_нейрона_11>,<ид_нейрона_12>,…,<ид_нейрона_1j>

<ид_входа_2>:<ид_нейрона_21>,<ид_нейрона_22>,…,<ид_нейрона_2j>,

…,

<ид_входа_n>:<ид_нейрона_i1>,<ид_нейрона_i2>,…,<ид_нейрона_ij>,

где <ид_входа_n> – идентификатор входного сигнала (рецептора), например, r01;

<ид_нейрона_ij> – идентификатор нейрона, к которому подключается рецептор, например, n01.

Эффекторы – это бинарные нейроны, с которых снимается выходная информация. Эффектор может находиться в любом месте сети. За это отвечает атрибут нейрона “Effector”, принимающий значения “TRUE/FALSE”.

Синтаксис задания матрицы связности, описывающей произвольную структуру нейронной сети идентичен синтаксису инициализации нейронов-рецепторов. Разбиение сети на слои происходит автоматически в результате анализа введенной структуры нейронной сети в соответствии с теорией графов. Пример синтаксиса с фрагментом структуры нейронной сети, где рецептор r01 подключен к трем нейронам:

r01:n01,n02,n03

r02:n02

r03:n03

В соответствии с введенной структурой программно генерируются графические отображения нейронных сетей. Структура нейронной сети не обязательно должна быть полносвязной. Примеры нейросетевых структур приведены на рис. 1.

Рис. 1.

Пример структуры нейронной сети, состоящей из двух несвязанных между собой подсетей. Затемненные точки – нейроны-рецепторы. Толщина соединительных линий между нейронами зависит от наличия или отсутствия сигнала. Толщина линий от рецепторов не изменяется. Для визуализации использована библиотека d3.js.

4. СТАТИСТИЧЕСКИЕ ПОРОГИ ОБУЧЕНИЯ И ГЕНЕРАЦИИ СИГНАЛА СБРОСА НЕЙРОНА

При достижении заданного статистического порога, отвечающего за число наблюдений образа нейрон активируется и становится обученным. Нейрон будет срабатывать каждый раз, когда на его входы будет поступать соответствующая комбинация входных векторов (все образы кодируются бинарными векторами). Для фиксации состояния обученности нейрона и генерации сброса реализованы статистические пороги L и G соответственно (рис 2).

Рис. 2.

Структурная схема модели нейрона.

На рис. 2 ${{X}^{t}} = \{ x_{1}^{t},x_{2}^{t},...,x_{m}^{t}\} $ – входной вектор, где – число входов нейрона, – дискретный момент времени. Элемент R отрабатывает правило: если нейрон обнаружит вектор, все элементы которого равны 1, то он выдает сигнал 1.

Статистический порог L – это счетчик, который при достижении порогового значения заставляет нейрон срабатывать. Задача этого порога состоит в том, чтобы не пропускать случайные входные вектора. При подаче L раз на этот нейрон вектора, полностью заполненного единицами, нейрон обучится, активируется и начнет передавать единичный сигнал на выход нейрона O при каждой подаче единичного вектора. При распознавании каждого образа, сигнал будет генерироваться до тех пор, пока от нейрона, которому он передает сигнал, не поступит сигнал сброса S.

Триггерный элемент T выполняет функцию кратковременной памяти и удерживает выходной сигнал нейрона до поступления сигнала сброса S. Это необходимо для реализации функции временной задержки в нейронах для обеспечения возможности распознавания динамических явлений и причинно-следственных связей [2].

Статистический порог G – это счетчик, который при достижении своего значения вырабатывает импульс сброса. Его задача – отправить отключающий (тормозящий) сигнал, нейронам, которые передают ему данные. Это необходимо для возможности распознавания неслучайных последовательностей образов.

Структурный порог нейрона L необходим для возможности распознавания зашумленных образов. Например, если нейрон обучен и определенное число раз активировался, то структурный порог в соответствии с заданной функцией упадет, к примеру, до 55%. Это значит, что для активации этого нейрона, больше нет необходимости подавать полный входной вектор и нейрон распознает образ по его части.

Для задания порогов и других параметров нейрона необходимо у идентификатора соответствующего нейрона в скобках задать значения, например: n02(G=4; L=4).

5. НЕЙРОГРАММА – МЕТОД ВИЗУАЛИЗАЦИИ СОБЫТИЙ В НЕЙРОННОЙ СЕТИ

Окно активности нейронов или нейрограмма отображает динамику активации выходных сигналов всех нейронов в процессе обработки образов. Строки с эффекторами на нейрограмме подсвечены. Указатель предельного такта позволяет задать номер такта, до которого будет продолжаться моделирование. Если необходимо обработать все входные данные, то этот указатель должен быть установлен до максимума (по умолчанию). Для моделирования нейронов в сети методом потактной подачи импульсов удобно установить указатель такта на нужный номер и запускать моделирование необходимое количество раз. Это позволит отслеживать динамику информационных процессов (рис. 3, 4) в графическом интерфейсе.

Рис. 3.

Пример нейрограммы нейрона a01 с 1 по 34 такты.

Рис. 4.

Фрагмент нейрограммы как результат работы нейронной сети. Идентификаторы рецепторов отображаются по вертикали, номера тактов по горизонтали, слева направо, в прядке возрастания. Цвета и размеры точек соответствуют значениям пороговых счетчиков и активности каждого из нейронов.

Параметр “такт сброса всех нейронов” позволяет сбросить (разобучить) все нейроны без остановки процесса подачи входных импульсов. Это удобно для отладки нейронных сетей при моделировании на наборах тестовых данных.

Эмоциональная оценка – численный параметр всей нейронный сети, который характеризует общее число активных нейронов на каждом такте моделирования (рис. 4).

Нейросетевые базы знаний согласно [2] являются частью систем ААУ и представляют собой нейронные структуры определенной топологии. Как правило, такие системы оперируют векторами вида „образ-действие-результат“ и могут использоваться для обучаемых систем автономного адаптивного управления в реальной или виртуальной среде совместно с другими блоками (эмоциональной оценки, распознавания и др.). Примеры баз знаний были помещены в каталог нейронных сетей.

Генератор случайных нейронных структур служит для построения случайной структуры нейронной сети без циклов. Данная функция может быть полезна для эволюционно-генетических алгоритмов. Циклы и циклические процессы в бинарных нейронных сетях могут быть полезными, но их роль не изучалась в данной работе.

6. АЛГОРИТМ СИНТЕЗА СТРУКТУР ГЛУБОКОГО ОБУЧЕНИЯ

Была разработана процедура генерации карт признаков, заключающаяся в том, что каждому образу или классу образов ставится в соответствие нейрон со структурой связей, задающей соответствующий образ или класс образов. В отличие от классических нейронных сетей с непрерывными функциями активации данная процедура не итерационная и не рекурсивная, что значительно ускоряет ее выполнение. В задаче идентификации личности, к примеру, такими признаками могут служить глаза и другие характерные элементы лица.

При разработке алгоритма возникла проблема: полученные структуры оказались рассчитанными только на такие виды шумов, которые связаны с отсутствующими элементами образа (слабая помехоустойчивость). Для решения были алгоритмически выделены повторяющиеся фрагменты образов обучающей выборки для формирования и обучения общих промежуточных нейронов. Это не дало повышения качества распознавания зашумленных образов, хотя позволило уменьшить количество нейронов и экономить ресурсы.

Трудности, связанные с помехоустойчивостью нейросетевых структур распознавания привели к идее использования принципов сверточных нейронных сетей, основанных на механизмах распознавания образов в мозге [8, 10]. Исследование структур глубокого обучения позволило разработать подходы к построению нейросетевых структур со свойствами помехоустойчивости и высокой скорости обучения на основе нейронов А.А. Жданова.

Для алгоритма генерации глубокой структуры разработали оператор свертки, который применили при получении значимых признаков для бионических нейронов. Это логическая функция, определяемая таблицей истинности (таблица 1). В таблице 1 × 1 – набор значимых сигналов, ×2 – набор незначимых сигналов.

Таблица 1.

Таблица истинности оператора свертки

x1/x2 0 1
0 0 0
1 1 0

Поскольку на выходе нейроны имеют бинарный сигнал, то будем считать, что необходимый образ распознан если в рассматриваемом окне (фрагменте образа) распознан хотя бы один образ. При этом размер окна определяется размером нейросетевого фильтра. Далее соединяются все нейроны признаков внутри окна к единому нейрону. Этот нейрон срабатывает, если хотя бы один из входных нейронов сработан. Это условие “слабого” порога или оператора “или”, который реализуется за счет комбинации параметров пороговых функций (рис. 6).

Рис. 5.

График эмоциональной оценки нейронной сети. По оси абсцисс номер такта, по оси ординат – число активных нейронов в сети.

Рис. 6.

Пример сжатия признаков во фрагменте слоя нейронов (черная точка – нейрон сработал, белая точка – нейрон не сработал).

Алгоритм синтеза биоморфной нейроподобной системы распознавания состоит из этапа синтеза структуры подсети библиотеки фильтров для каждого поступающего образа и этапа синтеза сети для распознавания образа. Эти два этапа рекурсивно повторяются, генерируя слой за слоем пока не будет синтезирована нейронная сеть, обеспечивающая за счет своей структуры полное распознавание всего множества заданных образов. Сгенерированная сеть обучается на каждой итерации алгоритма так, что каждый нейрон обучается отдельно. Общая схема алгоритма синтеза структуры подсети библиотеки фильтров-масок для каждого поступающего образа приведена на рис. 7.

Рис. 7.

Рекурсивный алгоритм создания библиотеки фильтров.

Обучение может осуществляться как с учителем и без и использоваться для создания самообучаемой системы распознавания образов. Такая система способна алгоритмически порождать нейронные структуры, обучаемые на наиболее вероятные, по критерию частоты появления образы (задача управления) и на заранее заданные образы (задача распознавания). Алгоритм синтеза сверточной бинарной сети подробно описан в [5], где приведены результаты в области обучения и дообучения сверточных бионических нейронных сетей с применением нейромоделирования.

На рис. 8 схематически изображено применение приведенного алгоритма для создания библиотеки фильтров для распознавания образа “Х” и результаты распознавания. Как и в общей задаче распознавания произвольных образов количество фильтров и скрытых слоев заранее неизвестно.

Рис. 8.

Схема рекурсивной генерации библиотеки фильтров для тестового образа.

При распознавании в последнем слое были получены условные координаты каждого распознанного образа (рис. 9). Полученные координаты совпадают с геометрическими центрами соответствующих им образов за счет процесса сжатия информации. Зная размер фильтров в каждом слое, можно восстановить исходные образы по условным координатам, что удобно использовать при подсчете распознанных образов на анализируемом изображении.

Рис. 9.

Примеры распознавания трех зашумленных образов “Х” (слева) и идентификация их координат (справа).

При тестировании нейроподобных структур использовалось обучающее множество из 60 000 рукописных символов из базы данных рукописных цифр MNIST. Доля распознанных символов составила 97.51%. Согласно алгоритму синтеза глубоких структур использовалось разбиение на области с выделением признаков. Хотя современные нейронные сети позволяют достигать менее 1% ошибок, результаты эксперимента показали работоспособность алгоритма и возможность помехоустойчивого распознавания на бинарных нейронах, то есть без применения операций с плавающей запятой, что существенно. Повысить точность распознавания можно, увеличив разрядность рецепторов. Это повлечет необходимость использования большего количества нейронов. Поэтому в реальных задачах (и особенно в задачах реального времени, где предлагаемые технологии наиболее эффективны) необходим рациональный баланс между быстродействием и точностью.

Подводя итог, отметим, что метод алгоритмической генерации сверточных сетей обладает свойствами, среди которых возможность синтеза сети под выборку, помехоустойчивость к зашумлениям образов, возможность дообучения без необходимости повторного синтеза и повторного обучения, отсутствие сложных вычислительных проблем. Особенностью описанных растущих бионических сетей является возможность семантического анализа (например образы одного класса: “а”, “А”), возможность распознавания трехмерных изображений в различных проекциях, работа с многомерными образами. К недостаткам предложенной методологии можно отнести саму бинарность и как следствие значительное число нейронов при решении реальных задач, что обуславливает необходимость предварительной оценки скоростных параметров алгоритма для управления соотношением время/точность. Предварительная оценка и выбор параметров алгоритма связаны с возможностями специализированного оборудования для функционирования сложных сетей однородных нейронов.

7. VERILOG-КОНВЕРТЕР

Был разработан конвертер, который генерирует Verilog-код нейронной сети исходя из ее формального описания. Описание структуры сети может задаваться вручную, либо генерироваться в автоматическим режиме. Прошивка была успешно проведена на ПЛИС Altera cyclone 4 EP4CE6. Фрагмент генерированного кода:

mod_m_counter #(.M(10), .N(4)) baud_gen_unit

(.clk(clk), .reset(reset), .max_tick(tick), .q());

neuron_t1 #(.N(1), .M(2), .Q(2), .PATTERN(1'b1)) n1

(.clk(clk), .reset(reset), .tripping_in(tripping_gl | n5_tripping_out | n8_tripping_out | n13_tripping_out), .s_tick(tick), .din(d [3]),

.tripping_out(n1_tripping_out), .recogn_st(n1_recogn_st), .learn_st(n1learn_st));

neuron_t1 #(.N(1), .M(2), .Q(2), .PATTERN(1'b1)) n2

(.clk(clk), .reset(reset), .tripping_in(tripping_gl | n5_tripping_out | n6_tripping_out | n9_tripping_out | n10_tripping_out), .s_tick(tick), .din(d [2]),

.tripping_out(n2_tripping_out), .recogn_st(n2_recogn_st), .learn_st(n2learn_st));

8. ОБСУЖДЕНИЕ И ВЫВОДЫ

В работе приведены подходы к проектированию и описаны элементы программно-аппаратной платформы для разработки, проектирования и прототипирования нейроподобных сетей, описанных в теории “Автономного адаптивного управления” А.А. Жданова. Этот инструментарий обладает следующими функциональными возможностями: проектирование цифровых нейроподобных сетей, анализ информационных процессов в нейроподобных сетях, возможность алгоритмического синтеза нейросетевых структур на бинарных нейронах.

Исследования были проведены на основе разработанного синтаксиса описания нейронных сетей, который позволил создать различные программы, в том числе для синтеза нейросетевых структур и конвертации в Verilog. Исследования продемонстрировали, что предложенный формализм и свойства используемых нейронов позволяют проектировать нейросетевые системы, общим свойством которых является самоорганизация с применением известных в нейроинформатике структур.

Анализируя современные нейросетевые подходы, среди которых сверточные нейронные сети и глубокое обучение [10], можно отметить, что сети на биоморфных бинарных нейронах рассматриваемые в данной статье, могут как существенно отличаться от глубоких нейронных сетей, так и быть с ними связными без теоретических ограничений на комбинации различных нейросетевых решений в нейросетевых ансамблях, включающих самоорганизующиеся, рекуррентные и другие структуры. В частности, для описанного подхода возможно использование динамической структуризации наподобие алгоритмов кортикальных сетей из [11, 12].

От структуры нейронной сети, топологии межнейронных связей зависят качество функционирования, помехоустойчивость и скорость обучения. Динамические свойства бинарных нейроподобных сетей делают их перспективными в системах машинного анализа данных для потоковой обработки информации в реальном времени.

Изложенные материалы носят исследовательский характер и демонстрируют общность подходов к задаче проектирования нейросетевых структур и программных продуктов на их основе. Результаты разработок, демонстрирующих дальнейшее развитие данного направления защищены в патентах [13–15 ] .

Список литературы

  1. Brewer G.J., Boehler M.D., Pearson R.A., DeMaris A.A., Ide A.N., Wheeler B.C. Neuron network activity scales exponentially with synapse density, Journal of Neural Engineering. 2008. V. 6. № 1. https://doi.org/10.1088/1741-2560/6/1/014001

  2. Жданов А.А. Автономный искусственный интеллект – 2 изд-е. М.: БИНОМ. Лаборатория знаний. 2009. 359 с.: ил. (Адаптивные и интеллектуальные системы). ISBN 978-5-94774-995-3

  3. Жданов А.А., Крыжановский М.В., Преображенский Н.Б. Бионическая интеллектуальная адаптивная система управления мобильным роботом // Искусственный интеллект. 2002. Т. 4. С. 341–350.

  4. Мишустин И.А., Преображенский Н.Б., Жданов А.А., Степанян И.В. Аппаратная реализация нейроноподобной сети с возможностью распознавания зашумленных образов // Нейрокомпьютеры: разработка, применение. 2018. № 6. С. 19–25.

  5. Степанян И.В., Зиеп Н.Н. Растущие сверточные нейроподобные структуры для задач распознавания статических образов // Нейрокомпьютеры: разработка, применение. 2018. № 5. С. 4–11.

  6. Vella M., Cannon R.C., Crook S., Davison A.P., Ganapathy G., Robinson H.P., Silver R.A. and Gleeson P. libNeuroML and PyLEMS: using Python to combine procedural and declarative modeling approaches in computational neuroscience. Frontiers in Neuroinformatics. 2014. V. 8. P. 38.

  7. Ponulak F. Introduction to spiking neural networks: Information processing, learning and applications. 2010, Acta neurobiologiae experimentalis. V. 71. P. 409–433.

  8. Maas W. Networks of spiking neurons: The third generation of neural network models. Neural Networks. 1997. V. 10. P. 1659–1671. https://doi.org/10.1016/S0893-6080(97)00011-7

  9. Davies M., Srinivasa N., Lin T.-H., Chinya G., Cao Y., Choday S.H., Dimou G., Joshi P., Imam N., Jain S., Liao Y., Lin C.-K., Lines A., Liu R., Mathaikutty D., McCoy S., Paul A., Tse J., Venkataramanan G., Weng Y.-H., Wild A., Yang Y., Wang H. Loihi: A Neuromorphic Manycore Processor with On-Chip Learning. IEEE Micro. 2018. V. 38. № 1. P. 82–99. https://doi.org/10.1109/MM.2018.112130359

  10. Schmidhuber J. Deep learning in neural networks: An overview, Neural networks. 2015. V. 61. P. 85–117.

  11. LeCun Y., Bengio Y. Convolutional Networks for Images, Speech, and Time-Series, in Arbib, M. A. (Eds). The Handbook of Brain Theory and Neural Networks. MIT Press, 1995.

  12. Dileep G., Jeff H. Towards a Mathematical Theory of Cortical Micro-circuits. October 9. 2009 PLoS Computational Biology, Edited by Karl J. Friston. V. 5. Issue 10. P. E1000532.

  13. Свидетельство о государственной регистрации программы для ЭВМ № 2016611299 “Neurox” от 29 января 2016 г. Правообладатель: ЗАО “Интеллект” (RU). Авторы: Степанян И.В., Лекомцев Д.А., Жданов А.А. (Система автоматизированного проектирования биоморфных нейронных сетей Neurox [86450] включена в Реестр по Приказу Минкомсвязи России от 14.12.2016 № 653, Приложение 2, № пп. 12, реестровый № 2393.)

  14. Свидетельство о государственной регистрации программы для ЭВМ № 2018661458 от 7.09.2018 “Программа динамического синтеза растущих биоподобных структур на основе искусственных нейронов с расширенной функциональностью и способностью к дообучению для задач распознавания образов и управления динамическими объектами”. Правообладатель: Акционерное общество “Интеллект”(RU). Авторы: Жданов А.А. (RU), Нгуен Hгок Зиеп / Nguyen Ngoc Diep (VN), Перский Г.С. (RU), Пешенко Р.Э. (RU), Пижонков А.Г. (RU), Степанян И.В.(RU), Сямиуллин З.С. (RU).

  15. Свидетельство о государственной регистрации программы для ЭВМ № 2018663628 от 01.11.2018 “Программа многоуровневого автономного управления (МААУ) динамическими объектами на основе искусственных нейронов с расширенной функциональностью и способностью к дообучению”. Правообладатель: Акционерное общество “Интеллект” (RU). Авторы: Жданов А.А. (RU), Пешенко Р.Э. (RU), Пижонков А.Г. (RU), Смирнов С.П. (RU), Степанян И.В. (RU).

  16. Савельев А.В. Нейрокомпьютеры в изобретениях // Нейрокомпьютеры: разработка, применение. 2004. № 2–3. С. 33–49.

  17. Савельев А.В. Нейросоциометодология проблемы диалога между нейробиологией и нейромоделированием // Нейрокомпьютеры: разработка, применение. 2011. № 1. С. 47–63.

Дополнительные материалы отсутствуют.