xii ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ...

326
РОССИЙСКАЯ АКАДЕМИЯ НАУК МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ ГОСУДАРСТВЕННАЯ КОРПОРАЦИЯ ПО АТОМНОЙ ЭНЕРГИИ «РОСАТОМ» РОССИЙСКАЯ АССОЦИАЦИЯ НЕЙРОИНФОРМАТИКИ НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ ЯДЕРНЫЙ УНИВЕРСИТЕТ «МИФИ» НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЙ ИНСТИТУТ СИСТЕМНЫХ ИССЛЕДОВАНИЙ РАН НАУЧНАЯ СЕССИЯ НИЯУ МИФИ–2010 НЕЙРОИНФОРМАТИКА–2010 XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ КОНФЕРЕНЦИЯ ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ По материалам Школы-семинара «Современные проблемы нейроинформатики» Москва 2010

Upload: others

Post on 09-Aug-2020

16 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

РОССИЙСКАЯ АКАДЕМИЯ НАУК

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИРОССИЙСКОЙ ФЕДЕРАЦИИ

ГОСУДАРСТВЕННАЯ КОРПОРАЦИЯ ПО АТОМНОЙ ЭНЕРГИИ «РОСАТОМ»

РОССИЙСКАЯ АССОЦИАЦИЯ НЕЙРОИНФОРМАТИКИ

НАЦИОНАЛЬНЫЙ ИССЛЕДОВАТЕЛЬСКИЙ ЯДЕРНЫЙ УНИВЕРСИТЕТ «МИФИ»

НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЙ ИНСТИТУТСИСТЕМНЫХ ИССЛЕДОВАНИЙ РАН

НАУЧНАЯ СЕССИЯ НИЯУ МИФИ–2010

НЕЙРОИНФОРМАТИКА–2010

XII ВСЕРОССИЙСКАЯНАУЧНО-ТЕХНИЧЕСКАЯ

КОНФЕРЕНЦИЯ

ЛЕКЦИИПО НЕЙРОИНФОРМАТИКЕ

По материалам Школы-семинара«Современные проблемы нейроинформатики»

Москва 2010

Page 2: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

УДК 001(06)+004.032.26 (06) Нейронные сети

ББК 72я5+32.818я5

М82

НАУЧНАЯ СЕССИЯ НИЯУ МИФИ–2010. XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ КОНФЕРЕНЦИЯ «НЕЙРОИНФОРМАТИКА–2010»: ЛЕК-ЦИИ ПО НЕЙРОИНФОРМАТИКЕ. – М.: МИФИ, 2010. – 328 с.

В книге публикуются тексты лекций, прочитанных на Школе-семинаре«Современные проблемы нейроинформатики», проходившей 26–29 января2010 года в МИФИ в рамках XII Всероссийской конференции «Нейроин-форматика–2010».

Материалы лекций связаны с рядом проблем, актуальных для совре-менного этапа развития нейроинформатики, включая ее взаимодействие сдругими научно-техническими областями.

Ответственный редакторЮ. В. Тюменцев, кандидат технических наук

ISBN 978–5–7262–1225–8 c©Национальный исследовательскийядерный университет «МИФИ», 2010

Page 3: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Содержание

Предисловие 8

В. Л. Дунин-Барковский. Теория мозжечка 14Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15Краткая сводка данных о нейронной организации мозжечка . . . 16Мозжечок и персептрон . . . . . . . . . . . . . . . . . . . . . . . . 18Каковы функции мозжечка . . . . . . . . . . . . . . . . . . . . . . 21Функция лианных клеток . . . . . . . . . . . . . . . . . . . . . . . 22В погоне за Близнецами . . . . . . . . . . . . . . . . . . . . . . . . 23

Поиск потенциалов, отражающих активность разных ветвейаксона лианной клетки . . . . . . . . . . . . . . . . . 25

Наблюдения, связанные с СИ зарегистрированных клеток-близнецов . . . . . . . . . . . . . . . . . . . . . . . . 28

Наблюдения, связанные с СИ и ПИ клеток Пуркинье-близнецов 28Восстановление вне-мозжечкового входа лианной клетки на вы-

ходе клетки Пуркинье . . . . . . . . . . . . . . . . . . . . . . 29Уравнения Маука . . . . . . . . . . . . . . . . . . . . . . . . 31Преобразование информации малыми клетками ядер мозжечка 33Имитационное моделирование мозжечкового модуля . . . . 36Пределы запоминающей способности мозжечкового модуля 39

Мозжечок и когнитивные функции . . . . . . . . . . . . . . . . . 42Обсуждение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

Р. А. Тикиджи-Хамбурьян. Детальное моделирование нейронов и ней-ронных сетей: Как и зачем 49Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50Краткое введение в теорию нейронных сетей . . . . . . . . . . . . 52

Химические и электрические синапсы . . . . . . . . . . . . 54

УДК 001(06)+004.032.26 (06) Нейронные сети 3

Page 4: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Гомогенность, гетерогенность, размерность и связность се-ти. Случайные, диффузные и фокальные проекциинейронов . . . . . . . . . . . . . . . . . . . . . . . . . 56

Краткая теория электрогенеза . . . . . . . . . . . . . . . . . . . . 58Потенциал Нернста . . . . . . . . . . . . . . . . . . . . . . . 58Баланс токов и проводимостей . . . . . . . . . . . . . . . . . 60Уравнение Гольдмана-Ходжкина-Каца . . . . . . . . . . . . . 62

Точечные модели . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64Уравнения Ходжкина-Хаксли . . . . . . . . . . . . . . . . . . 64Различные ионные каналы . . . . . . . . . . . . . . . . . . . 68

Многосегментные модели . . . . . . . . . . . . . . . . . . . . . . . 76Моделирование отростков нейрона. Кабельное уравнение . 76Дендритные деревья и активная мембрана . . . . . . . . . . 78Геометрия дендритного дерева нейрона и типы активности 81

Феноменологические модели нейронов, используемые при по-строении нейронных сетей . . . . . . . . . . . . . . . . . . . 84Модель интегрирующего нейрона . . . . . . . . . . . . . . . 85Модификации модели интегрирующего нейрона . . . . . . . 86Модель ФицХью и Нагумо . . . . . . . . . . . . . . . . . . . 88Модель Ижикевича . . . . . . . . . . . . . . . . . . . . . . . 90Общая сравнительная характеристика феноменологических

моделей . . . . . . . . . . . . . . . . . . . . . . . . . 91Модели синаптической передачи . . . . . . . . . . . . . . . . . . . 92

Модель электрического синапса . . . . . . . . . . . . . . . . 92Феноменологические модели химической синаптической пе-

редачи . . . . . . . . . . . . . . . . . . . . . . . . . . 94Детальные модели химической синаптической передачи . . 95

Примеры моделей биологически обоснованных нейронных сетей 96Модель с автоторможением . . . . . . . . . . . . . . . . . . . 97Модель зрительной коры кошки . . . . . . . . . . . . . . . . 98

Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

Л. А. Станкевич. Искусственные когнитивные системы 106Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107Когнитивный подход и развитие когнитивной науки . . . . . . . . 108Искусственный интеллект и когнитивная наука . . . . . . . . . . 110Когнитивистский и эмерджентный подходы и системы . . . . . . 111

4 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 5: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ ISBN 978–5–7262–1225–8

Когнитивистские системы . . . . . . . . . . . . . . . . . . . 113Эмерджентные когнитивные системы . . . . . . . . . . . . . 115Гибридные модели и системы . . . . . . . . . . . . . . . . . 120

Когнитивные архитектуры . . . . . . . . . . . . . . . . . . . . . . 120Разработка гибридных когнитивных систем . . . . . . . . . . . . 130

Когнитивные концепции . . . . . . . . . . . . . . . . . . . . 131Когнитивный агент гибридной архитектуры . . . . . . . . . 136Средства реализации когнитивных систем . . . . . . . . . . 137

Применение нейрологических модулей и обучения с подкрепле-нием в агентах-игроках для футбола роботов . . . . . . . . . 138

Когнитивная система управления роботом на иммунологическихсетях . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142Система безопасности робота . . . . . . . . . . . . . . . . . 144

Когнитивные агенты на поведенческих сетях . . . . . . . . . . . . 146Когнитивный агент-игрок на поведенческих сетях . . . . . . 148

Когнитивные агенты на адаптивных триангуляционных модулях 152Адаптивный триангуляционный модуль . . . . . . . . . . . . 153Когнитивный агент на адаптивных триангуляционных модулях155

Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

А. А. Жданов. Адаптивные машины — неизбежное направление раз-вития техники. Задачи и проблемы 162Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162Что такое адаптивность . . . . . . . . . . . . . . . . . . . . . . . . 165Что такое управление . . . . . . . . . . . . . . . . . . . . . . . . . 166Несколько критических замечаний в отношении общепринятого

понимания процесса управления . . . . . . . . . . . . . . . . 188Искусственные нейронные сети . . . . . . . . . . . . . . . . . . . 196Синтез систем автономного адаптивного управления . . . . . . . 199Примеры машин с системами автономного адаптивного управления205Математические, технологические и психологические проблемы

перехода к адаптивным технологиям . . . . . . . . . . . . . 208Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210

УДК 001(06)+004.032.26 (06) Нейронные сети 5

Page 6: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

И. Г. Персианцев. Адаптивное построение иерархических нейросете-вых систем для классификации и для сегментации временныхрядов 212Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213Основополагающие идеи метода . . . . . . . . . . . . . . . . . . . 213Алгоритм формирования групп классов . . . . . . . . . . . . . . . 214Алгоритм построения ИНК . . . . . . . . . . . . . . . . . . . . . . 215Свойства алгоритма построения ИНК . . . . . . . . . . . . . . . . 216Результаты численных экспериментов . . . . . . . . . . . . . . . . 217

Одномерное распределение Кантора . . . . . . . . . . . . . . 218Распознавание текстур . . . . . . . . . . . . . . . . . . . . . 221Распознавание гласных . . . . . . . . . . . . . . . . . . . . . 222Дикторонезависимое распознавание изолированных слов . . 224

Нейросетевая сегментация временных рядов . . . . . . . . . . . . 227Описание алгоритма анализа временных рядов с переклю-

чающейся динамикой . . . . . . . . . . . . . . . . . . 228Описание алгоритма анализа временных рядов с дрейфовой

динамикой . . . . . . . . . . . . . . . . . . . . . . . . 230Эксперименты с псевдо-хаотическими временными рядами 232Эксперименты с биомедицинскими данными . . . . . . . . . 236Работа с данными космофизического эксперимента . . . . . 238

Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240

В. Д. Кошур. Нейроинтеллектуальные материалы, системы и кон-струкции 243Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244Примеры адаптивных материалов, систем и конструкций . . . . . 245

Слоистые композиционные материалы . . . . . . . . . . . . 245Активные композиционные панели и подавление вибраций 254Адаптивные конструкции космических телескопов и косми-

ческих антенн . . . . . . . . . . . . . . . . . . . . . . 254Управление акустическими полями и подавление шума . . . 256

Нейрокомпьютерная диагностика и неразрушающий контроль . . 259Классификационная таблица интеллектуальных материалов, си-

стем и конструкций . . . . . . . . . . . . . . . . . . . . . . . 264Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268

6 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 7: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ ISBN 978–5–7262–1225–8

Ю. И. Нечаев. Проблемы моделирования динамики сложных системпри реализации нейросетевых технологий 271Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272Концепция моделирования динамики внешней среды в бортовых

ИС . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274Моделирование динамики объекта как нелинейной диссипатив-

ной системы . . . . . . . . . . . . . . . . . . . . . . . . . . . 281Нейроаппроксимация и нейропрогноз при контроле экстремаль-

ных ситуаций в сложных динамических средах . . . . . . . 286Нейроаппроксимация в задачах контроля динамики сложно-

го объекта . . . . . . . . . . . . . . . . . . . . . . . . 286Нейропрогноз поведения сложного объекта в бортовых ИС 295

Нелинейные эффекты и сценарии развития хаоса в диссипатив-ных динамических средах . . . . . . . . . . . . . . . . . . . 301Динамический хаос в нелинейных диссипативных системах 302Уравнение Дуффинга . . . . . . . . . . . . . . . . . . . . . . 305Обобщенное уравнение Матье . . . . . . . . . . . . . . . . . 306Сценарии перехода к хаосу и управление в хаотических си-

стемах . . . . . . . . . . . . . . . . . . . . . . . . . . 308Управление в самоорганизующихся системах . . . . . . . . . . . 311

Управление в нестандартных ситуациях . . . . . . . . . . . 314Нейросетевые модели управления . . . . . . . . . . . . . . . 315Парадоксы, возникающие при моделировании динамики слож-

ных объектов . . . . . . . . . . . . . . . . . . . . . . 317Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322

УДК 001(06)+004.032.26 (06) Нейронные сети 7

Page 8: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ПРЕДИСЛОВИЕ

1. В этой книге содержатся тексты ряда лекций, прочитанных на Деся-той Школе-семинаре «Современные проблемы нейроинформатики», про-ходившей 26–29 января 2010 года в НИЯУ МИФИ в рамках XII Всерос-сийской научно-технической конференции «Нейроинформатика–2010», атакже текст лекции В. Л. Дунина-Барковского «Теория мозжечка», пред-ставленной ранее, но не вошедшей в состав сборника Школы–2009 [14].

При отборе и подготовке материалов для лекций авторы и редакторследовали принципам и подходам, сложившимся при проведении девятипредыдущих Школ (см. [1–14]). А именно, основной целью Школы было,как всегда, рассказать слушателям о современном состоянии и перспекти-вах развития важнейших направлений в теории и практике нейроинформа-тики, о ее применениях.

Основной задачей лекторов, приглашаемых из числа ведущих специа-листов в области нейроинформатики и ее приложений, смежных областейнауки, было дать живую картину современного состояния исследованийи разработок, обрисовать перспективы развития нейроинформатики в еевзаимодействии с другими областями науки.

2. В программу Десятой Школы-семинара «Современные проблемынейроинформатики» на конференции «Нейроинформатика–2010» вошлиследующие 11 лекций:

1. В. Л. Дунин-Барковский, В. Ф. Кичигина. Нейронные операции в сеп-туме и гиппокампе.

2. А. А. Ежов. Эффект Эфроса (распознавание образов и когнитивнаяслепота).

3. А. А. Жданов. Адаптивные механизмы — актуальное и неизбежноенаправление развития техники. Задачи и проблемы.

4. В. Д. Кошур. Нейро-интеллектуальные материалы, системы и кон-струкции.

5. Н. Г. Макаренко. Выделение независимых компонент из смеси сигна-лов.

6. Ю. И. Нечаев. Проблемы моделирования динамики сложных системпри реализации нейросетевых технологий.

7. И. Г. Персианцев. Адаптивное построение иерархических нейросете-вых систем для классификации и для сегментации временных рядов.

8. А. И. Самарин. Модели активного зрительного восприятия.9. Л. А. Станкевич. Искусственные когнитивные системы.

8 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 9: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.В.ТЮМЕНЦЕВ

10. Р. А. Тикиджи-Хамбурьян. Детальное моделирование нейронов и ней-ронных сетей — как и зачем.

11. А. А. Фролов. Аттракторные нейронные сети: теория и эксперимент.

Шесть из перечисленных выше лекций публикуются в данном сборни-ке, остальные в силу технических причин будут опубликованы в сборникелекций следующей Школы-семинара.

3. В лекции Р. А. Тикиджи-Хамбурьяна «Детальное моделирование ней-ронов и нейронных сетей: как и зачем» рассматривается одна из основныхчастей сравнительно молодого раздела науки, называемого «вычислитель-ные нейронауки» (Computational Neuroscience). Данная лекция призванадать читателю базовые знания в подходах и методах вычислительной ней-ронауки, показать тесную связь между ее методами и проблемами нейро-биологии.

4. В лекции Л. А. Станкевича «Искусственные когнитивные системы»обсуждаются пути развития искусственных когнитивных систем. Один изтаких путей, связанных с разработкой когнитивных гибридных систем, ко-торые способны обучаться восприятию сложной информации и формиро-ванию рационального поведения в динамически изменяющихся средах вреальном времени, рассматривается детально. Показано, что такие систе-мы могут быть эффективны, например, для современных интеллектуаль-ных роботов, поскольку они могут быть базой для разработки искусствен-ной нервной системы таких роботов. Приводятся примеры разработки иприменения обучаемых компонентов когнитивных систем.

5. В лекции А. А. Жданова «Адаптивные механизмы — актуальное инеизбежное направление развития техники. Задачи и проблемы» рассмат-ривается актуальность перехода к технологиям создания адаптивных ма-шин, программ и систем, подобных естественным системам управления.Представлена схема, состав и структура системы автономного адаптивно-го управления (ААС), выведенная из понимания возможностей решениязадачи адаптивного управления в условиях, в которых работают естествен-ные управляющие системы. Проведен сравнительный анализ разработан-ной схемы ААС с функциональной схемой П. К. Анохина. Представленаразработанная модель нейрона как элементарной самообучаемой системыраспознавания, проведено ее сравнение с формальным нейроном искус-ственных нейронных сетей. Описаны разработанные действующие моделиприкладных ААС. Указаны математические, технологические и психоло-гические проблемы перехода к адаптивным технологиям.

УДК 001(06)+004.032.26 (06) Нейронные сети 9

Page 10: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

6. В лекции И. Г. Персианцева «Адаптивное построение иерархиче-ских нейросетевых систем для классификации и для сегментации времен-ных рядов» предложен алгоритм построения самоорганизующегося клас-сификатора на основе многослойного персептрона. В результате работы ал-горитма создается классификатор, имеющий древовидную структуру, каж-дый узел которой представляет собой персептрон. Структура дерева и па-раметры каждого персептрона формируются автоматически. При работе сданными, содержащими большое количество классов, предложенный ал-горитм позволяет существенно снизить вычислительную стоимость реше-ния задачи. Алгоритм был проверен на ряде тестовых и практических за-дач. Предложена модификация алгоритма, допускающая его использованиедля анализа временных рядов с дрейфовым типом изменения динамики.Приводятся результаты численных экспериментов по анализу модельныхпсевдохаотических рядов и анализу реальных данных биомедицинских икосмофизических исследований.

7. В лекции В. Д. Кошура «Нейро-интеллектуальные материалы, систе-мы и конструкции» представлены основные концептуальные идеи, которыележат в основе разработки новых интеллектуальных материалов, системи конструкций. Рассмотрены примеры адаптивных материалов и нейро-управляемых систем, которые используются для трансформации упругих иакустических полей, подавления вибраций и шума, адаптивных конструк-ций космических антенн большого диаметра. Представлена модель нейро-компьютерной диагностики для неразрушающего контроля ответственныхэлементов технических систем при их эксплуатации. Приведена класси-фикационная таблица интеллектуальных материалов и систем, в основекоторой лежит реализация энергетического и информационного обмена,осуществляемого на материальных носителях различного пространствен-ного масштаба от метрового до нанометрового диапазона. Отмечены новыеперспективные направления разработок.

8. В лекции Ю. И. Нечаева «Проблемы моделирования динамики слож-ных систем при реализации нейросетевых технологий» обсуждаются во-просы повышения эффективности моделирования поведения нелинейногодинамического объекта при функционировании бортовой интеллектуаль-ной системы в сложных динамических средах. Основное внимание уделя-ется использованию нейронных сетей при решении задач анализа и интер-претации информации. Сформулирована постановка задачи и концепцияобеспечения эффективности моделирования динамики объекта как суще-

10 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 11: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.В.ТЮМЕНЦЕВ

ственно нелинейной системы. Разработана модель представления волне-ния в виде климатического спектра сложной пространственной структурыи сформулированы сценарии развития шторма. Проведено компьютерноемоделирование динамики взаимодействия нелинейного объекта при раз-личном уровне внешних возмущений.

∗ ∗ ∗Для того, чтобы продолжить изучение вопросов, затронутых в лекциях,

можно порекомендовать такой уникальный источник научных и научно-технических публикаций, как цифровая библиотека ResearchIndex (ее на-зывают также CiteSeer, см. позицию [15] в списке литературы в концепредисловия).

Каждый из хранимых источников (статьи, препринты, отчеты, диссер-тации и т. п.) доступен в полном объеме в нескольких форматах (PDF,PostScript, DjVu и др.) и сопровождается очень подробным библиографи-ческим описанием, включающим, помимо данных традиционного харак-тера (авторы, заглавие, место публикации и/или хранения и др.), такжеи большое число ссылок-ассоциаций, позволяющих перейти из текуще-го библиографического описания к другим публикациям, «похожим» потеме на текущую просматриваемую работу. Это обстоятельство, в сочета-нии с весьма эффективным полнотекстовым поиском в базе документов посформулированному пользователем поисковому запросу, делает библиоте-ку ResearchIndex незаменимым средством подбора материалов по требуе-мой теме.

Помимо библиотеки ResearchIndex, можно рекомендовать также бога-тый электронный архив публикаций [16], а также портал научных вычис-лений [17].

Перечень проблем нейроинформатики и смежных с ней областей, тре-бующих привлечения внимания специалистов из нейросетевого и родствен-ных с ним сообществ, далеко не исчерпывается, конечно, вопросами, рас-смотренными в предлагаемом сборнике, а также в сборниках [1–14].

В дальнейшем предполагается расширение данного списка за счет рас-смотрения насущных проблем собственно нейроинформатики, проблем «по-граничного» характера, особенно относящихся к взаимодействию нейросе-тевой парадигмы с другими парадигмами, развиваемыми в рамках кон-цепции мягких вычислений, проблем использования методов и средствнейроинформатики для решения различных классов прикладных задач. Небудут забыты и взаимодействия нейроинформатики с такими важнейши-

УДК 001(06)+004.032.26 (06) Нейронные сети 11

Page 12: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ми ее «соседями», как нейробиология, нелинейная динамика, численныйанализ и т. п.

Замечания, пожелания и предложения по содержанию и форме лекций,перечню рассматриваемых тем и т. п. просьба направлять электронной поч-той по адресу [email protected] Тюменцеву Юрию Владимировичу.

Литература

1. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // III Всероссийская научно-техническаяконференция «Нейроинформатика-2001», 23–26 января 2001 г. / Отв. ред.Ю. В. Тюменцев. – М.: Изд-во МИФИ, 2001. – 212 с.

2. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // IV Всероссийская научно-техническаяконференция «Нейроинформатика-2002», 23–25 января 2002 г. / Отв. ред.Ю. В. Тюменцев. Часть 1. – М.: Изд-во МИФИ, 2002. – 164 с.

3. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // IV Всероссийская научно-техническаяконференция «Нейроинформатика-2002», 23–25 января 2002 г. / Отв. ред.Ю. В. Тюменцев. Часть 2. – М.: Изд-во МИФИ, 2002. – 172 с.

4. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // V Всероссийская научно-техническаяконференция «Нейроинформатика-2003», 29–31 января 2003 г. / Отв. ред.Ю. В. Тюменцев. Часть 1. – М.: Изд-во МИФИ, 2003. – 188 с.

5. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // V Всероссийская научно-техническаяконференция «Нейроинформатика-2003», 29–31 января 2003 г. / Отв. ред.Ю. В. Тюменцев. Часть 2. – М.: Изд-во МИФИ, 2003. – 180 с.

6. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // VI Всероссийская научно-техническаяконференция «Нейроинформатика-2004», 28–30 января 2004 г. / Отв. ред.Ю. В. Тюменцев. Часть 1. – М.: Изд-во МИФИ, 2004. – 200 с.

7. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // VI Всероссийская научно-техническаяконференция «Нейроинформатика-2004», 28–30 января 2004 г. / Отв. ред.Ю. В. Тюменцев. Часть 2. – М.: Изд-во МИФИ, 2004. – 200 с.

12 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 13: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.В.ТЮМЕНЦЕВ

8. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // VII Всероссийская научно-техническаяконференция «Нейроинформатика-2005», 26–28 января 2005 г. / Отв. ред.Ю. В. Тюменцев. – М.: Изд-во МИФИ, 2005. – 216 с.

9. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // VIII Всероссийская научно-техническаяконференция «Нейроинформатика-2006», 24–27 января 2006 г. / Отв. ред.Ю. В. Тюменцев. – М.: Изд-во МИФИ, 2006. – 244 с.

10. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // IX Всероссийская научно-техническаяконференция «Нейроинформатика-2007», 24–26 января 2007 г. / Отв. ред.Ю. В. Тюменцев. Часть 1. – М.: Изд-во МИФИ, 2007. – 180 с.

11. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // IX Всероссийская научно-техническаяконференция «Нейроинформатика-2007», 24–26 января 2007 г. / Отв. ред.Ю. В. Тюменцев. Часть 2. – М.: Изд-во МИФИ, 2007. – 148 с.

12. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // X Всероссийская научно-техническаяконференция «Нейроинформатика-2008», 22–25 января 2008 г. / Отв. ред.Ю. В. Тюменцев. Часть 1. – М.: Изд-во МИФИ, 2008. – 152 с.

13. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // X Всероссийская научно-техническаяконференция «Нейроинформатика-2008», 22–25 января 2008 г. / Отв. ред.Ю. В. Тюменцев. Часть 2. – М.: Изд-во МИФИ, 2008. – 164 с.

14. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // XI Всероссийская научно-техническаяконференция «Нейроинформатика-2009», 27–30 января 2009 г. / Отв. ред.Ю. В. Тюменцев. – М.: Изд-во МИФИ, 2009. – 280 с.

15. CiteSeerx: Scientific Literature Digital Library and Search Engine.URL: http://citeseerx.ist.psu.edu/

16. The Archive arXiv.org e-Print archive — Physics, Mathematics, Nonlinear Sciences,Computer Science.URL: http://arxiv.org/

17. Портал научных вычислений (Matlab, Fortran, C++ и т. п.)URL: http://www.mathtools.net/

Редактор материалов выпуска,кандидат технических наук Ю. В. Тюменцев

E-mail: [email protected]

Page 14: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В. Л. ДУНИН-БАРКОВСКИЙОтдел нейроинформатики, Центр оптико-нейронных технологий,

НИИ системных исследований РАН, МоскваE-mail: [email protected]

ТЕОРИЯ МОЗЖЕЧКА

Аннотация

Приведен аналитический обзор данных о нейронных операциях в мозжеч-ке. Эти операции основаны на роли клеток нижних олив (лианных клеток),дающих лианные волокна на клетках Пуркинье мозжечка, в работе мозжеч-ка. Совокупность морфологических, физиологических и модельных данных,полученных после появления гипотезы обучения в мозжечке (Marr, 1969),свидетельствует о том, что эта гипотеза в целом верна, но детали работынейронов мозжечка сильно отличаются от первоначальных идей. Как нали-чие, так и отсутствие импульсации лианной клетки являются сигналами длямодификации синапсов параллельных волокон на клетках Пуркинье, котораязависит также от активности пресинаптических волокон. Хранение инфор-мации реализуется как адаптивная аппроксимация значений запоминаемойфункции комбинациями величин активности зернистых клеток. Запомина-ющая емкость системы определяется количеством участвующих в ее работемодифицируемых синапсов. Запоминающие способности клеток Пуркинье,управляемых одной лианной клеткой, суммируются. Заключается, что сей-час уже сложился комплекс основных представлений о том, как и что делаетмозжечок, и актуальны исследования по детализации этих представлений.Настоящий обзор дополняет новыми данными статью (Дунин-Барковский,Подладчикова, 2002).

14 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 15: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

W. L DUNIN-BARKOWSKIDepartment of Neuroinformatics, Center for Optical Neural Technologies,

Scientific Research Institute for System Analysis,Russian Academy of Sciences, Moscow

E-mail: [email protected]

THEORY OF CEREBELLUMAbstract

A survey of the data on neural operations in the cerebellum is given. Theseoperations are based on a role of climbing fiber cells (neurons of inferior olives),in functions of the cerebellum. It is shown that the whole set of morphological,physiological, and model data obtained after publicizing of the cerebellar learningtheory (Marr, 1969) proves that the theory is correct in its basic principles,although many details of the work of cerebellar neurons much differ frominitial ideas. Impulses of a climbing fiber cell as well as absence of impulsesserve as signals for modification of synapses of parallel fibers on Purkinje cells.The synaptic changes also depend on activity of presynaptic fibers. Informationstorage in the cerebellum is implemented as adaptive approximation of (real-valued non-negative) stored functions with combinations of activity of granulecells. The storage capacity of the system is determined by a number of modifiablesynapses in the system. Storage capacities of different Purkinje cells controlledwith a single climbing fiber cell are additive. A formulation of a problemfor physiological experiments of analysis of work of pairs of Purkinje cellscontrolled with a single climbing fiber cell, and first results of such experimentsare described. It is concluded that the skeleton of principles of how the cerebellumworks and what it does is established now and studying the details of thesemechanisms are on agenda. The present survey is an updated version of (Дунин-Барковский, Подладчикова, 2002).

Введение

Общеизвестна удивительная однородность и регулярность мозжечка – струк-туры мозга, ответственной за координацию движений и двигательное обу-чение, что привлекало к его исследованиям пристальное внимание ученыхразных специальностей. Благодаря этому детали нейронной организациимозжечка изучены на структурном, функциональном и вычислительномуровнях, по-видимому, лучше, чем характеристики других отделов мозга.И, хотя до сих пор нет общепринятой доминирующей концепции того, какработает мозжечок, ее контуры постепенно проясняются.

УДК 001(06)+004.032.26 (06) Нейронные сети 15

Page 16: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Краткая сводка данных о нейронной организациимозжечка

Мозжечок — это 10% массы мозга и от 50% до 90% общего числа нерв-ных клеток (когда не оговорено противное, речь идет о мозжечке человека).Центральной в мозжечке бесспорно является клетка Пуркинье (КП), — оче-видно самая красивая клетка в нервной системе позвоночных (рис. 1). Ниодна книга о нервных клетках не обходится без ее «портрета». ДендритыКП (общая длина — около 10 мм, среднее расстояние до тела клетки около400 мкм) равномерно упакованы в параллелепипед («листок») с размерами(500 мкм)× (500 мкм)× (10 мкм). КП расположены в коре мозжечка в одинслой и их дендритные «листки» параллельны друг другу. На каждую КПдействует чрезвычайно много (до 500 тыс.) синапсов от зернистых клеток,получающих входы от мшистых волокон (Ito, 1984, 2001, 2006, 2008).

РИС. 1. Клетка Пуркинье мозжечка крысы в опыте по исследованию ееэлектрических реакций и динамики внутриклеточного кальция. Тем-ная полоса, подходящая слева к телу клетки — это электрод, обеспе-чивающий режим фиксации потенциала всей клетки (фото из работы(Artinian, Finch, 2003))

16 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 17: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

Аксоны зернистых клеток называются параллельными волокнами (ПВ).Они практически параллельны друг другу и перпендикулярны плоскостидендритов КП. Длина ПВ — до 6 мм; каждое из них пронизывает до 1000«листков» КП. Помимо входов от большого числа зернистых клеток накаждую КП через сложный синапс оказывает мощное воздействие одиноч-ное входное нервное волокно — лианное волокно (ЛВ). Клетки — источ-ники этих волокон (лианные клетки, ЛК) расположены вне мозжечка (вядрах нижних олив), но их естественно считать элементами его устрой-ства. Каждая ЛК действует на несколько разных КП (у крысы, в среднем,7, с диапазоном от 2 до 17 (Sugihara et al., 2001, Sugihara, 2006)).

Активность КП чрезвычайно разнообразна — от длительных пауз довысокочастотных пачек импульсов. В частности, ЛК активируют КП сосредней частотой 1 раз в секунду, при этом как слишком длинные, таки короткие межимпульсные интервалы редки. В силу конструкции синап-са ЛВ и его расположения на ближних к телу клетки ветвях дендритовКП даже одиночный импульс ЛК вызывает мощное кратковременное (1–4импульса с мгновенной частотой до 500 имп/с) возбуждение КП, котороеназывается сложным импульсом (СИ) в отличие от простых, обычных, им-пульсов, которыми клетка работает в остальное время с частотой до 150имп/с. Генерация простых импульсов (ПИ) обусловлена входами ПВ.

КП являются выходными клетками коры мозжечка. Их аксоны обес-печивают управление активностью ядер мозжечка. Разные отделы корымозжечка связаны с разными ядрами. КП через интернейроны ядер ока-зывают воздействие на ЛК. Это воздействие осуществляется через особыйтип клеток в ядрах мозжечка — малые тормозные клетки (МТК). Каждая ихэтих клеток имеет тормозящие синапсы на всех ЛК, формирующих вход ктем же КП, которые дают выход на данную МТК. В конечном счете воз-буждение КП оказывает возбуждающее воздействие на ее ЛК, формируякак бы сигналы положительной обратной связи.

Размерами и тонкостью устройства мозжечка человек отличается отобезьяны практически так же сильно, как и корой больших полушарий моз-га. То есть, не исключено, что часть исключительно человеческих функций(функций, отличающих человека от обезьяны) выполняется с существен-ным (или исключительным) участием мозжечка.

УДК 001(06)+004.032.26 (06) Нейронные сети 17

Page 18: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 19: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

Во-вторых, уже лет пятнадцать как стало известно, что выходные сигналыиз коры мозжечка (от клеток Пуркинье) поступают на вход «обучающих»лианных клеток. Таким образом мозжечковый мультиперсептрон охваченсильной обратной связью. Интересно, что связь эта является одновременнои положительной и отрицательной.

Эта связь положительна, поскольку лианное волокно возбуждает клет-ку Пуркинье, клетка Пуркинье тормозит клетки ядер мозжечка, которые,в свою очередь, тормозят лианные клетки, т. е., в конечном счете, возбуж-дение лианной клетки приводит к положительному сигналу на входе этойклетки. Прямых экспериментов по тестированию данного механизма по-ложительной обратной связи не проводилось. В принципе, не исключено,что ее и нет, если лианная клетка помимо лианных синапсов на клеткахПуркинье имеет синапсы на тех клетках ядер мозжечка, которые замыка-ют обратную связь на лианные клетки. Такие связи могли бы блокироватьэффект непосредственного возбуждения клетки Пуркинье лианным волок-ном.

Отрицательная обратная связь с лианных клеток на себя через клеткиПуркинье подтверждена в многочисленных экспериментах и замыкаетсяследующим образом. Связи с зернистых клеток (т. е., с их аксонов — па-раллельных волокон) на клетках Пуркинье все время меняют свою силу.Причем, сила связей может как расти, так и уменьшаться. Скорость изме-нения весов связей контролируется, в основном, двумя факторами. Первыйиз них — фактор лианной клетки. Его величина и знак переменны во време-ни и зависят только от времени, прошедшего с момента начала последнегоимпульса лианной клетки. Точная форма этой зависимости не изучена, но впервом приближении — это ступенчатая функция, отрицательная на интер-вале от нуля до 20 мс и положительная при остальных значениях аргумента.Интеграл от этой функции по ее аргументу от нуля до текущего положи-тельного значения обращается в нуль при значении аргумента около однойсекунды. Это значение, называется равновесным интервалом (активности)лианной клетки. Второй фактор, влияющий на скорость изменения связейпараллельных волокон, фактор параллельного волокна, зависит от того, ка-кова была активность пресинаптической зернистой клетки на интервалевремени, предшествующем текущему моменту. То есть, фактор представ-ляет собой свертку активности пресинаптического нейрона с некоторымядром, точные характеристики которого неизвестны. В том случае, когдафактор параллельного волокна постоянен, а лианная клетка разряжаетсяс равновесным интервалом, сила связи параллельного волокна с клеткой

УДК 001(06)+004.032.26 (06) Нейронные сети 19

Page 20: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Пуркинье, слегка колеблясь, остается постоянной в течении длительноговремени.

В реальном мозжечке, во всех случаях, когда активность лианного во-локна прекращалась (например, при повреждении или временном охлажде-нии лианной клетки), в течение 10 минут после прекращения возбуждениялианной клетки частота работы клеток Пуркинье становилась очень боль-шой и оставалась такой до конца периода наблюдения, или до тех пор, покане начинает возбуждаться лианная клетка (Colin et al., 1980).

Отведение активности от клеток Пуркинье в большинстве эксперимен-тальных условий показывает, что импульсы лианной клетки генерируютсяобычно как бы случайно, со слабой или отсутствующей корреляцией сдинамикой действий, в которую мозжечок вовлечен. Корреляция между со-седними межимпульсными интервалами незначительна. Средний межим-пульсный интервал — около одной секунды.

Теоретический анализ работы упрощенной модели мозжечкового моду-ля в случае постоянных входных сигналов (как по скалярному входу, таки по векторному входу состояний внешней системы) показывает, что прилюбых начальных условиях система приходит в стационарное состояниеза экспоненциальное время.

Имитационные эксперименты показывают, что в стационарном состоя-нии лианная клетка работает в режиме динамического хаоса со средним ме-жимпульсным интервалом, равным равновесному интервалу лианной клет-ки. Переход из одного равновесного состояния системы в другое при заменевходных констант на новые случайные значения занимает около тысячи та-ких интервалов. К стационарному режиму работы лианной клетки системаприходит и в том случае, когда сигналы на входе системы непрерывноизменяются, оставаясь функциями одного скалярного параметра. Если жесигналы на входе системы — периодические функции такого параметра,статистические свойства активности лианной клетки в стационарном ре-жиме не отличаются от характеристик этой активности при постоянныхсигналах на входе системы. В последнем случае выход системы опережаетвходной сигнал по фазе, на величину, зависящую от постоянной време-ни клеток ядер. В этом смысле модуль осуществляет как бы предсказаниевходного сигнала. Что, безусловно может быть полезно для всех функций,в которых мозжечок может принимать участие.

20 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 21: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

Каковы функции мозжечка

На этот вопрос примерно с равным основанием можно ответить двояко,например: «Мозжечок делает все». Или: «Мозжечок ничего не делает».Разрешение парадокса в том, что мозжечок вырабатывает, хранит и от-вечает за выполнение основной массы тонких деталей любых движений,выполняемых мозгом, как физических или мысленных, так и движенийдуши. Последнее становится понятным только в самое последнее время(Ito, 2008; Ackermann, 2008). В частности, есть гипотеза, что мозжечок от-ветственен за интуицию, т. е. решение стоящих перед человеком задач безосознания процесса решения.

Практически всякое движение может быть исполнено как грубо, тяп-ляп, так и может быть насыщенно массой деталей. Наличие многих деталейможет казаться не необходимым для конечной функции, но они могут су-щественно влиять на качество выполняемых действий. Хорошая аналогияздесь — принятие пищи. Происходить оно может как в роскошных рестора-нах с роскошными блюдами, так и просто в любом месте, любым способоми продуктами лишь покрывающими необходимые энергетические и ассор-тиментные (водные, солевые, витаминные и т. д.) потребности организма.И то и другое — питание, но цены их могут различаться на многие порядкивеличины.

А представление о «ненужности» мозжечка (в особо яркой форме вы-сказался на эту тему Джефф Хокинс в своей знаменитой книге «Об ин-теллекте» (Hawkins, Blakeslee, 2004)) возникло вот почему. При грубомобследовании движений животных и человека можно сказать, что все онивозможны и в отсутствие мозжечка (т. е. — «мозжечок ни для чего не ну-жен»). Хотя, оказывается, что не все движения — полет птиц и летучихмышей без мозжечка невозможен. Очевидно, суть дела здесь в том, чтополеты вообше невозможны без огромной массы тонких деталей. Кстати,мозжечок летающих позвоночных, больше по размерам и совершеннее поструктуре, чем у их нелетающих ближайших родственников. Но человекбез парашюта или самолета не летает, поэтому Хокинс считает, что мозже-чок к интеллекту не имеет отношения. Поправляя этого автора, отважногорыцаря, первого из успешных создателей современных вычислительныйсредств, решившегося на «лобовую атаку» на создание искусственного ра-зума, можно сказать, что мозжечок нужен для полета. И, в частности, —для полета мысли.

УДК 001(06)+004.032.26 (06) Нейронные сети 21

Page 22: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Функция лианных клеток

Как отмечалось выше, для внешнего наблюдателя кора мозжечка с входны-ми мшистыми волокнами, переключающимися на зернистых клетках и да-лее действующими на КП, на каждую из которых действует еще и сильный«хозяин» — ЛВ, один в один похожа на трехслойный персептрон Розенблат-та (Rosenbaltt, 1962). Даже несколько странно, что интерпретация структу-ры коры мозжечка как множества персептронов появилась только в 1969–1971 гг. (Marr, 1969, Albus, 1971). После появления этой теории началисьинтенсивные поиски процессов обучения в мозжечке (Дунин-Барковский,Ларионова, 1976; Gilbert, Thach, 1977, Ito, 1977; Дунин-Барковский и др.,1987; и многие другие). Результаты этих поисков будут рассмотрены ниже.Как в контексте парадигмы обучения, так и вне нее, надо было пытаться по-нять, что и как делает лиана, образующая на КП, пожалуй, самый сильныйсинаптический контакт между клетками нервной системы позвоночных.

Трудности с лианными клетками — большие. С одной стороны, этиклетки формируют одно из самых сильных синаптических соединений внервной системы. С другой стороны, ЛК работает импульсами с частотой 1имп/с. Моменты появления импульсов у ЛК в большинстве случаев слабокоррелированы с какими-нибудь внешними событиями. Несмотря на низ-кую среднюю частоту импульсации, которая сохраняется на одном и том жеуровне в течение интервалов времени порядка десятка минут, ЛК так илииначе функционирует постоянно. ЛК вызывает мощное возбуждение КП,но это гипервозбуждение порождает на выходе КП лишь 2–3 импульса, закоторыми часто следует пауза. Уже из этого краткого описания более илименее понятно, что ЛК функционирует как-то не так, как «нормальные»нейроны. Мы с двух разных сторон попытались подойти к анализу функ-ции ЛК в работе КП. Первый подход — экспериментальный. Задача этогоподхода состояла в том, чтобы исследовать одновременно активность раз-ных КП, управляемых ЛВ одной и той же ЛК. Если активность ЛВ влияетна формирование связей ПВ с КП, то у КП, получающих ЛВ от одной ЛК(«лианных близнецов») корреляция активности их ПИ должна быть зна-чительно выше, чем у КП, контролируемых разными ЛК (см. следуюшийраздел).

Второй подход — теоретический. Он основывался на гипотезе, впервыевысказанной в работе М. Маука с соавторами о том, что пластичность си-напсов ПВ на КП позволяет поддерживать постоянной среднюю частотуактивности ЛК при изменении синаптического притока на эти клетки из

22 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 23: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

вне-мозжечковых источников (Mauk, Donegan, 1997; Medina et al., 2000).Мы предложили аналитическую формулировку этой гипотезы в виде урав-нений Маука и исследовали ее следствия (Dunin-Barkowski et al., 1998;Dunin-Barkowski, Wunsch, 1999, 2000; Dunin-Barkowski, 2002). Имитацион-ное моделирование и теоретические расчеты показали, что мозжечковыймодуль, основанный на гипотезе Маука, объясняет экпериментальные дан-ные, которые не закладывались исходно в модель, и является удобным имощным вычислительным инструментом, работой которого можно объяс-нить большинство известных функций мозжечка. Эти подходы позволилинам с помощью методов Computational Neuroscience сделать существенныйшаг к пониманию «нейронной механики» мозжечка — т. е. нейронных ме-ханизмов, реализованных в этой структуре мозга. Изложение результатовниже состоит из нескольких фрагментов, каждый из которых затрагиваетразные аспекты работы этой структуры.

В погоне за Близнецами

– Почему же его никто не можетпоймать?

– Да он никому не нужен.

Из анекдота о Неуловимом Джо

В 1976 г. автору данного обзора пришла идея о том, что ключ к пониманию«механики» мозжечка может дать регистрация пар КП, контролируемыходной и той же ЛК. Позднее, в НИИ нейрокибернетики им. А. Б. Когана мыстали называть такие КП лианными «близнецами». Исходно идея «ловитьпары близнецов» появилась как идеальное средство «проверки» гипотезы отом, что ЛВ определяет связи КП с ПВ (Дунин-Барковский, 1976). Главноепреимущество этой экспериментальной модели виделось в том, что онаможет дать возможность посмотреть на результаты «обучения», имевше-го место когда-то в прошлом в истории данных клеток. Иными словами,обучение (если оно имело место) проходило в абсолютно естественныхусловиях. Такой подход контрастировал с разнообразными схемами опы-тов по «обучению» КП, реализованными в известных экспериментальныхработах, использовавших преимущественно сочетанную стимуляцию вхо-дов ПВ и ЛВ (Ito et al., 1982, Дунин-Барковский и др., 1987; Linden, 1996;Artinian, Finch, 2003; и многие другие). В качестве одного из критериев то-

УДК 001(06)+004.032.26 (06) Нейронные сети 23

Page 24: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

го, что КП контролируются одной и той же ЛК, предполагалось сравниватьвремена возникновения СИ у пар КП — близнецов. На основании извест-ных данных (о скорости распространения импульсов по ЛВ, характере ихветвления, стабильности ЛП ответов КП на стимуляцию ЛВ и пр.) сле-довало ожидать (Дунин-Барковский, 1978), что СИ у лианных близнецовдолжны быть или синхронны или иметь постоянный временной сдвиг по-рядка 1–2 мс с высокой стабильностью (флуктуация менее 10% от исходнойвеличины).

Однако регистрация активности КП-близнецов была нерешенной экс-периментальной задачей. Несмотря на множество косвенных указаний наналичие таких КП (Ito, 1984), регистраций КП с синхронными СИ и несин-хронными ПИ, что соответствует критериям активности КП с общим ЛВ, влитературе до начала наших исследований не было описано. Единственнаязапись синхронных СИ двух КП без анализа особенностей их активностипредставлена в работе (Bell, Kawasaki, 1972). Но, похоже, что в той работе«близнецы» не регистрировались. Сложность проблемы поиска и регистра-ции активности КП с общим ЛВ отмечалась в ряде работ (например, Sasakiet al., 1989) и в личных дискуссиях в 1976–2001 гг. (П. Г. Костюк, М. Ито,Ю. И. Аршавский, И. А. Кедер-Степанова, Дж. Симпсон и другие). Начинаяс 1990 г. над указанной проблемой началась совместная работа автора об-зора и Л. Н. Подладчиковой с сотрудниками. Первая наша публикация наэту тему появилась в 1993 г. (Dunin-Barkowski et al., 1993) и это было посуществу анонсирование намерений. В последующие годы была разрабо-тана стратегия поиска «близнецов» и получены первые результаты в этомнаправлении — регистрация активности удаленных друг от друга лианныхокончаний аксона ЛК (Дунин-Барковский и др., 1997). В 1999 г. мы опуб-ликовали также данные по двум парам близнецов (Dunin-Barkowski et al.,1999; Дунин-Барковский и др., 1999). Только у одной из этих пар одновре-менно наблюдались и сложные и простые импульсы КП. Разработанныеметоды проведения эксперимента и анализа данных позволили фактическив каждом опыте (n = 18) наблюдать в коре мозжечка морских свинок икрыс активность (в том или ином виде) от одной до трех пар КП с общимЛВ. Ниже мы подробнее опишем результаты наших поисковых исследова-ний, проведенных на коре мозжечка морской свинки.

24 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 25: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

РИС. 3. Два примера (а, б) пар КП-«близнецов». Расстояние междуэлектродами в референтном (верхние кривые, отмечены H) и тесто-вом (нижние кривые) отведениях 400 мкм (а) и 600 мкм (б). При-ведены усредненные сложные импульсы, в каждой паре кривых (а) и(б) верхние и нижние кривые получены одновременно в одном опы-те и их изображение синхронизировано по времени; n — количествоусредненных потенциалов. В случае (а) индивидуальные СИ и ПИидентифицировались как в референтном, так и тестовом отведениях.В (а) СИ в референтном отведении опережает СИ в тестовом отведе-нии, в (б) наблюдаются обратные временные отношения между двумяСИ. Форма СИ во всех четырех случаях различна

Page 26: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

второй электрод на значительных расстояниях (от нескольких сотенмикрон до нескольких миллиметров) в одной парасагиттальной плос-кости (±200 мкм) с первым электродом и искать зоны, в которых вид-ны потенциалы, синхронные с СИ, регистрируемыми первым элек-тродом. После нахождения точки с ощутимыми следами СИ пред-полагалось подробно исследовать окрестности такой точки с учетомполученных на первом этапе данных о расстоянии, на котором можетбыть зарегистрирован потенциал, связанный с возбуждением даннойКП.

3. В другой серии опытов мы применяли «гребенки», состоящие изнескольких (до 6) электродов, расположенных на одной линии, внадежде обнаружить (как бы случайно) пару КП, контролируемыхобщей ЛК.

На первом этапе поисковых экспериментов удачной оказалась втораясерия опытов. Получено 14 парных регистраций потенциалов СИ (из 255),которые соответствуют приведенным выше критериям обусловленностиактивностью разных ветвей аксона одной ЛК. Эти регистрации представ-лены одной парой КП с идентифицируемыми СИ и ПИ у обеих клеток(рис. 3а), одной парой КП с СИ без ПИ (рис. 4а) и 12-ю парами — с нали-чием СИ и ПИ в одном из отведений (референтном) и низкоамплитудныхполевых потенциалов (НАПП) в другом (тестовом) отведении (рис. 3б),выявляемых при синхронной суммации потенциалов в обоих отведениях.НАПП имели сходство формы и длительности с СИ. В частности, длитель-ность НАПП коррелировала (r = +0.89) с длительностью референтныхСИ (10.46± 4.31 мс и 10.49± 4.15 мс). Кроме того, НАПП проявляли ста-бильность параметров в разных выборках суммации и жесткую привязкупо времени к СИ референтной КП. Они начинались раньше или позжереферентного СИ (см. рис. 3), в среднем, на 0.82 ± 0.58 мс, при этом раз-личие в парах независимых выборок суммации референтных СИ однойКП составило 0.09 ± 0.03 мс. Обнаруженные свойства НАПП указываютна то, что наиболее вероятный источник этих потенциалов — постсинап-тическое действие на не идентифицированную КП одной из ветвей ЛВ,контролирующего референтную КП.

Что мы увидели в первых регистрациях (14 пар) активности КП-близ-нецов?

26 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 27: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

РИС. 4. Динамика синхронизации СИ у пар КП с общим (а-в) и разны-ми ЛВ (г). (а) пример СИ одной из пар КП-близнецов при синхронных(слева) и асинхронных (в центре и справа) разрядах; (б) пример дли-тельных (слева) и коротких (справа) СИ другой пары КП-близнецов;(в, г) функции кросскорреляции СИ одних и тех же КП при измене-нии длительности СИ

УДК 001(06)+004.032.26 (06) Нейронные сети 27

Page 28: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Наблюдения, связанные с СИ зарегистрированных клеток-близнецов

1. Во-первых, мы увидели то, что ожидали увидеть: в мозжечке встре-чаются практически синхронные СИ клеток, расположенных достаточнодалеко друг от друга — на расстояниях от 200 мкм до 900 мкм.

2. Во-вторых, неожиданно оказалось, что часто наблюдается отсутствиеСИ в одном из каналов (Рис. 4а) при его присутствии в другом канале (всреднем, вероятности таких событий — 0.05 и 0.18 для двух пар, пред-ставленных на рис. 3а и 4а, соответственно). Обнаружено, что вероятностьсовместного разряда СИ у пар КП с общим ЛВ зависит от ряда параметровактивности. В частности, при раздельной суммации потенциалов в режи-мах синхронной и асинхронной генерации СИ оказалось, что асинхронныеСИ у каждой КП были короче по длительности (на 2–6 мс) и имели мень-ше компонент, чем синхронные (рис. 4а, см. также (Дунин-Барковский идр., 1999)), при этом степень синхронизация длительных СИ была многовыше, чем у СИ короткой длительности (рис. 4в). У пар КП, иннервиру-емых разными ЛВ и расположенных на расстоянии 100–200 мкм друг отдруга, в редких случаях также проявлялась более выраженная грубая син-хронизация длительных СИ по сравнению с СИ короткой длительности(рис. 4г).

3. Форма СИ у «близнецов» может достаточно сильно отличаться (см.рис. 3). В том случае, когда форма СИ имела отчетливый колебательныйхарактер, период этих колебаний был разным (0.9 мс для одной клеткии 1.5 мс для другой клетки на рис. 3а). Подобные различия формы СИобнаружены в 10 из 14 случаев регистрации пар КП с общим ЛВ.

Наблюдения, связанные с СИ и ПИ клеток Пуркинье-близнецов

1. Характер зависимости ПИ от СИ для двух клеток близнецов — раз-ный. У одной КП наблюдается только кратковременное торможение актив-ности, в то время как у другой клетки — реакция многофазная: торможение-возбуждение-торможение (рис. 5.2а). Одной из возможных причин стольразличного поведения КП с общим ЛВ могло являться различие формы ихСИ (см. выше). Это предположение было тестировано на всей выборке за-регистрированных КП (n = 41). Оказалось, что не только взаимодействиямежду СИ и ПИ (рис. 5.2б), но и все проявления активности данной КП,

28 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 29: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

включая свойства ПИ (Подладчикова и др., 2002), коррелируют с типом СИ(«быстрый» или «медленный»).

2. Характер функции автокорреляции у обеих клеток был сходный, ноне идентичный (рис. 5.1а).

3. Вопреки нашим ожиданиям, мы не обнаружили выраженной крос-скорреляции простых импульсов КП-близнецов на временах порядка вре-мени их автокорреляции (Дунин-Барковский и др., 1999).

4. При анализе тех случаев, когда собственный СИ КП был блокиро-ван, обнаружено торможение в активности ПИ после сложного импульсаКП-двойника, в то время как у пар КП, иннервируемых разными ЛВ, тор-

Page 30: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 5. Функции автокорреляции ПИ (1) и кросскорреляции междуСИ и ПИ (2) у КП с СИ «быстрого» (слева) и «медленного» (справа)типов. На (1) и (2) верхний ряд — гистограммы активности однойиз КП-близнецов, нижний ряд — усредненные гистограммы для всейвыборки КП данного типа. Гистограммы нормированы к 50 отсчет-ным импульсам; на (1а) и (1б) значение функций в нулевом кванте,равное 1, не представлено. Вверху показаны примеры СИ «быстрого»и «медленного» типов

30 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 31: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

зернистых клеток, которые активируются непосредственно вслед за воз-буждением ЛВ — уменьшают свою эффективность (так называемая дол-говременная депрессия в мозжечке (Ito, 1984, 2001), а синапсы зернистыхклеток, которые возбуждаются в отсутствие возбуждения ЛВ, увеличиваютсвою эффективность. Отсюда следует, что пластичность связей зернистыхклеток с КП организована таким образом, что поддерживает более или ме-нее постоянным суммарный синаптический приток к ЛК. В самом деле,если возрастает синаптический приток к ЛК извне мозжечка, они начнутчаще возбуждаться. В силу этого, синаптические связи зернистых клеток натой КП, на которую действует данная ЛК начнут ослабляться, что вызоветувеличение тормозящего входного сигнала на ЛК (КП ослабят торможениеклеток ядер, а те — увеличат торможение ЛК). Данное грубое описаниене дает представления о том, что может происходить в динамике, когда намозжечок поступают быстро изменяющиеся сигналы и входная информа-ция на ЛК коррелирована с активностью зернистых клеток. Мы провелинеобходимый анализ и моделирование работы лианной ячейки мозжечка(Dunin-Barkowski, 2002; Вышинский и др., 2003), чтобы оценить роль ука-занных факторов в работе системы. Основные результаты описаны ниже.

Уравнения Маука

Рассмотрим конструкцию на рис. 6a. Мы будем использовать следующиеобозначения и предположения:Π(t) — частота простых импульсов КП (неотрицательная непрерывная пе-

ременная);g(t) = (g1(t), . . . , gN(t)) — активность зернистых клеток; gi равно либо 1

либо 0;σ1, . . . , σN — веса возбуждающих синапсов зернистых клеток на КП, неот-

рицательная непрерывная переменная;α(t) — внешний (не от КП) синаптический вход на ЛК;N — количество зернистых клеток, действующих на одну КП.

Связи от КП к ЛК осуществляются малыми ядерными клетками (непоказаны на рис. 6a). Детали работы этого звена обсуждаются ниже. Нарис. 6а выход КП имеет двойное обозначение: Π(t) и a(t), чтобы подчерк-нуть тот факт, что Π(t) часто может быть копией (но инверсированной!)a(t). Это обстоятельство является важнейшим свойством мозжечкового мо-дуля и детально описано ниже.

УДК 001(06)+004.032.26 (06) Нейронные сети 31

Page 32: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 6. Основные элементы мозжечкового модуля: (а) базовая струк-тура, здесь Π — КП, C — ЛК, g1, . . . , gN — аксоны зернистых кле-ток, σ1, . . . , σN — синаптические веса, α(t) — внешний вход на C,Π(t) и ea(t) — выход Π; (б) зависимость синаптической пластично-сти от времени, прошедшего с момента последнего возбуждения ЛК;Tequ — равновесный интервал; (в) характеристики активности зер-нистых клеток, g1, . . . , gN — активность зернистых клеток. Овальнаялиния представляет возможные значения векторов активности зерни-стых клеток; стрелки показывают направление изменения активностиво времени; (г) временной ход внешнего входа на ЛК, s — параметрвходного множества

Поведение системы мы описываем следующими уравнениями Маука:

Π(t) =

N∑

i=1

∫ t

−∞

σi(θ)gi(θ) exp( t− θTΠ

) dθTΠ

, (1)

dσi(t)

dt= εξ(t− tj)ei(t), i = 1, . . . , N , (2)

ei(t) = Φ(gi(θ)), (3)

ei(t) = I exp(−(t− vi)/Te), (3′)∫ tj+1

tj

(α(θ) + βΠ(θ)

)exp( tj+1 − θ

Tc

)dθ = H, j = 0, 1, 2, . . . (4)

Большая часть обозначений описана выше. Остальные обозначения икомментарии — следуют. Уравнение (1) описывает работу КП. Его выход-ной (непрерывный) параметр — частота ПИ. Мы используем простейший

32 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 33: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

оператор для описания КП, поскольку вычисления показывают, что точ-ная форма вход-выходной зависимости КП мало влияет на работу системы(Dunin-Barkowski, 2002). Уравнения (2) — основа системы. Их столько же,сколько синапсов ПВ на КП. Согласно этим уравнениям веса этих синап-сов постоянно изменяются. Скорость изменения пропорциональна «лиан-ной» функции пластичности χ(τ), представленной на рис. 6б. Эта функцияобобщает экспериментальные данные о двунаправленной синаптическойпластичности (Mauk, Donegan, 1997, Ito, 2006). Величина Tequ на рис. 6бобозначает равновесный интервал работы ЛК, в течение которого суммаположительных и отрицательных площадей под кривой χ(τ) достигает ну-ля. Второй зависящий от времени множитель в (2) представляет собойготовность синапса к изменениям, e(t). Этот фактор зависит от активно-сти пресинаптического ПВ, g(t), но не совпадает с ней, как показываютуравнения (3) и (3’). Очевидно, (3) и (3’) отображают накопление и рас-пад метаботропного фактора в синапсах ПВ на КП. Последний следуетотличать от ионотропного действия этих синапсов (фактически описывае-мого уравнением (1)). Разумеется, присутствие метаботропного фактора вуравненях синаптической пластичности совершенно естественно с точкизрения клеточной физиологии. Важно, однако, что система, в которой си-наптическая пластичность зависит от ионотропного фактора - неустойчива(см. ниже). Уравнения типа (3) и (3’) использовали также (Spoelstra et al.,2000), но с мотивацией, отличающейся от нашей. Точная форма уравне-ния (4) для последовательности моментов возбуждения ЛК не очень суще-ственна. Здесь, однако, обязательно должно фигурировать взаимодействиена входе ЛК двух типов синаптических входов (извне мозжечка и от КП(доставляемого с помощью клеток ядер)). В (4) α(t) — это внешний входна ЛК, а β — константа.

Рис. 6а и 6б и уравнения (1)–(4) составляют упрощенное ядро моделимозжечка. В частности, на рис. 6a отсутствуют клетки ядер мозжечка. Вследующим разделе мы рассмотрим правомерность этого упрощения.

Преобразование информации малыми клетками ядер мозжечка

Одна ЛК посылает ЛВ к нескольким КП (10 — у человека, 7 — у кры-сы). Недавно были описаны 34 ЛК крысы с полным прослеживанием всехокончаний их аксонов (Sugihara et al., 2001; Sugihara, 2006). Количество ли-анных окончаний у этих клеток составляет 6.6±3.7 (среднее стандартное±отклонение). Эти данные показывают, что существуют какие-то неслучай-

УДК 001(06)+004.032.26 (06) Нейронные сети 33

Page 34: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ные факторы, определяющие число коллатералей ЛК в каждом конкретномслучае.

КП действуют на ЛК через малые клетки ядер. Для оценки эффек-тов, вызываемых этим преобразованием, рассмотрим простейшие линей-ные уравнения, описывающие ядерные клетки:

zi(t) = ki

(∑

j∈Ci

G(yj(t)) +∑

j 6∈Ci

G(yj(t))). (5)

Здесь zi(t) — компонента синаптического потенциала ЛК с номером i, ко-торая обусловлена входом от малых клеток ядер; yj(t) выходной сигнал КПс номером j; G(·) — преобразование сигналов в синапсах; Ci — множествоКП, связанных с i-й ЛК, ki — масштабный множитель. Свойства (5) зави-сят от корреляции между внешними входами различных ЛК. В качествепервого приближения будем считать их некоррелированными. Мы примемтакже, что когда связи КП настроены, yj(t) на 100% коррелированы дляКП, управляемой одной и той же ЛК и имеют нулевую корреляцию для КП,управляемых разными ЛК (см. рис. 2). Это предположение — очень силь-ное. Его справедливость зависит от того, насколько коррелированы входызернистых клеток на клетки Пуркинье. Аналитические расчеты систем,близких к реальности затруднительны, поэтому для исследования корреля-ции активности клеток Пуркинье, управляемых одним лианным волокномнеобходимы соответствующие имитационные экстаерименты. На даннойстадии анализа ограничимся гипотезой о справедливости указанных вышеупрощающих предположений.

Положим ki = 1/(Li ·pi) и yj(t) = xi(t) для всех КП, j(i), управляемыхi-й ЛК. Пусть Li — количество малых клеток ядер, с которыми связываетсякаждая из КП, контролируемых данной i-й ЛК и pi — количество КП,контролируемых ею. Легко заметить, что количество (равных) компонент впервой сумме в правой части (5) составляет Lipi. Количество (не равных)компонент во второй сумме уравнения (5) может быть оценено как

(Lipi ·

Nc∑

r=1

Lrpr)/NN ,

где Nc and NN — количество ЛК и малых клеток ядер соответственно.Теперь (5) можно переписать так:

zi(t)−G(xi(t)) = ki∑

j 6∈Ci

G(yj(t))

34 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 35: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

илиzi(t) = G(xi(t)) + ξi(t), (6)

где G(xi(t)) — преобразование (одного и того же) сигнала всех КП, управ-ляемых i-й ЛК, а ξi(t) — шум, обусловленный сигналами от других ЛК засчет взаимодействия на «общих» малых клетках ядер.

Дисперсия ξi(t) может быть оценена следующим образом:

D[ξi(t)] = D[∑

j 6∈Ci

G(yj(t))]

=( 1

Lipi

)2

· Lipi ·∑Nc

r=1 LrprNn

· D[G(x(t))],

где D[G(x(t))] представляет среднее значение D[G(xj(t)] для всех ЛК.Далее мы имеем:

D[ξi(t)] =( 1

Lipi

)·∑Nc

r=1 LrprNN

· D[G(x(t))]

и

D[ξi(t)] =( Lp

Lipi

)· NcNN· D[G(x(t))],

где L и p — средние значения Li и pi. Уравнение (6) описывает «шум»,в канале i, обусловленный взаимодействием различных лианных модулеймозжечка за счет общих малых клеток ядер. Из (6) следует, что в сред-нем вклад всех посторонних компонент в zi(t) имеет амплитуду околоNc/NN . Для реального мозжечка эта величина (и соответствующее от-ношение шум/сигнал) имеет порядок 1.0 (Fredette, Mugnaini, 1991). Этавеличина кажется значительной, но вычислительный эксперимент показы-вает, что отношение шум/сигнал вплоть до 3.0 оказывает незначительноедействие на способность КП запоминать внешний сигнал на ЛК (Dunin-Barkowski, 2002; также, см. ниже). Из уравнения (6) также следует, чтопроизведение Li · pi в мозжечке должно быть постоянным для разных ЛКклеток. В противном случае отношение шум/сигнал для ЛК, имеющих ма-лое количество лианных окончаний, будет слишком большим.

В случае коррелированных xi(t) поведение системы зависит от типакорреляции. Общий случай должен быть исследован в вычислительныхэкспериментах. Частный случай массовой положительной корреляции xi(t)допускает простое качественное рассмотрение. В самом деле, в этом слу-чае для восстановления общих компонент сигналов многих ЛК могут бытьиспользованы ресурсы (т. е. синапсы ПВ на КП) всех коррелированных

УДК 001(06)+004.032.26 (06) Нейронные сети 35

Page 36: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ЛК. Это обстоятельство расширяет возможности представления сигналоводновременно многими модулями ЛК по сравнению с раздельным пред-ставлением таких же сигналов.

Следует остановиться еще на одной возможной роли преобразованияинформации малыми клетками ядер. Ниже будет продемонстрировано, чтосвязи зернистых клеток с КП настраиваются в конечном счете так, чтосигнал от клеток ядер полностью компенсирует все колебания во временивнешнего сигнала на ЛК, обеспечивая постоянство суммарного синаптиче-ского притока к этим клеткам. Если же выходной сигнал клеток ядер пред-ставляет собой задержанный сигнал от КП (например, вследствие большойпостоянной времени клеток ядер), то выходной сигнал КП представляетпредсказание внешнего сигнала ЛК (впервые это явление и его возможноеприменение продемонстрировано в (Spoelstra et al., 2000).

В следующем разделе будут представлены результаты имитационныхэкспериментов, иллюстрирующие работу описанного механизма.

Имитационное моделирование мозжечкового модуля

Мы ограничимся анализом частного случая входных и выходных сигналовмозжечка (рис. 6в и 6г), позволяющим продемонстрировать свойства этойконструкции. Пучок стрелок на рис. 6в обозначает координаты в простран-стве активности зернистых клеток. Мы предполагаем, что вектор актив-ности зернистых клеток принадлежит множеству, обозначенному оваломв верхней части рис. 6в. Вектор активности равномерно перемещается современем по этому множеству, в направлении, указанном стрелками вдольовала. Внешний сигнал на ЛК имеет вид:

α(t) = α(g(t)) = F (s(t)), (7)

где s — параметр (например, порядковый номер) множества входных векто-ров, а F (·) — фиксированная функция. Рис. 6г иллюстрирует временной ходα(t) и s(t). Необходимым условием возможности выравнивания входногопотока на ЛК является: M 6 N , где M — количество векторов в «опор-ном» множестве. Ряд свойств численного моделирования уравнений (1)–(4)качественно устойчив и может быть описан в достаточно общих терминах.

Основной результат моделирования (рис. 7а и 7б) демонстрирует спо-собность КП синтезировать выходной сигнал, точно соответствующий внеш-нему синаптическому притоку на ЛК, так что суммарный синаптический

36 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 37: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

РИС. 7. Результаты моделирования. Время — в тактах моделирова-ния. Здесь (а) и (б): (1) — суммарный синаптический приток; (2) —внешний вход; (3) — последовательность импульсов ЛК после 200 и5000 циклов внешнего входа; (в) распределение импульсов по фазамвнешнего сигнала в (а, (1)) и (б, (2)); (г) срыв выравнивания, когдапластичность зависит от ионотропных компонент, (1) и (2) такие же,как в (а);.(д) 700 последовательных интервалов между импульсами:1 — нейрон двигательной коры кролика (в мс) 2 — модельная ЛК (втактах моделирования), 3 — ЛК мозжечка морской свинки (в секун-дах); (е), (ж) — влияние шума на усвоение внешнего входа после10000 циклов внешнего сигнала. Отношение шум/сигнал: 0 для (е) и3.0 для (ж) 1 — внешний вход + шум; 2 — выход клетки Пуркинье

УДК 001(06)+004.032.26 (06) Нейронные сети 37

Page 38: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

приток на ЛК становится практически постоянным. Можно видеть, что по-сле 150 Tequ, процесс выравнивания этого притока продолжается (рис. 7a).Он заведомо завершен после 3700 Tequ: линия 1 на рис. 7б (суммарный си-наптический приток на ЛК) — горизонтальная прямая. Характер активностиЛК (нижние лучи на рис. 7а и 7б) в переходном и стационарном режимепримерно одинаков. Однако, в переходном периоде возбуждение ЛК привя-зано к фазе внешнего сигнала (рис. 7в, пунктирная линия), в то время, какв стационарном режиме корреляции возбуждений ЛК с внешним сигналомне наблюдается (рис. 7в, сплошная линия). Вычисления также показывают,что настройка связей, показанная на рис. 6а и 6б, может наблюдаться длянелинейной модели интеграции информации на КП и не чувствительна кзначительным вариациям свойств многих компонент системы (на рисункене показано).

РИС. 8. Диаграмма Пуанкаре для последовательных интервалов меж-ду импульсами модельной ЛК. Черные точки имеют координаты(Ti, Ti+1), где i — порядковый номер межимпульсного интервала ЛК,i = 1, . . . , 32000

38 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 39: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

Выравнивание неустойчиво, когда пластичность зависит не от мета-ботропного, а от ионотропного фактора синаптического действия. Рис. 7гдемонстрирует поведение системы с пластичностью, зависящей от ионо-тропного фактора. Исходно система была приведена в равнове

Page 40: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

модуль. Ответ в достаточной степени очевиден. Для того, чтобы аппрок-симировать функцию в N точках, нужно иметь как минимум N парамет-3 61.260Л5(К)3.32005г

Page 41: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

РИС. 9. Суммарный синаптический приток к ЛК, внешний синапти-ческий приток к которой — периодический сигнал с периодом 800(справа, внизу). Длительность цикла активности на зернистых клет-ках, Tbackground указана на рисунке. Количество зернистых клеток— 22536. Видно, что существенное ухудшение выравнивания наблю-дается тогда, когда период фонового сигнала на зернистых клеткахпревосходит количество этих клеток: при периодах 32000 и 64000отдельные циклы внешнего сигнала остаются целиком не сбаланси-рованы. Для всех значений периодов фонового цикла выравниваниепроводилось в течение 100 циклов фонового сигнала

УДК 001(06)+004.032.26 (06) Нейронные сети 41

Page 42: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Мозжечок и когнитивные функции

Появляется все больше данных о том, что мозжечок играет очень суще-ственную роль в когнитивных процессах (Ito, 2006, 2008; Ackermann, 2008).Прогресс в понимании когнитивных функций мозжечка, в частности, свя-зан с успехами молекулярной генетики. Обнаружен ген, обозначаемый какFOXP2, мутации в котором приводят к нарушениям речи. Кроме того, по-казано, что мутации этого гена, в первую очередь, влияют на структурумозжечка. Мутации вызывают также другие типичные «мозжечковые» на-рушения движений (Ackermann, 2008).

Обнаружено три типа нарушений связанных с речью при поврежденияхгена FOXP2.

Эти симптомы частично были известны и раньше у пациентов с пора-жениями мозжечка. Во-первых, это — так называемая скандированная речь.Она состоит из монотонно произносимых слогов. Подвижность темпа речии и ее эмоциональная окраска пропадают. , Кроме того, темп речи у паци-ентов не может превышать 3 слога в секунду, в то время как в норме онможет быть и в десять раз выше. Во вторых, нарушается так называемаявнутренняя речь — произнесение текстов «про себя». В-третьих, наруша-ется восприятие слов, в которых существенную роль играют временныесоотношения между слогами. Эти факты указывают на то, что мозжечок,хотя и не является необходимой частью нервной системы для проявленийинтеллекта, тем не менее, в норме включен в выполнение интеллектуаль-ных действий.

Обсуждение

Из изложенного следует, что основные загадки мозжечка можно считать взначительной степени разгаданными. В 1960-х годах было высказано пред-положение, что ЛВ настраивает связи ПВ на КП (Marr, 1969). Многие годыэлектрофизиологических экспериментов, детального анализа морфологиинейронов и связей и математического моделирования системы показали,что эта гипотеза в целом верна. Вместе с тем, прояснились детали того,как реализована настройка связей и какие функции она может выполнять.Основные характеристики механизмов работы мозжечка, ставших понят-ными благодаря 40 годам (отсчет от момента публикации статьи ДэвидаМарра) комплексных исследований, проведенных во многих странах, ре-

42 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 43: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

зюмированы ниже.

1. Основным функциональным блоком мозжечка (ячейкой) является ЛКс управляемыми ею КП (от 2 до 17). Ячейка включает в себя петлю об-ратной связи от КП на ЛК. Ячейки мозжечка выполняют свои функцииза счет пластичности синапсов ПВ на КП. Эта пластичность определяетсясоотношением времен возбуждения ЛВ и ПВ. В результате синаптическойпластичности синаптический приток на ЛК выравнивается. Таким образомвход на ЛК из мозжечка («внутренний» вход) воспроизводит (с коэффици-ентом усиления минус единица) внешний вход на ЛК. Для воспроизведения(восстановления) сигнала используется очень широкий спектр информа-ции, доставляемой в кору мозжечка мшистыми волокнами. Только подоб-ным выравниванием можно объяснить свойства функциональной привязкиактивности клеток Пуркинье в работе (Noda, Suzuki, 1979). Универсаль-ность (одинаковость) структуры мозжечка во всех его отделах показываетуниверсальную необходимость реализуемой им операции для разных задачорганизма.

2. Отдельные мозжечковые модули работают не независимо. Во-первых,у них в значительной степени общий поток входной информации от мши-стых волокон. Во-вторых, клетки ядер мозжечка, участвующие в передачесигнала от КП к ЛК, участвуют в работе многих модулей. В случае, когдавнешние сигналы модулей, имеющих общие клетки ядер коррелированы,КП экономят значительные ресурсы по сравнению с независимой работойтех же модулей.

3. Выравнивание синаптического притока к ЛК может быть использова-но по-разному, в зависимости от свойств внешнего сигнала ЛК и парамет-ров петли обратной связи мозжечковой ячейки. В частности, если малыеклетки ядер задерживают (например, в силу большой постоянной времени)поступление сигналов от КП на ЛК, то выход КП в настроенном состояниипредсказывает внешний сигнал на ЛК. Такое предсказание очень важно взадачах управления движениями, как это продемонстрировано в (Spoelstraet al., 2000). Опережение «выученной» реакции КП по сравнению с внеш-ним сигналом ЛК важно в участии мозжечка в мигательном условном ре-флексе. В моделировании этого явления М. Маук (Medina et al., 2000) пред-положил, что сигнал на мигательное движение поступает на внешний входЛК, КП которых обычно тормозят мигательное движение. После многихсочетаний безусловного стимула с условным, КП с некоторым опережени-ем по отношению к стандартному времени подачи безусловного сигнала

УДК 001(06)+004.032.26 (06) Нейронные сети 43

Page 44: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

замолкает, вызывая тем самым необходимое мигательное движение. Сигна-лом на выключение КП является появление на входе КП той афферентнойобстановки, на фоне которой во время проведения сочетаний появлялсябезусловный стимул. Непосредственно контролируемым экспериментато-ром параметром этой афферентной обстановки является время, прошед-шее с начала подачи условного стимула. Экспериментаторы отмечают, чтотолько сохранность мозжечка позволяет правильно воспроизводить интер-вал между началом условного стимула и условно-рефлекторным ответом.Интересно, что с этой точки зрения «неспособность» животного диффе-ренцировать длительные интервалы между началом условного стимула ипредъявлением безусловного стимула может быть обусловлена тем, чтона больших интервалах от начала условного стимула афферентный сигналможет не нести признаков, однозначно связанных с интервалом между те-кущим моментом и началом условного стимула. На малых временах такаяинформация имеется в силу нестационарности реакции нейронов на вклю-чение любого воздействия. На больших временах постоянных временныхмаркеров, связанных с включением условного стимула, может не быть.

Важной проблемой мозжечковой физиологии является идентификацияконстанты ε и функции χ(τ) в уравнении (2). Вариации во времени мог-ли бы приводить к тому, что мозжечковая память становится постоянной,или, наоборот, быстрее стирается. Важно понять, имеются ли естественныеэндогенные факторы в мозжечке, влияющие на эту константу. Вопрос о по-стоянстве параметров χ(τ) можно было бы решить путем долговременногонепрерывного наблюдения за активностью ЛК. Один из первых вопросовздесь — насколько стабильна и насколько различна у разных клеток ве-личина Tequ. Анализ статистических характеристик активности ЛК и ихсравнение с характеристиками модельных ЛК (как, например, на рис. 7д)позволили бы лучше охарактеризовать наличие и/или характеристики сто-хастической динамики как фактора, определяющего параметры этой актив-ности.

И, наконец, огромное значение для углубленного понимания механиз-мов мозжечка имеет регистрация пар КП, управляемых одной ЛК (см.раздел «В погоне за Близнецами»). Сравнение активности таких клетокв разных функциональных состояниях и при разных воздействиях позво-лит получить количественную информацию о работе «лианного» модуляв условиях естественного, выработанного до вмешательства эксперимен-татора, поведения. Видимо, сопоставление экспериментов данного типа сэкспериментами в физике высоких энергий (элементарных частиц) может

44 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 45: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

быть оправдано. В обоих случаях ищутся события, обладающие опреде-ленными очень редко встречающимися свойствами. Анализ характеристиктаких событий позволяет подтвердить или опровергнуть теоретические по-стулаты о свойствах системы.

Уже анализ активности небольшого числа зарегистрированных пар КП-«близнецов» дал информацию, существенную для развития теоретическихпредставлений о работе элементов коры мозжечка. В частности, сдвиг повремени между СИ КП-близнецов дает масштаб времени, существенныйдля настройки параметров мозжечковых модулей. Наши данные показыва-ют, что разница времен генерации СИ разными ветвями ЛВ может дости-гать 1.5 мс. В то же время величина временного сдвига стабильна: флукту-ации составляют около 10%. Весьма существенно выявленное при анализеактивности пар КП блокирование проведения импульса от клетки нижнихолив в дистальные ветви ЛВ. Вероятность блокирования сильно зависитот интервала между СИ и других параметров текущей активности даннойКП. Интересен вопрос о соотношении формы СИ КП-«близнецов». Перио-ды быстрых колебаний внутри СИ (см. рис. 3а) у КП с общим ЛВ — разные,что говорит в пользу независимых механизмов генерации вторичных мак-симумов СИ у «близнецов». Таким образом можно констатировать, чтомеханизмы работы мозжечка практически перестали быть terra incognito.Вместе с тем, путь от первичного понимания грубой схемы процессов всистеме до детального описания ее функционирования может быть доста-точно долгим. Мы находимся, фактически, в начале этого пути.

Литература

[Дунин-Барковский, Подладчикова, 2002]. Дунин-Барковский В. Л. , Подладчикова

Л. Н. Исследование роли лианных клеток в работе мозжечковых модулей //Нейрокомпьтеры, 2002, 7–8, с. 47–64.

[Дунин-Барковский, Ларионова, 1976]. Дунин-Барковский В. Л., Ларионова Н. П.

Об активности нейронов мозжечка лягушки in vitro // Материалы VI Всесо-юзной конференции по электрофизиологии ЦНС. – Каунас, 1976, с. 149.

[Вышинский и др., 2003]. Вышинский Л. Л., Гринев И. Л., Дунин-Барковский В. Л.,

Флеров Ю. А., Широков Н. И. Мониторинг, анализ и прогнозирование поведе-ния многоагентных систем на базе нейрокомпьютерной модели мозжечка. –Вычислительный центр им. А. А. Дородницына РАН, Москва, 2003, 60 с.

[Дунин-Барковский и др., 1987]. Дунин-Барковский В. Л., Жуковская Н. М., Ларио-

нова Н. П., Чайлахян Л. М., Чудаков Л. И. Увеличение эффективности синапсов

УДК 001(06)+004.032.26 (06) Нейронные сети 45

Page 46: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

параллельных волокон на клетках Пуркинье лягушки после одновременной ак-тивации лианных и параллельных волокон // Нейрофизиология, 1987, т. 19, 2.– с. 156–164.

[Дунин-Барковский и др., 1997]. Дунин-Барковский В. Л., Маркин С. Н., Подладчи-

кова Л. Н. Оценка вклада простых и сложных импульсов клеток Пуркинье влокальные потенциалы коры мозжечка // Биофизика, 1997, т. 42, с. 516–520.

[Дунин-Барковский и др., 1999]. Дунин-Барковский В. Л., Маркин С. Н., Подладчи-

кова Л. Н., Вунч Д. М. Свойства активности ветвей лязящего волокна иннерви-рующего различные клетки Пуркинье, Биофизика, 1999, т. 44, с. 1056–1063.

[Дунин-Барковский, 1978]. Дунин-Барковский В. Л. Информационные процессы внейронных структурах. – М.: Наука, 1978.

[Подладчикова и др., 2002]. Подладчикова Л. Н., Бондарь Г. Г., Дунин-Барковский

В. Л. Особенности активности «быстрых» и «медленных» клеток Пуркиньемозжечка. Биофизика, 2002, т. 47, 2, с. 338–344.

[Ackermann, 2008]. Ackermann H. Cerebellar contributions to speech production andspeech perception: psycholinguistic and neurobiological perspectives. – Trends in

Neurosciences, 2008.

[Albus, 1971]. Albus J. S. A theory of cerebellar function // Math. Biosci., 1971, 10,pp. 25–61.

[Artinian and Finch, 2003]. Artinian L. R., Finch E. A. Dual role of ryanodine receptorduring parallel fiber – Purkinje cell synaptic transmission // Soc. Neuroscience Ann.Meeting, New Orleans, 2003, Poster Presentation No. 426.21.

[Baker and Golub, 1991]. Baker G. L., Golub J. P. Chaotic dynamics. An Introduction.– Cambridge University Press, New York, 1991.

[Bell and Kawasaki, 1972]. Bell C. C., Kawasaki T. Relations among climbing fiberresponses of nearby Purkinje cells // J. Neurophysiol., 1972, 35, pp. 155–169.

[Colin et al., 1980]. Colin F., Manil J., Desclin J. C. The olivocerebellar system. Delayedand slow inhibitory effects: An overlooked salient feature of the cerebellar climbingfibers // Br. Research, 1980, 187, pp. 3–27.

[Dunin-Barkowski et al., 1993]. Dunin-Barkowski W. L., Khandozhko I. I.,

Podladchikova L. N., Markin S. N. In search of cerebellar climbing fiber Purkinjecell twins // Proceedings of the IJCNN’93 Nagoya, 1993, Vol. 1, pp. 121–122.

[Dunin-Barkowski et al., 1995]. Dunin-Barkowski W., Markin S., Podladchikova L. HEPtype experiments in cerebellar research // Neural Networks for Physicists No. 5, 1995,Minneapolis: UMN, pp. 112–120.

[Dunin-Barkowski, Markin et al., 1999]. Dunin-Barkowski W. L., Markin S. N.,

Podladchikova L. N., Wunsch D. C. Climbing fiber purkinje cell twins are found //Proceedings of IJCNN’99, Washington, DC, 1999, Vol. 1, pp. 180–183.

46 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 47: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Л.ДУНИН-БАРКОВСКИЙ

[Dunin-Barkowski, Shishkin et al., 1998]. Dunin-Barkowski W. L., Shishkin S. L.,

Wunsch D. C., Sukharev A. A. Computational intelligence and cerebellar enigmas //Proceedings of IJCNN’98, Anchorage, Vol. I, 1998, pp. 640–645.

[Dunin-Barkowski, Shishkin et al., 1999]. Dunin-Barkowski W. L., Shishkin S. L.,

Wunsch D. C. Stability Properties of Cerebellar Neural Networks: The PurkinjeCell – Climbing Fiber Dynamic Module // Neural Processing Letters, 1999, Vol. 9,No. 2, pp. 97–106.

[Dunin-Barkowski and Wunsch, 1999]. Dunin-Barkowski W. L., Wunsch D. C. Phase-based storage of information in the cerebellum // Neurocomputing, 1999, Vol. 26–27,No. 1–3, pp. 677–685.

[Dunin-Barkowski and Wunsch, 2000]. Dunin-Barkowski W. L., Wunsch D. C. Phase-based cerebellar learning of dynamic signals // Neurocomputing, 2000, Vol. 32–33,pp. 709–725.

[Dunin-Barkowski, 2002]. Dunin-Barkowski W. L. Analysis of output of all Purkinjecells controlled by one climbing fiber cell // Neurocomputing, 2002, Vol. 44-46,pp. 391–400.

[Ekerot and Jorntell, 2001]. Ekerot C. F., Jorntell H. Parallel fibre receptive fields ofPurkinje cells and interneurons are climbing fibre-specific // Eur. J. Neurosci., 2001,13, pp. 1303–1310.

[Fredette and Mugnaini, 1991]. Fredette B. J., Mugnaini E. The GABAergic cerebello-olivary projection in the rat // Anat. Embriol., 1991, 184, pp. 225-243.

[Gilbert and Thach, 1977]. Gilbert P. F. C., Thach W. T. Purkinje cell activity duringmotor learning // Brain Research, 1977, 128, pp. 309–328.

[Hawkins and Blakeslee, 2004]. Hawkins J., Blakeslee S. On intelligence. – Time Books,NY, 2004, 565 pp.

[Ito, 1984]. Ito M. The cerebellum and neural control. – Raven Press, New York, 1984.

[Ito, 2001]. Ito M. Cerebellar long-term depression: Characterization, signaltransformation, and functional roles // Physiol. Reviews, 2001, 81, pp. 1143–1195.

[Ito, 2006]. Ito M. Cerebellar circuitry as a neuronal machine // Prog. Neurobiol., 2006,Vol. 78, pp. 272=-303.

[Ito, 2008]. Ito M. Control of mental activities by internal models in the cerebellum //Nature Reviews Neuroscience, 2008, Vol. 9, pp. 304–313.

[Ito et al., 1982]. Ito M., Sakurai M., Tongroach P. Climbing fiber induced depressionof both mossy fiber responsiveness and glutamate sensitivity of cerebellar Purkinjecells // J. Physiol., 1982, 324, pp. 113–134.

[Linden, 1996]. Linden D. J. Cerebellar long-term depression as investigated in a cellculture preparation // Behav. and Br. Sci., 1996, 19, pp. 339–346.

УДК 001(06)+004.032.26 (06) Нейронные сети 47

Page 48: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

[Marr, 1969]. Marr D. A theory of cerebellar cortex // J. Physiol., 1969, 202, pp. 437–470.

[Mauk and Donegan, 1997]. Mauk M., Donegan N. A Model of pavlovian eyelidconditioning based on the synaptic organization of the cerebellum // Learning and

Memory, 1997, 3, pp. 130–158.

[Medina et al., 2000]. Medina J. F., Garcia K. S., Nores W. L., Taylor N. M., Mauk M. D.

Timing mechanism in the cerebellum: Testing predictions of a large-scale computersimulation // J. Neurosci., 2000, 20, pp. 5516–5525.

[Noda and Suzuki, 1979]. Noda H., Suzuki D. The role of flocculus of the monkey infixation and smooth pursuit eye movements // J. Physiol., 1979, 294, pp. 335–348.

[Rosenblatt, 1962]. Rosenblatt F. Principles of neurodynamics: Perception and the theoryof brain mechanisms. – Washington, DC, Spartan, 1962.

[Sasaki et al., 1989]. Sasaki K., Bower J., Llinas R. Multiple Purkinje cells recording inrodent cerebellar cortex // Eur. J. Neurosci., 1989, 1, pp. 575–586.

[Spoelstra et al., 2000]. Spoelstra J., Schweighofer N., Arbib M. A. Cerebellar learningof accurate predictive control for fast-reaching movements. Biol. Cybern., 2000, 82,321-333.

[Sugihara, 2006]. Sugihara I. Organization and remodeling of the olivocerebellarclimbing fiber projection // Cerebellum, 2006, Vol. 5, pp. 15–22.

[Sugihara et al., 2001]. Sugihara I., Wu H.-S., Shinoda Y. The entire trajectories of singleolivocerebellar axons in the cerebellar cortex and their contribution to cerebellarcompartmentalization // J. Neurosci., 2001, 21, pp. 7715–7723.

[Voicu, 2008]. Voicu H. The cerebellum: An incomplete multilayer perceptron? //Neurocomputing, 2008, Vol. 72, pp. 592–599.

Виталий Львович ДУНИН-БАРКОВСКИЙ, доктор физико-математи-ческих наук, профессор, заведующий Отделом нейроинформатики Центраоптико-нейронных технологий НИИСИ РАН, директор НИИ нейрокибер-нетики им. А. Б. Когана (в 1990–1995 годах), Президент-основатель Россий-ской Ассоциации нейроинформатики (1991 год), адъюнкт-профессор Техас-ского технологического университета (c 2006 года), автор одного из первыхв мире проектов нейро-СБИС (1974 год), нескольких монографий и мно-гих статей (с 1965 года) по нейроинформатике и теоретической и экспери-ментальной биофизике различных отделов нервной системы (в частности,мозжечка и ствола мозга).

Page 49: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р. А. ТИКИДЖИ-ХАМБУРЬЯННИИ Нейрокибернетики им. А. Б. Когана,

Южный Федеральный Университет,Ростов-на-Дону, Россия

E-mail: [email protected]

ДЕТАЛЬНОЕ МОДЕЛИРОВАНИЕ НЕЙРОНОВИ НЕЙРОННЫХ СЕТЕЙ: КАК И ЗАЧЕМ

Аннотация

Когда мы исследуем мозг, то впервые в истории человечества встречаемсяс ситуацией, когда сложность объекта исследования равна сложности са-мого исследователя. Мы пытаемся исследовать мозг мозгом. Поэтому мыможем анализировать нервную ткань, но мы не можем синтезировать всеэти данные в новые знания. Таким образом, есть только один путь: синте-зировать эти данные вне мозга. Этот подход в исследовании нервной ткани,называемый «вычислительными нейронауками» — новейшее направление внейроисследованиях.

R. A. TIKIDJI-HAMBURYANA. B. Kogan Research Institute for Neurocybernetics,Southern Federal University, Rostov-on-Don, Russia

E-mail: [email protected]

DETAILED MODELING OF NEURONSAND NEURON NETWORKS: HOW TO AND WHY

Abstract

When we study the brain, for the first time in science history we have a uniquesituation, where the complexity of studied object equals to the complexity ofresearcher. We try to study brain by means of our brains. Therefore we mightanalyze the nerve tissue, but we can not synthesize all these data to a newknowledge, thus there is only one way: to synthesize these data out of our brain.This approach to nerve tissue research named “Computational Neuroscience”represents the newest field of Neuroscience research.

УДК 001(06)+004.032.26 (06) Нейронные сети 49

Page 50: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Введение

В данной лекции мы рассмотрим одну из основных частей сравнительномолодого раздела науки, называемого Computational Neuroscience (вычис-лительные нейронауки). Сама идея применить моделирование для обоб-щения экспериментальных данных и предиктивных исследований не нова.Математические и численные эксперименты находят широкое применениеуже давно, однако, в области нейробиологии этот метод исследования сталшироко применяться лишь с середины 80-х годов прошлого века. Наибо-лее ярко основную идею этого направления выразил Берт Сакман: «Я знаювсе данные: типы клеток, свойства их активности, связность клеток, возбу-димость дендритов, синаптическую динамику . . . но я не могу понять это(как целое — Р. А. Т-Х), я вынужден это моделировать». Из этой цитатывытекает основная задача вычислительных нейронаук — аккумулировать вмоделях разнородные экспериментальные данные и исследовать после это-го обобщенную модель так, как если бы это был реальный биологическийобъект.

Первые попытки таких исследований предпринимались еще в 40-х го-дах прошлого века. Революционные работы МакКаллока и Питтса зало-жили основы нового направления: моделирования нейронных сетей. Мак-симальная формализация и примитивизация функции единичного нейронасделали в конечном итоге это направление частью математики, называемойформальными нейронными сетями. К сожалению, практически все резуль-таты, получаемые в этой области, не имеют никакого отношения к работереальных нейронов и реального мозга.

Вторую попытку привлечь математическое моделирование для обобще-ния экспериментальных данных предпринял Ролл в середине 60-х годов.Необходимо заметить, что, несмотря на то, что именно им были заложеныосновы детального биологически обоснованного моделирования как еди-ничных нейронов, так и малых и средних нейронных сетей, некоторыевыводы, сделанные на основе его моделей, затормозили развитие нейро-биологии практически на десятилетие, а его совместные с Экклсом работысильно исказили представление о принципах работы дендритного дереванейрона и синаптических связях в сети.

Бурное развитие моделирования, как средства аккумуляции экспери-ментальных данных и метода получения новых знаний о функционирова-нии как единичных клеток, так и сети в целом, было обусловлено появ-лением в середине 80-х принципиально новых компьютеров с непрерывно

50 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 51: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 52: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 53: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

ная, сильно разросшаяся клетка (так называемый синцитий). После тогокак Гольджи открыл и опубликовал в 1885 году способ фиксации и окрас-ки нервной ткани, с помощью которого окрашивалось лишь 5–7% всехклеток, стало ясно, что мозг, как и прочие органы, состоит из отдельныхклеток, которые были названы нейронами. Победа нейронной доктриныпроизошла в основном благодаря работам Рамон-и-Кахаля, который ги-стологически исследовал различные части мозга, окрашенные по методуГольджи (за эти работы Рамон-и-Кахаль и Гольджи получили Нобелевскуюпремию). На рис. 1 приведен один из многочисленных рисунков Рамон-и-Кахаля. Исходя из своих наблюдений, он пришел к следующим выводам:

• нервная ткань — это большая сеть нерегулярно связанных друг сдругом нервных клеток (нейронов);• у нервной клетки есть отдельно выделенное волокно, исходящее из

тела самого нейрона, которое, не ветвясь, направляется к другимклеткам (он назвал это волокно аксоном) и там заканчивается либона теле другой клетки, либо на других, более толстых ее отростках;• выделенное тонкое волокно всегда начинается на некотором выпя-

чивании на теле самой клетки (Рамон-и-Кахаль назвал этот участокаксонным холмиком);• другие, более толстые отростки, иногда напоминающие крону дерева,

всегда находятся более близко к телу клетки (они получили название«дендриты»);• между аксоном одной клетки и дендритом другой могут существовать

контакты, названные «синапсами».

Рамон-и-Кахаль предположил, что дендриты и сома являются входамиклетки, аксонный холмик — ее возбудимой зоной, а сам аксон представляетсобой выход нейрона. Конечно, впоследствие было обнаружено достаточ-но большое количество аксо-аксональных и дендро-дендритных синапсов.Было показано, что не только аксонный холмик является возбудимым участ-ком нейрона, но и само тело и дендриты обладают возбудимостью. Одна-ко именно первоначальные представления Рамон-и-Кахаля легли в основутеории формальных нейронных сетей.

УДК 001(06)+004.032.26 (06) Нейронные сети 53

Page 54: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 2. Схематичное изображение двух нейронов — показан длин-ный аксон и короткие разветвленные дендриты. Во вставке показанхимический синапс — контакт между нейронами

Химические и электрические синапсы

На рис. 2 схематично изображены два нейрона, показан длинный аксон икороткие разветвленные дендриты. Синапс, изображенный также в увели-ченном виде, представляет из себя тонкую щель между двумя клетками.Отросток аксона, образующий синапс, называют предсинапсом, а участокмембраны дендрита или сомы клетки — постсинапсом. Под воздействиемэлектрического импульса, потенциала действия (ПД) генерируемого пре-синаптическим нейроном, из синапса выделяется специальное химическоевещество, называемое медиатором. Оно запасается в пресинаптическойтерминали аксона в виде крошечных пузырьков (везикул), которые подхо-дят к мембране, сливаются с ней и выбрасывают свое содержимое (медиа-тор) в щель между клетками. Медиатор, как правило, является достаточнонейтральным веществом и напрямую не может воздействовать на постси-наптический нейрон. Для передачи воздействия на постсинапсе должнынаходиться специальные рецепторы со сродством именно к данному типумедиатора. Эти рецепторы свяжут выделившиеся молекулы медиатора и из-менят свою конформацию (так как рецептор представляет собой белковуюмолекулу), перейдя в другое состояние. При этом часть из них начинаетпропускать через себя те или иные ионы (т. е. рецептор либо одновременноявляется ионным каналом, либо имеет непосредственную связь с каналом,

54 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 55: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 56: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

слева) показаны мембраны двух клеток, на поверхности которых образова-на пора из белковых молекул, назывемых коннексинами. Поскольку внекле-точная часть коннексина имеет сродство к самой себе, то она связываетсяс внеклеточными частями коннексинов на мембране другого нейрона, об-разуя межклеточное соединение. Другой важной особенностью коннекси-на является неравномерность доменной структуры, из-за чего коннексиныобразуют шестигранную пору, называемую коннексоном, через которуюмогут проходить практически все типы ионов и даже небольшие белковыемолекулы (к настоящему времени есть большое разногласие в экспери-ментальных данных, по одной версии коннексоны практически полностью«прозрачны» для ионов, по другой через них могут проникать лишь опре-деленные молекулы, например IP3 и не могут проходить крупные ионытипа Ca2+). Очевидно, что в электрическом синапсе происходит, в отличиеот химического синапса, двунаправленный обмен и там нельзя выделитьпресинапс и постсинапс. Клетки, связанные электрическим соединением,будут взаимно влиять на потенциал друг друга (что является одним изосновных различий химических и электрических контактов).

Существуют также данные о несинаптическом химическом воздействииклеток друг на друга (так называемой гуморальной передаче). Однако из-затого, что этот тип передачи крайне редко моделируется, мы его рассматри-вать не будем.

Гомогенность, гетерогенность, размерность и связность сети.Случайные, диффузные и фокальные проекции нейронов

Некоторые понятия, характеризующие биологически обоснованные ней-ронные сети, были заимствованы из теории формальных нейронных сетей.В силу важности этих характеристик мы дадим краткое их определение:

• Сеть называется гомогенной, когда все ее элементы одинаковы иобразуют однотипные нейронные связи. Классической гомогеннойсетью является однослойный перцептрон [4]. В случае, если в сетиимеются элементы с различными свойствами, или если сеть нерегу-лярна, то она считается гетерогенной. К гетерогенным сетям относятсети со встречным распространением [4].• Операции, производимые формальной нейронной сетью, можно за-

писать в векторном виде, где размерностью вектора будет количествоэлементов в слое или во всей сети. И к биологически обоснованным

56 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 57: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

моделям нейронных сетей также применяют понятие размерности,определяющее количество единичных элементов сети. При этом, еслиэлементы содержат отдельные сегменты, то последние не учитыва-ются.• Сеть называется полносвязной, если каждый элемент сети образует

непосредственные связи со всеми другими элементами сети 1. В фор-мальных нейронных сетях не допускаются связи элемента с самимсобой и наличие более чем одной связи между элементами, поэтомуколичество связей в полносвязной сети составляет P = N(N − 1),где P — число связей, а N — число элементов сети. Для биологи-чески обоснованных нейронных сетей связностью называется общееколичество связей между элементами, при этом множество связеймежду двумя единичными клетками возможно, но не учитывается.Таким образом, полносвязная сеть имеет связность P = NN . Связ-ность сети не может быть больше, чем связность полносвязной сети сэтим же количеством элементов. Мозг является слабосвязной сетью.По приближенным оценкам, его связность p не превышает и 3% отмаксимально возможной P .

Другие термины, используемые для описания моделей нейронных се-тей, были заимствованы из нейробиологии. Мы также дадим краткие ихопределения:

• Проекцией нейрона называется все множество клеток, с которымион образует синаптическое соединение в качестве предсинапса.• Случайная проекция — это такая проекция, при которой нет выде-

ленной нейроанатомической области и нет выделенного типа клеток,которым данный нейрон отдает входное воздействие.• Диффузная проекция — вид случайной проекции, но пространствен-

но ограниченной.• Фокальная проекция — вид проекции, при которой обнаруживается

некоторая область (фокус) с наиболее высокой концентрацией синап-тических контактов от данного нейрона и небольшая периферическаяобласть, в которой плотность контактов быстро падает.

1В однопроходных нейронных сетях понятие полносвязности трактуется иначе. В та-ких сетях полносвязными сетями называются такие сети, в которых каждый элементпоследующего слоя получает синапсы от всех элементов предыдущего.

УДК 001(06)+004.032.26 (06) Нейронные сети 57

Page 58: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

• Выделяют также специфические проекции, к которым относят про-екции, связи в которых происходят только с нейронами определенно-го типа.

Краткая теория электрогенеза

Хорошо известно, что в покое нейрон имеет постоянный заряд, которыйсоздает электрическое поле напряженностью порядка от −(56÷ 72)мВ намембране. Если внешним источником тока попытаться уменьшить этот за-ряд, то при определенных условиях потенциал нейрона самопроизвольноувеличится до +(25 ÷ 45) мВ, а затем быстро упадет до уровня −(62 ÷75)мВ. Этот автогенерационный процесс называется потенциалом дей-ствия или, в зарубежной литературе, spike. Его общая длительность 1–3мс. Нейрон далеко не уникален в этом своем свойстве. По данным [5],значительно больший потенциал покоя и ПД наблюдается у растительныхклеток. Так, споры гриба вешенки способны генерировать ПД амплитудойдо 1.5 В. Однако только в нейроне ПД несет в себе информационную функ-цию. Рассмотрим теперь, как формируется потенциал покоя и какова егоприрода.

Потенциал Нернста

Билипидный слой, отделяющий цитоплазму клетки от внешней среды, яв-ляется очень хорошим изолятором с напряжением пробоя порядка 30 кВ/см,поэтому за все электрические процессы на мембране нейрона (за исклю-чением накопления заряда) отвечают большие белковые молекулы, прони-зывающие мембрану клетки насквозь (т. н. ионные каналы или поры). Вбольшинстве случаев ионные каналы избирательны к виду пропускаемогоими иона и не способны пропускать другие вещества. К тому же концентра-ции основных ионов в растворах, омывающих мембрану с разных сторон,существенно различаются, что и порождает появление электрического по-тенциала на базиллярной мембране клетки.

Рассмотрим сосуд, изображенный на рис. 4 который разделен на двечасти непроницаемой перегородкой ’a’. Заполним две части сосуда ’b’ и’c’ растворами NaCl с концентрациями 1.0 М/л и 0.1 М/л соответственно.Пусть имеется ион-селективная пора ’d’ в мембране ’a’, которая пропуска-ет только ионы натрия ’e’. Предположим, что во время заполнения сосудов

58 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 59: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 4. Схема появления электрического потенциала на ионоселек-тивной поре

пора ’d’ была закрыта и не пропускала через себя ионы. Другими словами,до начала рассмотрения обмена между растворами не было. Рассмотримповедение ионов натрия в момент открытия поры ’d’. Близлежащие ионы’e’ под действием разности концентраций начнут диффундировать черезпору из части ’b’ в часть ’c’, что показано на рис. 4 стрелками. Измене-ние химического потенциала, вызывающего диффузию, будет зависеть оттемпературы и разности концентраций:

∆µch = RT ln

(CbCc

), (1)

где R — универсальная газовая постоянная, T — температура, Cb и Cc— соответствующие концентрации. Однако, поскольку пора непроницаемадля ионов хлора, поток положительно заряженных ионов натрия приведетк появлению разности электрического потенциала, стремящегося вернутьионы натрия назад:

∆µe = zFE, (2)

где z — валентность иона, F — постоянная Фарадея, E — электрический

УДК 001(06)+004.032.26 (06) Нейронные сети 59

Page 60: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

потенциал раствора. Очевидно, что, когда ∆µe станет равным ∆µch, об-мены ионами натрия через пору ’d’ уравновесятся. Будем предполагать,что объемы обоих частей сосуда достаточно велики, а пора ’d’ достаточ-но мала, чтобы приростом концентрации ионов натрия в части ’c’ за счетобмена можно было бы пренебречь. Таким образом, возникает разностьпотенциала между растворами, которую можно измерить вольтметром ’f’.Значение разности потенциалов также может быть получено теоретически,приравниванием (2) к (1):

E =RT

zFln

(CbCc

). (3)

Полученное в соотношении (3) для E называется потенциалом Нерн-ста или реверсным потенциалом. Эта формула имеет достаточно большиеограничения. Так, если представить себе, что концентрация ионов натрияв части ’c’ равна нулю, то E → −∞, и наоборот, при Cb = 0 : E → +∞ .Для случая, когда нельзя пренебречь количеством ионов, проходящих че-рез пору, необходимо использовать уравнение Гольдмана-Ходжкина-Каца,которое будет описано ниже.

Баланс токов и проводимостей

Как минимум три иона играют существенную роль в формировании по-тенциала покоя: натрий, калий и хлор. В табл. 1 приведены концентрацииэтих ионов во внешней среде и во внутриклеточных растворах.

ТАБЛИЦА 1. Значения реверсных потенциалов, внутренних ивнешних концентраций

Внутренняя кон-ция Внешняя кон-ция Потенциал(мМоль/л) (мМоль/л) (мВ)

Na+ 50 437 +56K+ 397 20 -77Cl− 40 556 -68

60 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 61: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 5. Токи ионов через мембрану и эквивалентная электрическаясхема для их описания

Как видно из приведенных данных, условия для трех основных ионовразличные. Существенные разницы в концентрациях во вне- и внутрикле-точных средах приводят к тому, что любая пора или любой канал, прово-дящий Na+, K+ или Cl−, может быть рассмотрен как источник ЭДС ссоответствующим потенциалом и внутренним сопротивлением. Токи этихионов через мембрану схематично показаны на рис. 5 (верхняя часть). Оче-видно, что общий потенциал на мембране будет определяться балансомвнутренних сопротивлений источников. Для простоты перейдем к прово-димостям и, учитывая ток электростатического заряда билипидной мембра-ны, получим эквивалентную схему, показанную на рис. 5 (нижняя часть) иуравнение баланса токов:

cdu

dt= −gNa(u− ENa)− gK(u− EK)− gCl(u− ECl), (4)

где c — емкость мембраны, u — общий потенциал на ней, g — внутренниепроводимости и E — ЭДС соответствующих источников, т. е. реверсные

УДК 001(06)+004.032.26 (06) Нейронные сети 61

Page 62: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

потенциалы, полученные по соотношению (3).Для состояния покоя очевидно, что du/dt = 0. Следовательно, из (4)

можно получить выражение для потенциала покоя:

urest =gNaENa + gKENK + gClECl

gNa + gK + gCl + gL, (5)

где gL — ток утечки через неселективные каналы.Поскольку в покое потенциал нейрона составляет от−56 мВ до−72 мВ,

можно предположить, что gL+ gNa < gCl+ gK . Однако при генерации ПДмембранный потенциал может доходить в пике до +(25 ÷ 45) мВ. Оче-видно, что если никаких дополнительных источников тока нет, то gNa >gL + gCl + gK . Следовательно, проводимости не постоянны, а являютсядинамическими переменными. Описание динамики проводимостей будетрассмотрено в разделе «Точечные модели».

Уравнение Гольдмана-Ходжкина-Каца

РИС. 6. Общая схема для вывода уравнения Гольдмана (обозначенияданы в тексте)

Рассмотрим случай, когда нельзя пренебречь количеством ионов, проника-ющих через мембрану. Для этого рассмотрим поток ионов J через мем-брану толщиной h. С внутренней и внешней стороны мембрану омываютрастворы с концентрациейCi иCo соответственно. Пренебрегая дискретно-

62 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 63: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

стью проникновения ионов через мембрану, будем считать, что концентра-ция ионов внутри мембраны рядом с внутренними и внешними сторонамибудет C′

i = γCi и C′o = γCo, где γ — коэффициент растворимости данного

типа иона в мембране (рис. 6). Пусть также на мембране присутствует раз-ность потенциалов ϕ = ϕi−ϕo. Тогда уравнение электродиффузии приметвид:

J = −Cν dµdx, (6)

где C — концентрация, ν — подвижность иона, µ — электрохимическийпотенциал. Поскольку µ = µch + µe и учитывая, что µch = RT ln(C) иµe = zFϕ, перепишем (6) в следующем виде:

J = −νRT dCdx− CνzF dϕ

dx. (7)

Исходя из приближения постоянного поля dϕ/dx = u/h, получим:

dC

dx+zFu

RThC = − J

νRT. (8)

Разрешая уравнение (8) по C и учитывая, что C(0) = C′o = γCo и C(h) =

C′i = γCi, получим формулу Гольдмана:

J =zFPu

RT

Ci − Coe−zF uRT

1− e− zF uRT

, (9)

где P = γνRT/h — ионная проницаемость мембраны. Учитывая, что элек-трический ток ионов можно выразить через их поток как I = zFJ , получимокончательное уравнение для тока через мембрану:

I =z2F 2Pu

RT

Ci − Coe−zFuRT

1− e− zFuRT

=z2F 2Pu

RT

C0 − CiezFuRT

1− e zFuRT

. (10)

Выражение (10) называется уравнением Гольдмана-Ходжкина-Каца (ГХК).Забегая вперед, нужно отметить, что для каналов с динамической прово-димостью (10) адаптируют, исходя из того, что I = mphqzFJ , где m и h —воротные переменные (см. подраздел «Уравнения Ходжкина-Хаксли»).

УДК 001(06)+004.032.26 (06) Нейронные сети 63

Page 64: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Точечные модели

В данном разделе рассматриваются модели нейрона как целого. В отли-чие от моделей, представленных в следующем разделе, точечные моделине разделяют нейрон на сегменты, не выделяют части дендрита и сомы,не рассматривают гетерогенность плотности каналов вдоль тела клетки.Это не очень хорошо с точки зрения адекватности моделирования, однакопозволяет сконцентрироваться исключительно на динамике ионных про-водимостей. Основой для такого рассмотрения послужили работы АланаХоджкина и Эндрю Хаксли, которые исследовали электрогенез на препа-рате гигантского аксона кальмара. Особенность данного препарата заклю-чается в том, что это один из самых толстых нервных отростков, диаметркоторого может составлять 1.2–2.0 мм. Отравляя аксон тетродотоксином,блокирующим натриевые каналы, и тетраэтиламмонием, блокирующим ка-лиевые каналы, им удалось наблюдать отдельно токи натрия и калия. Нарис. 7 показано, как ведет себя ток через мембрану (вторая кривая сверху)при скачке потенциала из состояния покоя в некоторое фиксированное зна-чение (первая кривая сверху). Суммарный ток через мембрану показан навторой сверху кривой рис. 7, а токи натрия и калия даны, соответственно,на третьем и четвертом графике рис. 7. Рассмотрим, как можно описатьповедение токов с математической точки зрения.

Уравнения Ходжкина-Хаксли

Вернемся еще раз к эквивалентной электрической схеме на рис. 5. По-скольку для ионов натрия и калия допустимо пользоваться уравнениемНернста (3), не прибегая к соотношению ГХК (10), положим ЭДС источни-ков постоянными и равными реверсным потенциалам из табл. 1. При этомпроводимости каналов должны зависеть, как минимум, от потенциала. По-скольку ток натрия, как это следует из рис. 7, при увеличении потенциаласначала увеличивается, а затем уменьшается, то логично предположить,что на проводимость натрия влияют два процесса, по-разному зависящиеот потенциала. Один из них быстрый, он увеличивает проводимость приувеличении потенциала, а другой медленный и уменьшает ее с увеличе-нием потенциала. Если предположить, что есть некоторая максимальнаяпроводимость натриевого канала, равная gNa, то текущую проводимостьможно выразить как:

gNa = gNam3h,

64 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 65: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 7. Характер протекания тока через мембрану при скачке потен-циала из состояния покоя в некоторое фиксированное значение. Пооси абсцисс отложено время. Между двумя вертикальными пунктир-ными метками 5 мс

dm

dt= αm(u)(1−m)− βm(u)m, (11)

dh

dt= αh(u)(1 − h)− βh(u)h,

где m и h — активационная и инактивационная воротные переменные, α(u)и β(u) — функции открытия и закрытия воротной переменной. В своейработе Ходжкин и Хаксли предположили, что третья степень у активаци-онной переменной объясняется тем, что для прохождения через канал внаправлении понижения концентрации необходимо три иона натрия, кото-рые связываются с активными центрами поры, вызывают ее конформациюи тем самым переходят во внутриклеточный раствор. При движении в

УДК 001(06)+004.032.26 (06) Нейронные сети 65

Page 66: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

обратном направлении достаточно всего одного иона и поэтому h имеетпервую степень.

По аналогии для калиевого канала можно ввести gK . Однако посколькукалиевый канал лишь медленно открывается с повышением потенциала, унего будет присутствовать лишь активационная переменная:

gK = gKn4,

dn

dt= αn(u)(1 − n)− βn(u)n. (12)

Для анализа удобно преобразовать дифференциальные уравнения (11)и (12) в следующий вид:

dx

dt= −x− x∞(u)

τx(u), (13)

где x — одна из воротных переменных m, h или n, τx(u) — постоянная вре-мени переменной x при потенциале u, x∞(u) — точка устойчивости или,в зарубежной литературе, steady state. Из свойств уравнения (13) вытека-ет, что переменная x, при постоянном потенциале, будет асимптотическистремиться к x∞ со скоростью τx. Очевидно, что:

τx(u) =1

αx(u) + βx(u), x∞(u) =

αx(u)

αx(u) + βx(u). (14)

Таким образом, общая система уравнений Ходжкина-Хаксли включаетв себя уравнения для ионных проводимостей и уравнение для мембранногопотенциала:

cdu

dt= −gNa(u − ENa)− gK(u − EK)− gL(u− EL), (15)

где c — емкость мембраны.Первые функции для α(u) и β(u) каналов были подобраны Ходжкиным

и Хаксли, исходя из экспериментальных данных. Они приведены в табл. 2.После преобразования (14) получим функции устойчивого состояния и

постоянной времени от потенциала. Их поведение отражено на рис. 8. По-строенные таким образом функции очень удобны для визуального анализа.Начнем с натриевых воротных переменных. Из рис. 8 видно, что постоян-ная времени для активационной переменной меньше любой другой посто-янной времени. Посколькуm и h входят в уравнение (11) как произведение,то диапазон напряжений, когда проводимость натрия не будет стремиться к

66 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 67: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

ТАБЛИЦА 2. Функции для α(u) и β(u) калиевого и натриевогоканалов (Цит. по [9])

α(u) β(u)

n0.01(u+ 55)

1− exp(−0.1(u+ 55.0))0.125 exp(−0.0125 ∗ (u+ 65))

m0.1(u+ 40)

1− exp(−0.1(u+ 40))4 exp(−0.0556(u+ 65))

n 0.07 exp(−0.05(u+ 65.0))1

exp(3− 0.1u) + 1

РИС. 8. Функции устойчивого состояния и постоянной времени отпотенциала для воротных переменных n, m и h (цит. по [9])

нулю, можно определить по площади под объединением двух этих кривых.Данный диапазон называется в зарубежной литературе window current исоставляет для натрия от −70 до −38 мВ. Однако это вовсе не означаетчто, за пределами этого диапазона ток всегда будет равен нулю! Посколькук −40 мВ уже существенно падает скорость активационной переменной,то для достижения устойчивого ее состояния требуется большее время,чем при потенциале, равном −70 мВ. С другой стороны, инактивационнаяпеременная становится на этом участке значительно быстрее и стремитсязакрыть ток натрия со скоростью, превышающей медленно открывающий-ся ток калия.

Поведение базовой системы уравнений Ходжкина-Хаксли достаточно

УДК 001(06)+004.032.26 (06) Нейронные сети 67

Page 68: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

примитивно. Бифуркационная диаграмма ее активности показана на рис. 9.

РИС. 9. Бифуркационная диаграмма активности для базовой системыуравнений Ходжкина-Хаксли (цит. по [13])

Видно, что существуют всего три вида активности — периодическая,единичная и безимпульсная. Данная модель не может объяснить и имити-ровать многие феномены реальной активности нейронов, такие как адапта-ция (как к повышению потенциала, так и к его понижению), катодическаядепрессия, постанодальная экзальтация и другие. Эти эффекты объясня-ются существованием большого количества различных ионных каналов,рассмотрение которых будет сделано в следующем разделе.

Различные ионные каналы

Нервная система беспозвоночных, к которым относится кальмар, являетсяранним образованием в эволюции живого. За время эволюции от беспозво-ночных к млекопитающим функционирование нервной системы в общеми нейронов в частности сильно изменилось. Одним из приобретений входе эволюции по мнению [15] было значительное увеличение видов итипов ионных каналов на поверхности мембраны. К настоящему момен-ту их насчитывается несколько десятков тысяч. Однако источником стольбольшого разнообразия являются изменения однотипных каналов от видак виду. По сути, для нервной ткани разнообразие типов невелико. Ниже

68 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 69: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

мы рассматриваем ионные каналы, классифицируя их по иону, к которомуданный канал имеет сродство. Существует и другой тип разделения, похарактерным свойствам данных каналов. В табл. 3 дано такое деление. Чи-татель может без труда по представленному ниже материалу распределитьканалы по соответствующей таксонометрии.

ТАБЛИЦА 3. Разделение ионных каналов по их характерным свойствам

Na NaP CaP CaT K KA KCa H

Быстрые X X X

Медленные X X Х

Не инактивируемые Х X

Низкопороговые Х Х

Высокопороговые Х Х

Активир. гиперполяризацией Х

Ион-зависимые Х

Натриевые каналы. Кроме уже рассмотренного выше быстрого натри-евого канала, обозначенного в табл. 3 как Na, рассмотрим неинактивируе-мый натриевый канал. Поскольку у данного канала отсутствует инактива-ция, он называется в зарубежной литературе persistent и обозначается какNaP . Рассмотрим одну из его модификаций, данную по [10].

gNaP = m3gNaP ,dm

dt= αm(u)(1 −m)− βm(u)m,

αm(u) =200

1 + exp

(−u− 18

16

) (16)

βm(u) =25

1 + exp

(u+ 58

8

)

УДК 001(06)+004.032.26 (06) Нейронные сети 69

Page 70: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 10. Функции устойчивого состояния и постоянной времени дляNaP канала (пунктирная линия) от мембранного потенциала (цит.по [10])

Поведение функции устойчивого состояния и постоянной времени отмембранного потенциала приведено на рис. 10 пунктирной линией. Каквидно из графика, порог открывания для неинактивируемого натриевогоканала лежит ниже, чем для классического натриевого канала, изображен-ного на этом же рисунке сплошной линией. Это означает, что наличие этогоканала делает клетку более возбудимой и позволяет запускать ПД при по-тенциале около −65 мВ, причем небольшой проводимости NaP вполнедостаточно, чтобы вывести потенциал мембраны на уровень −52 мВ, ко-гда начавшуюся волну поддержит быстрый натриевый канал.

Кальциевые каналы. Уравнение ГХК (10), как правило, применяют дляслучая кальциевой динамики. Это связано с тем, что внутриклеточная кон-центрация кальция крайне мала и нельзя пренебречь количеством ионов,переносимых через канал, как это делается при выводе уравнения Нернста.Однако в работе [10] уравнение ГХК заменили на два независимых процес-са: расчет тока кальция через мембрану и расчет внутренней концентрациикальция с коррекцией потенциала Нернста.

Выделяют три вида кальциевых каналов: CaP , CaL, CaT . Первыедва канала высокопороговые и различаются лишь скоростью инактива-ции. CaL — это медленно инактивируемый канал. Его иногда моделируютнеинактивируемым каналом. CaT — низкопороговый медленный кальци-евый канал. В данной лекции мы проанализируем два кальциевых канала(CaP и CaT ), описанных в [10].

gCaP = mngCaP ,

70 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 71: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

αm(u) =8.5

1 + exp(−u−8

12.5

) , βm(u) =35.0

1 + exp(u+7414.5

) , (17)

αn(u) =0.0015

1 + exp(u−28

8

) , βn(u) =0.0055

1 + exp(−u+23

8

) ,

gCaT = mngCaT ,

αm(u) =2.60

1 + exp(−u+21

8

) , βm(u) =0.18

1 + exp(u+40

4

) , (18)

αn(u) =0.0025

1 + exp(u+40

80

) , βn(u) =0.19

1 + exp(−u+50

10

) .

РИС. 11. Графики устойчивого состояния и постоянной времени дляактивационной m и инактивационной h воротных переменных кана-лов CaT — верхний и CaP — нижний график, соответственно (цит.по [10])

УДК 001(06)+004.032.26 (06) Нейронные сети 71

Page 72: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

На рис. 11 приведены графики устойчивого состояния и постояннойвремени для активационной и инактивационной воротных переменныхCaT — верхний график и CaP — нижний график. Из них можно видеть,что CaT имеет значительно более низкий порог, чем CaP . Однако приэтом CaT значительно медленнее активируется, что требует длительногоудержания мембранного потенциала вблизи −60 мВ. Если сопоставлятьCaT и NaP , то, несмотря на то, что пороги у этих каналов близки, ихповедение будет принципиально отличаться. Так, CaT может приводить кобразованию низкоамплитудных ПД, поскольку обладает инактивацией исамопроизвольно закрывается, в то время как нарастание NaP проводимо-сти ограничивается лишь внешними источниками (такими как быстрымикалиевыми каналами) и не может приводить к появлению низкоамплитуд-ных ПД. С другой стороны, CaT канал не может вызывать длительныеплато потенциала или пачечную активность, в то время как эксперимен-тально показано, что при блокаде NaP плато потенциала в активностинейрона не наблюдаются.

Калиевые каналы. Кроме рассмотренного выше медленного калиевогоканала, в данном подразделе мы рассмотрим также А-тип калиевого каналаи один из вариантов кальций-зависимого калиевого канала.

А-тип калиевого канала приводится по описанию [10]. Это хорошийпример, показывающий принципы анализа поведения канала, поскольку вего названии нет определения его специфики.

gKA= m4hgKA

,

αm(u) =1.4

1 + exp(−u+27

12

) , βm(u) =0.49

1 + exp(u+30

4

) , (19)

αh(u) =0.0175

1 + exp(u+50

8

) , βh(u) =1.3

1 + exp(−u+13

10

) .

Если сопоставить рис. 12, на котором изображены зависимости m∞,h∞, τm и τh, с рис. 8, то становятся хорошо видны различия между А-типом и медленным K каналом. С одной стороны, А-тип имеет значитель-но более быструю активацию, чем K канал, и окно тока у A-типа лежитв начальном участке активации K канала. С другой стороны, постояннаявремени активации у А-типа значительно меньше, а инактивации в окнетока значительно больше постоянной времени K канала. Из этого следует,

72 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 73: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 12. Зависимости величин m∞, h∞, τm и τh калиевого каналаА-типа (KA) от потенциала (цит. по [10])

что А-тип откроется и будет поддерживать ток калия значительно раньше,чем откроется медленный K канал. При достижении мембранным потен-циалом порога генерации он быстро закроется. Его основное влияние будетна подпороговые процессы и начальные/конечные стадии ПД.

Другим важным видом калиевых каналов является кальций-зависимыйкалиевый канал. Это один из ярких примеров хемо-чувствительных кана-лов. Рассмотрим один из самых простых случаев, приведенных в [8]:

gKCa = gKA

Ca2+i

Ca2+i +KD

, (20)

где Ca2+i — внутриклеточная концентрация кальция, KD — постоянная,

определяющая насыщение канала. Выражение (20) является классическимуравнением Михаэлиса-Ментона вида f(x) = x/(x + b). Его поведениепри условии b = 1 показано на рис. 13. Понятно, что b, как и KD, опре-деляет точку полувысоты, помеченную на графике как ’’. Надо отме-тить, что такое представление работы кальций-зависимого калиевого кана-ла сильно упрощено, поскольку эти каналы, как правило, еще и потенциал-зависимые. В [10] показан хороший пример для KK2 и KBK каналов, гдехемочувствительность вводится как дополнительная воротная переменная.Из-за громоздкости выражений и сложности анализа мы не будем рассмат-ривать этот случай.

Рассмотрим, какие свойства приобретает динамика нейрона при появле-нии в рассмотрении кальций-зависимого калиевого канала. Очевидно, чтоесли у нейрона не было бы кальциевого обмена, то кальций-зависимый ка-лиевый канал никак бы не повлиял на активность нейрона. Следовательно,

УДК 001(06)+004.032.26 (06) Нейронные сети 73

Page 74: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 13. Характер поведения классической функции Михаэлиса-Ментона вида f(x) = x/(x + b)

при агрегации его в модель необходимо, чтобы в модели обязательно при-сутствовали кальциевые каналы и также моделировалась динамика внут-риклеточного кальция. Поскольку внутриклеточная концентрация кальциякрайне мала, проводимость кальций-зависимого калиевого канала не будетоказывать существенного влияния на активность нейрона до тех пор, по-ка кальциевые каналы не поднимут до высокого уровня внутриклеточнуюконцентрацию кальция. Последнее может произойти либо при длительнойимпульсной активности, либо во время появления у нейрона высокочастот-ной пачечной активности, либо при длительном пребывании мембранногопотенциала нейрона в окне тока CaT канала. Открывшийся таким образомKCa канал будет шунтировать открытые кальциевые и/или натриевые ка-налы, понижая потенциал клетки и стабилизируя активность. Таким обра-зом, агрегация KCa в модель нейрона позволяет моделировать процессыадаптации, повышение порога срабатывания при длительной подпорого-вой деполяризации и ограничивать автогенераторные процессы, связанныес высокочастотной импульсной активностью.

Неспецифические ионные каналы. Существует достаточно большойкласс ионных каналов, которые могут пропускать несколько типов ионов.

74 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 75: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

К нему относится так называемый гиперполяризационный или H-канал,который способен пропускать не только K+, но и Na+. Поскольку про-ницаемость данного канала для ионов K+ выше, чем для ионов Na+, внекоторых работах (например, [10]), его отнесли к калиевым каналам саномальным реверсным потенциалом, равным −30 мВ. По данным [15],реверсный потенциал H-канала может лежать в диапазоне от −65 мВ до−20 мВ, в зависимости от проницаемости канала для различных ионов.Рассмотрим H-канал так, как он впервые был описан в [20], с коррекциейиз [21]:

gh = mghdm

dt= −1

τ(m−m∞),

m∞(u) =1

1 + exp(u+755.5

) , (21)

τ(u) =1

exp(−14.5− 0.0086u) + exp(−1.87 + 0.0701u).

РИС. 14. Зависимости величин m∞ и τ для неспецифическогоH−канала от мембранного потенциала (цит. по [21])

Кривые для m∞ и τ даны на рис. 14. Как видно из этих графиков, порогзакрытия H-канала лежит в области ниже −70 мВ, и прямо на генерациюПД он влияния не оказывает. Однако, другая важнейшая особенность дан-ного канала — это его феноменальная постоянная времени, которая можетсущественно влиять на пролонгированную импульсную активность и надлительную гипервозбудимость нейрона. Это один из самых медленныхканалов. Рассмотрим, какие свойства приобретет модель, если в нее агре-гировать H-канал.

УДК 001(06)+004.032.26 (06) Нейронные сети 75

Page 76: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Очевидно, что на быстрые процессы деполяризации и генерации непо-средственно ПД он оказывать влияния не будет. Однако если несколькогиперполяризовать нейрон и удерживать потенциал на уровне −80 мВ втечении достаточного для активации H-канала времени (порядка 100–200мс !!!), то у клетки появится устойчивый деполяризующий ток, способ-ный, после снятия внешней гиперполяризации, даже вызвать пачечнуюактивность. Таким образом, агрегация в модель H-канала создает эффектпонижения порога ПД после длительной гиперполяризации, называемыйпостанодальной экзальтацией.

Многосегментные модели

Пространственная геометрия нервных клеток сложна и многообразна. По-этому моделирование нейронов с помощью точечных моделей является до-статочно большим упрощением. Поскольку аксиальное сопротивление поцитоплазме нейрона достаточно велико и сопоставимо с общим трансмем-бранным сопротивлением, нельзя объединять всю мембрану всего нейронав единое целое. Совершенно очевидно, что мембранный потенциал в раз-ных частях нейрона может различаться. Кроме того, разные части нейронамогут содержать (и чаще всего содержат) различные наборы ионных кана-лов. Моделирование сложного дендритного дерева требует принципиальноиного подхода, который и будет рассмотрен в этом разделе.

Моделирование отростков нейрона. Кабельное уравнение

Рассмотрим отросток нейрона, схематично изображенного на рис. 15 вверхней части рисунка. Легко заметить, что его можно сегментировать научастки с приблизительно одинаковым диаметром и аксиальным сопротив-лением. После сегментации такой отросток можно заменить на эквивалент-ные цилиндры, как это показано в нижней части рисунка. Если цилиндримеет слишком большую длину, то на его протяжении мембранный потен-циал может изменяться. Таким образом, каждый из цилиндров следовалобы также разбить на сегменты, изменением потенциала вдоль которых мож-но было бы пренебречь. Например, в пакете Neuron разбиение идет не нацилиндры, а на согласующиеся по диаметрам усеченные конусы. Рассмот-рим несколько близко расположенных цилиндров, обладающих пока толькопассивной мембраной (т.е. не имеющих активных ионных каналов и огра-

76 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 77: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

ниченных лишь сопротивлением и емкостью), изображенных на рис.16.Пусть при этом каждый из сегментов имеет одинаковую длину dx, емкостьC, аксиальное сопротивление RL и трансмембранное сопротивление RT .Пусть также имеется распределенный по пространству и времени входнойток Iext(t, x).

Рассмотрим ток через аксиальное сопротивление RL. Согласно законуОма:

RLi(x+ dx) = u(t, x+ dx)− u(t, x) (22)

РИС. 15. Схематическое изображение отростка нейрона (сверху) и при-мер его сегментации на цилиндры (снизу)

Согласно первому закону Киргофа:

i(x+ dx)− i(x) = C∂

∂tu(t, x) +

1

RTu(t, x)− Iext(t, x). (23)

Совершим предельный переход к погонным емкостям, аксиальным итрансмембранным сопротивлениям: C = cdx, RL = rLdx, R−1

T = r−1T dx.

Будем считать распределенным и входной ток Iext(t, x) = iext(t, x)dx. По-лучим из (22) и (23):

∂xu(t, x) = rLi(t, x), (24)

∂xi(t, x) = c

∂tu(t, x) +

1

rTu(t, x)− iext(t, x). (25)

Подставляя i(t, x) из (24) в (25), получим:

∂2

∂x2u(t, x) = crL

∂tu(t, x) +

rLrTu(t, x)− rLiext(t, x). (26)

УДК 001(06)+004.032.26 (06) Нейронные сети 77

Page 78: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 16. Электрическая схема близко расположенных сегментов, об-ладающих только пассивной мембраной (цит. по [13])

Заменяя rL/rT = λ2 и crL = τ и переходя к безразмерным переменнымв долях λ и τ , мы получим кабельное уравнение:

∂tu(t, x) =

∂2

∂x2x2u(t, x)− u(t, x) + iext(t, x). (27)

Для получения более интуитивно понятных результатов рассмотримстационарный случай, при котором ∂u(t, x)/∂t = 0, и положим iext(t, 0) =1 и iext(t, x 6= 0) = 0. Тогда решением уравнения (27) будет:

u(x) =1

2e−|x|. (28)

Из приведенного на рис. 17 графика функции (28) видно, что потенциална расстоянии λ от источника тока убывает в e раз. Аналогичное значениеимеет и τ (только в отношении оси времени).

Дендритные деревья и активная мембрана

Из вышесказанного очевидно, что действие любого синапса на дендритномдереве нейрона, находящегося дальше 2λ от сомы, совершенно безразличнодля нейрона. Это приводит к парадоксу, который был впервые поставленв работе Ролла и Экклса в 1963 году: зачем нужны нейрону дендриты,если в среднем 2λ составляет расстояние в 1.5–2 диаметра сомы и не пре-вышает 20–30 мкм? Поскольку прямого ответа на этот вопрос втечение

78 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 79: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 17. Зависимость потенциала от расстоянии λ до источника тока(цит. по [13])

практически целого десятилетия получить не удавалось, в нейробиологиибытовало мнение, что дендритные деревья не выполняют информацион-ной функции, а являются инструментом тонкой настройки нейрона. Этизаблуждения были сняты после изобретения Неером и Сакманом методапатч-кламп, позволяющего регистрировать токи в разных частях клетки сточностью вплоть до отдельных каналов. Как и следовало ожидать, мем-брана дендритного дерева также является активной и содержит различныеактивные ионные каналы. Причем распределение этих каналов не гомоген-но, и различные участки дендритного дерева содержат те или иные ионныеканалы с различной плотностью. Очевидно, что при наличии ионных ка-налов уравнение (27) примет вид:

i(x+ dx)− i(x) = C∂

∂tu(t, x) +

i

[gi(t, x, u)(u(t, x)− Ei)]− Iext(t, x),

(29)где gi(t, x, u) и Ei — проводимость и реверсный потенциал i-го агрегиро-ванного в модель ионного канала. По аналогии с переходом от (23) к (26)получим:

∂2

∂x2u(t, x) = crL

∂tu(t, x) + rL

i

[gi(t, u)(u(t, x)− Ei)

]− rLiext(t, x),

(30)где gi(t, u) — погонная плотность проводимости i-го ионного канала.

Очевидно, что уравнение (30) достаточно сложно, чтобы искать его

УДК 001(06)+004.032.26 (06) Нейронные сети 79

Page 80: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

аналитическое решение. К тому же при изменении количества каналовили их типов уравнение (30) будет меняться. Поэтому данную систему,как правило, решают численно (так как в gi(t, u) описываются отдельны-ми дифференциальными уравнениями). Для этого необходимо дискрети-зировать модель как по пространству, так и по времени. Следовательно,сегментирование дендритного дерева есть ничто иное, как дискретизацияпространственной координаты модели, а пассивная электрическая схема,изображенная на рис. 16, преобразуется в рис. 18. Исходя из соображенийточности, становится очевидным и условие пространственного сегменти-рования нейрона:

∆x≪ λ. (31)

РИС. 18. Пространственная сегментация дендритного дерева нейронаи ее преобразование в эквивалентную электрическую схему (цит. по[9])

По поводу численного решения уравнения (30) необходимо сделать рядзамечаний:

1. При решении уравнения для точечного описания можно пользовать-ся явными методами решения дифференциальных уравнений, такими

80 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 81: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

как методы Рунге-Кутты или метод Эйлера с экспоненциальной ап-проксимацией (описан в [9]). В случае многосегментных моделейиспользовать явные методы не рекомендуется, поскольку это сильновлияет на точность и устойчивость решения. Единственным исключе-нием является случай двухсегментной модели, в котором уравнение(30) допустимо решать при помощи так называемого метода прямых.

2. Выбор ∆x и ∆t необходимо делать не только исходя из условия(31). Следует учитывать также устойчивость метода и накоплениеошибки. Надо заметить, что во всех руководствах по численномурешению уравнения (30) настоятельно рекомендуется использоватьдве временные сетки для решения u(t, x) и для решения gi(t, u).Сетки имеют одинаковый шаг, но сдвинуты друг относительно другана ∆t/2.

3. По мнению автора, при многосегментном моделировании нельзя вы-делять отдельные зоны на дендритном дереве с разными плотностямии/или разными наборами каналов. Переходы должны быть макси-мально плавными. В противном случае в сегментах на границе зонмогут наблюдаться крайне неустойчивые решения.

Геометрия дендритного дерева нейрона и типы активности

В этом подразделе мы будем детально рассматривать влияние геометриинейрона на его активность и сделаем короткое введение в типы актив-ностей нейронов. В качестве базовой будут использованы модели клетокс различной геометрией, опубликованные Майеном и Сейновски в 1996году в журнале Nature [19]. Все модели из этой работы содержали пятьканалов, приведенных в табл. 4. Плотности максимальных проводимостейдля дендритных сегментов, сомы и аксона одинаковы для всех моделей иданы в табл. 5.

Рассмотрим приведенные в [19] четыре типа нейронов (см. рис. 19).Это звездчатая безшипиковая клетка третьего слоя коры (a), звездчатаяшипиковая клетка четвертого слоя (b), малая пирамидная клетка третьегослоя (c) и большая пирамидная клетка пятого слоя (d).

Из рис. 19 видно, что, несмотря на одинаковую плотность каналов,активность моделей принципиально различна. Так, звездчатая, лишеннаяшипиков, клетка (a) способна выдавать высокочастотную активность безпризнаков адаптации или уменьшения частоты. Такие клетки по терми-

УДК 001(06)+004.032.26 (06) Нейронные сети 81

Page 82: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ТАБЛИЦА 4. Описание пяти ионных каналов и динамики кальция, ис-пользуемых в модели (цит. по [19])

EL = −70, ENa = +50, EK = −90, ECa = +140mV

Na+: m3h αm = 0.182(u+ 30)/[1− exp(−(u+ 30)/9)]βm = −0.124(u+ 30)/[1− exp((u + 30)/9)]

h∞ = 1/[1 + exp(v + 60)/6.2]αh = 0.024(u+ 45)/[1− exp(−(u+ 45)/5)]βh = −0.0091(u+ 70)/[1− exp((u + 70)/5)]

Ca2+: m2h αm = 0.055(u+ 27)/[1− exp(−(u+ 27)/3.8)]βm = 0.94 exp(−(u+ 75)/17)

αh = 0.000457 exp(−(u+ 13)/50)βh = 0.0065/[1 + exp(−(u+ 15)/28)]

K+V : m αm = 0.02(u− 25)/[1− exp(−(u− 25)/9)]

βm = −0.002(u− 25)/[1− exp((u − 25)/9)]

K+M : m αm = 0.001(u+ 30)/[1− exp(−(u+ 30)/9)]

βm = 0.001(u+ 30)/[1− exp((u + 30)/9)]

K+Ca: m αm = 0.01[Ca2+]i, τm = 0.02,[Ca2+]i (mM)

[Ca2+]i: d[Ca2+]i/dt = −αICa− ([Ca2+]i − [Ca2+]∞)/τα = 105/2F , [Ca2+]∞ = 0.1µM , τ = 200ms

Raxial: 150Ω/cm(6.66mS/cm)

нологии [6] и [22] называют fast spiking cell и обозначают FS. Другойтип активности проявляет модель звездчатой шипиковой клетки (b). По-сле короткой фазы адаптации она генерирует регулярные ПД с постояннойчастотой. Этот тип активности называют regular spiking (RS). У моделейпирамидных клеток (по данным [6], некоторые пирамидные клетки с по-граничной морфологией относятся к RS типу) наблюдается принципиальноиной тип активности. У модели малой пирамидной клетки (c) это регуляр-ные, короткие высокочастотные пачки. В реальности адаптация у такихнейронов принимает вид уменьшения количества ПД в пачке с течениемвремени. Надо заметить, что иногда адаптация может приводить к тому,

82 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 83: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 19. Четыре типа нейронов: (a) звездчатая безшипиковая клеткатретьего слоя коры; (b) звездчатая шипиковая клетка четвертого слоя;(c) малая пирамидная клетка третьего слоя; (d) большая пирамиднаяклетка пятого слоя (цит. по [19])

что пачечный режим будет наблюдаться только у первой группы ПД иредуцироваться во всех последующих группах до единичного импульса.Такой тип клеток в зарубежной литературе называют burst cell (BC). Ещенедавно к группе BC относили и активность больших пирамидных клеток.Имитация этой активности моделью показана на вкладке (d). Однако сей-

УДК 001(06)+004.032.26 (06) Нейронные сети 83

Page 84: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ТАБЛИЦА 5. Плотности максимальных проводимостей для денд-ритных сегментов, сомы и аксона (цит. по [19])

Axon gi Soma gi Dendrite gi

Na+ 30000(pS/µm2) Na+ 20(pS/µm2) Na+ 20(pS/µm2)Ca2+ 0.3(pS/µm2) Ca2+ 0.3(pS/µm2)

K+

Ca3(pS/µm2) K+

Ca3(pS/µm2)

K+

M0.1(pS/µm2) K+

M0.1(pS/µm2)

K+

V2000(pS/µm2) K+

V200(pS/µm2)

L 0.03(mS/cm2) L 0.03(mS/cm2)

час данную активность выделяют в отдельный класс. Он характеризуетсяслабой адаптацией и наличием регулярно идущих пачек с большим, чему BC, количеством ПД в пачке. Второй существенной особенностью этоготипа является наличие значительно большей, чем у BC, следовой гипер-поляризации. Клетки с таким типом активности называют chattering cell(ChC). В русскоязычной литературе для описания активности BC и ChCклеток применяют общий термин «пачечная активность».

Феноменологические модели нейронов, используемые припостроении нейронных сетей

С середины 80-х годов прошлого века и по середину первого десятиле-тия этого у исследователей, моделирующих большеразмерные сети, суще-ствовала проблема: необходимо было выбрать оптимальное приближение,масштаб для моделирования. Исследователи искали разумный компромиссмежду большей детализацией единичного элемента и описания его ди-намики и размерностью сети. Ограниченность вычислительного ресурсапородила множество упрощенных моделей, позволяющих с одной сторо-ны удовлетворительно моделировать динамику единичных элементов, а сдругой эффективно использовать вычислительный ресурс. Поскольку этимодели воспроизводили динамику мембранного потенциала как феномен,без детализации механизмов, приводящих к этой динамике, их стали назы-вать феноменологическими.

84 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 85: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

Модель интегрирующего нейрона

Эта модель нейрона появилась задолго до работ Ходжкина и Хаксли, в тевремена, когда предполагалось, что в максимуме ПД потенциал мембра-ны равен нулю. Это породило предположение, что ПД есть ничто иное,как электрический пробой мембраны, который наступает при достижениипотенциалом определенного значения. Впоследствие Роллом была предло-жена эта же модель в качестве предельного упрощения модели Ходжкина-Хаксли (ХХ). В зарубежной литературе она получила название “integrate-and-fire”, в отечественной ее называют интегрирующим или импульснымнейроном (ИН). Поведение этой модели описывается простой системойуравнений:

u = 0, t′ = t если u > ϑ

cdu

dt= Isyn −

u

rв других случаях

(32)

где u — мембранный потенциал, c — емкость мембраны, r — сопротив-ление утечки мембраны, Isyn — входной синаптических ток, ϑ — порогсрабатывания. ПД в ИН не моделируется, а лишь фиксируется как факт.Считается, что ПД произошел, когда выполнилось верхнее условие си-стемы (32). Данная модель действительно крайне примитивна, однако онахорошо воспроизводит свойство RS и FS клеток, демонстрирующих лога-рифмическое нарастание частоты импульсов при увеличении постоянноготока Isyn, инжектируемого в модель. На рис. 20 показан график поведениямембранного потенциала ИН от времени при Isyn = const (левый рису-нок) и диаграмма «ток-частота» (так называемая диаграмма I–f ; правыйрисунок, сплошная линия).

Поскольку I–f кривая у данной модели нарастает неограниченно, а уреального нейрона она насыщается, то в данную модель вводят так назы-ваемый абсолютный рефрактерный период. По аналогии с реальной клет-кой, ИН не способен «генерировать» ПД в течение определенного периодавремени после предыдущего ПД. Для этого система (32) переписываетсяследующим образом:

u = 0, t′ = t если u > ϑu = 0 t < (t′ + tref )

cdu

dt= Isyn −

u

rв других случаях

(33)

УДК 001(06)+004.032.26 (06) Нейронные сети 85

Page 86: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 20. График поведения мембранного потенциала ИН от временипри Isyn = const (слева) и диаграмма «ток-частота» (справа) (цит.по [13])

где tref — период абсолютной рефрактерности, t′ — время последнего сра-батывания ИН. I–f кривая для варианта (33) дана на рис. 20 пунктиром.Несмотря на свою простоту, данная модель имеет собственные динами-ческие и частотные свойства, однако их, как правило, не рассматривают.С другой стороны, ИН крайне удобен для аналитического рассмотрения всилу своей простоты и, кроме того, позволяет сильно экономить вычис-лительный ресурс. По мнению автора, основным недостатком ИН моделиявляется «прерывистость истории» ИН. Это становится понятным, еслизадать простой вопрос: что осталось от предыдущих срабатываний и ге-нераций ПД в текущей динамике ИН? Любой сброс одной из переменныхпо условию в определенное значение приводит к потере информации обактивности модели в предыдущий период.

Модификации модели интегрирующего нейрона

Поскольку модель ИН не требует большого вычислительного ресурса длясвоей реализации, было предпринято множество попыток его модифика-ции для придания модели ИН более биологически обоснованной динамики.Здесь будет описан модифицированный интегрирующий нейрон (МИН),предложенный автором [3]. Данная модель (в отличие от классическоймодели ИН) позволяет имитировать такие эффекты, как: следовая (пост-импульсная) поляризация и ее накопление при пачечной активности; адап-

86 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 87: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

тация к деполяризации; катодическая депрессия и постанодальная экзаль-тация. Кроме того, у МИН отсутствует прерывистость истории, о которойговорилось выше. В отличие от ИН, МИН имеет два сегмента: основнойи дополнительный. Динамика их потенциала описывается обыкновеннымидифференциальными уравнениями:

τdu

dt= rIsyn +

r

rap(uap − u)− u, τap

duapdt

= u− uap, (34)

где индекс ap обозначает переменные для дополнительного сегмента, τ =rc — постоянная времени сегмента, r — сопротивление сегмента.

Для моделирования адаптации как к длительной деполяризации, так идлительной гиперполяризации в модель введено интегральное смещениепорога:

duidt

=

ua

τr− ui если u > ui

ua

τf− ui если u 6 ui

ϑ = ui + cth, (35)

где ui — интегральный потенциал, τf и τr — постоянные времени спадаи нарастания интегрального потенциала, a — коэффициент, увеличиваю-щий скорость изменения интегрального потенциала во время ПД, а всеостальное время принимающий значение, равное единице, cth — постоян-ное смещение порогового потенциала относительно интегрального. МИНэмулирует поведение реального нейрона не только в промежутках междуПД, но и во время самого ПД. Для этого левое уравнение в (34) заменяетсясистемой:

τdu

dt= rIsyn +

r

rap(uap − u)− u+ 2

r

τsθs , если t− t′ < τs

2

τdu

dt= rIsyn +

r

rap(uap − u)− u− 2

r

τsθs , если

τs

2< t− t′ < τs

τdu

dt= rIsyn +

r

rap(uap − u)− u в других случаях,

(36)где τs и θs — длительность и амплитуда ПД, соответственно.

Свойства МИН во многом повторяют характерные свойства ИН. Несмот-ря на то, что у МИН нет сброса по условию, сохраняется логарифмическая

УДК 001(06)+004.032.26 (06) Нейронные сети 87

Page 88: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

передаточная характеристика I–f , которая показана на рис. 21 для различ-ных значений τ .

РИС. 21. Логарифмическая передаточная характеристика I–f для раз-личных значений τ (цит. по [2])

В дополнение к уже сказанному, МИН позволяет моделировать скоростьадаптации в зависимости от постоянной времени основного интегратора.Данное свойство не закладывалось первоначально в модель и вытекаетиз того, что генератор ПД влияет по-разному на нейроны с разными по-стоянными времени. Поскольку значение порога зависит от интегральногопотенциала, то для клеток с большой постоянной времени интегральныйпотенциал будет больше, а для меньшей постоянной времени и интеграль-ный потенциал уменьшится.

Модель ФицХью и Нагумо

МИН, как и ИН, базируется на обыкновенном линейном дифференциаль-ном уравнении. Однако, существуют и другие типы моделей. Рассмот-рим классическую модель с нелинейной правой частью, предложенную

88 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 89: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 90: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

полинома имеются три точки равновесия, одна из которых неустойчива.В зависимости от значения параметров устойчивые точки равновесия мо-гут быть помещены вблизи потенциала покоя и максимальной амплитудыПД. В зависимости от коэффициентов ε и e в (37) наклон линейной частивторого уравнения можно менять. Поэтому данная модель имеет способ-ность к автогенерации. В своем классическом варианте, с устойчивым вто-рым уравнением, модель демонстрирует такие феномены, как адаптация,постанодальная экзальтация и уменьшение амплитуды ПД при пачечномрежиме.

Модель Ижикевича

Несмотря на то, что модель ФХН является достаточно простой и уни-версальной, Евгением Ижикевичем в 2001 году была предложена модельнейрона, несколько упрощающая модель ФХН. Она основывается на квад-ратном полиноме в правой части уравнения для мембранного потенциала,также является двусегментной и содержит дополнительное условие длясброса:

du

dt= 0.04u2 + 5u+ 140− v,

dv

dt= a(bu− v), (38)

если u > 30 : u← c, v ← v + d,

Поведение основного и дополнительного потенциалов во время ПДпоказано в левой части рис. 23 (необходимо учитывать, что в оригинальнойработе, откуда взята иллюстрация, v(t) обозначает мембранный потенциал,а u(t) — дополнительную переменную). В работе [17] показано, что даннаямодель способна воспроизводить все двадцать типов активности реальныхбиологических нейронов (по классификации Ижикевича) в зависимости отзначений четырех параметров модели.

Справа на рис. 23 приведены значения параметров данной модели длясеми различных типов активности, а на рис. 24 показаны сами паттерныактивности.

По субъективному мнению автора, единственным недостатком данноймодели является частичная разрывность ее истории вследствие сброса мем-бранного потенциала при достижении им порога (т. е. уровня 30 мВ).

90 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 91: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 23. Изменение основного и дополнительного потенциалов во вре-мя потенциала действия (слева) и параметры для различных режимовработы (справа). Следует учитывать, что в оригинальной работе, от-куда взята иллюстрация, v(t) обозначает мембранный потенциал, аu(t) — дополнительную переменную (цит. по [16])

РИС. 24. Имитация паттернов активности характерных для различныхвидов реальных биологических нейронов (цит. по [16])

Общая сравнительная характеристика феноменологических моделей

На рис. 25 приводится сравнительная таблица и диаграмма «биологическаяадекватность–необходимый вычислительный ресурс», в которой приведе-ны данные для наиболее популярных феноменологических моделей. Стоитзаметить, что, несмотря на полноту приведенной картины, некоторые ас-

УДК 001(06)+004.032.26 (06) Нейронные сети 91

Page 92: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

пекты представленных данных являются субъективным мнением ее автора.

Модели синаптической передачи

Как упоминалось ранее, моделей синаптической передачи (как химической,так и электрической) значительно меньше, чем моделей нейронов. Но ихтакже можно разделить на феноменологические и детальные. Рассмотримвначале простую универсальную модель электрического синапса.

Модель электрического синапса

Как было описано выше, электрический синапс можно рассматривать каксвободный ток ионов через крупные поры между клетками. Движение раз-нородных ионов в растворе есть электрический ток, и переносом веществапри моделировании электрических синапсов, как правило, пренебрегают.Совершенно очевидно, что:

Isyne12 = −Isyne21 = gsyne(u2 − u1), (39)

где gsyne— проводимость электрического синапса, u1 и u2 — потенциалы

связываемых клеток, Isyne12 и Isyne21 — синаптические токи электрическо-го синапса для первой и второй клетки соответственно.

Применение для химического синапса омической модели делается срядом неочевидных допущений:

1) безразлична природа переносчиков электрического тока;2) ионы движутся только по направлению электрического поля и не

перемещаются химическим градиентом;3) ток ионов никак не изменяет концентрации веществ во внутрикле-

точных средах двух клеток.

Однако поскольку в глиальных клетках экспериментально показано суще-ствование кальциевых волн за счет обмена кальцием через электрическиесинапсы, то обменом Ca2+ нельзя пренебрегать при моделировании этоговида синапса. По мнению автора, следует рассчитывать омический ток (39),далее вычислять ток кальция по выражению Гольдмана и корректироватьвнутриклеточные концентрации кальция в обоих нейронах.

92 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 93: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 25. Сравнительная таблица и диаграмма «биологическаяадекватность–необходимый вычислительный ресурс» с данными длянаиболее популярных феноменологических моделей (цит. по [17])

УДК 001(06)+004.032.26 (06) Нейронные сети 93

Page 94: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Феноменологические модели химической синаптической передачи

Поскольку, как правило, химические синапсы предполагают однонаправ-ленное воздействие от предсинапса к постсинапсу, при их моделированиитакже выделяют предсинаптическую и постсинаптическую части. Обычнофеноменологические модели синапсов применяют в сетях с феноменоло-гическими же моделями нейронов. Как мы видели в разделе 3, далеко невсе модели нейронов эмулируют ПД, некоторые из них, например ИН,лишь фиксируют момент времени его возникновения t′. Поэтому в фено-менологических моделях также фиксируют лишь время ПД. Рассмотримнесколько простейших моделей:

Isyn =

0 если t < tp

ω exp

(t′p − t

Ω

)в других случаях

(40)

Isyn =

0 если t < t′p

ωt′p − t

Ωexp

(1−

t′p − tΩ

)в других случаях

(41)

Isyn =

0 если t < t′p

ω

exp

(t′p − tΩ1

)− exp

(t′p − tΩ2

)

Ω1 − Ω2в других случаях

(42)

где tp′ — момент времени последнего предсинаптического ПД, ω — макси-мальный ток синапса, называемый также весом синапса, Ω — постояннаявремени синапса. Модель (41) также называют альфа-синапсом, а модель(42) двухэкспоненциальной. Однако, все эти очень простые модели не учи-тывают ни выброса медиатора, ни его возможное накопление в синапти-ческой щели и, как следствие, не способны воспроизвести ряд феноменов,наблюдающихся в реальных синапсах.

Приведем еще одну феноменологическую модель, предложенную авто-ром:

dmi

dt=

ms

Ωr−mi

Ωfесли t− t′pΩr

−(mi

Ωf

)в других случаях

; Isyn = ωmi, (43)

94 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 95: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

где Ωr — постоянная времени нарастания постсинаптического тока, Ωf —постоянная времени его спада, ms — величина выброса медиатора, вызван-ного единичным ПД. Поскольку введена дополнительная динамическая пе-ременная mi, описывающая количество медиатора в синаптической щели,данная модель способна воспроизводить такой феномен, как накоплениемедиатора в щели. Однако, у модели (43) есть существенное ограничение.Поскольку в модели нет ограничения амплитуды mi то синаптический токпри накоплении медиатора может принимать значения, не обоснованные сбиологической точки зрения.

Детальные модели химической синаптической передачи

При детальном моделировании необходимо учитывать, что синаптическийток имеет ту же природу, что и все трансмембранные токи, и, следова-тельно, его необходимо моделировать в терминах реверсных потенциалови максимальных проводимостей:

Isyn = gsynΘ(u− Esyn), (44)

где gsyn — максимальная синаптическая проводимость, Esyn — реверсныйпотенциал синапса, Θ — воротная функция синапса.

Приведем несколько примеров воротной функции синапса. В работе [8]используют две Θ — с быстрой и медленной динамикой для ионотропныхи метаботропных синапсов соответственно:

dt= α

(1 + exp

(up − ϑs

))−1

− Θ

Ω(45)

dt= αΘx (1−Θ)− Θ

ΩΘ;

dx

dt= αx

(1 + exp

(up − ϑs

))−1

− x

Ωx(46)

где α — коэффициент нарастания, τ — постоянные времени, up — потенциалпредсинаптического нейрона, ϑ — потенциал полуактивации синапса, s —крутизна нарастания активации предсинапсом посинаптического тока. Каквидно из выражений (45) и (46), в данной реализации воротная переменнаязависит от значения предсинаптического потенциала up. В связи с тем, чтоПД является весьма коротким по времени событием, выброс медиатора,моделируемый сигмоидной функцией (в выражениях (45) и (46) терм в ми-нус первой степени), а, следовательно, и активация воротной переменной

УДК 001(06)+004.032.26 (06) Нейронные сети 95

Page 96: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

достаточно быстры. В силу динамических свойств модели (45) ее приме-нение оправданно, только если максимум ПСП приходится на окончаниеПД предсинаптического нейрона. Для более пролонгированной динамикивполне уместно использовать двухстадийную модель (46), в которой ПДактивирует промежуточную переменную x, медленное затухание которойпосле ПД продолжает активировать основную воротную переменную.

В некоторых работах учитывается тот факт, что выброс медиатора явля-ется случайным процессом, модулируемым предсинаптическим потенциа-лом. При моделировании для этого используется распределение Пуассона:

Θ(up, t) = P (up,Ξ(t)), (47)

где P — распределение Пуассона, Ξ(t) — некоторый случайный процесс.В работе [7] также учитывается потенциальная чувствительность маг-

ний содежащей компоненты, которая содержиться в некоторых типов ре-цепторов. Кроме того, в [14] учитывается эффект истощения медиатора впредсинаптическом терминале (так как запасы медиатора в предсинапсеограничены, и для их восстановления требуется время). Однако, в боль-шинстве случаев для большеразмерной сети вполне подходят модели (45)и (46), которые можно отнести к детальным феноменологическим.

В заключении этого раздела хотелось бы отметить, что моделированиесинаптической передачи становится значительно более сложным в случаемногосегментных моделей, имитирующих динамику концентраций ионовво внутриклеточной среде. Для этих целей не подходит ни одна из выше-описанных моделей, и требуются специальные подходы к описанию про-цессов, происходящих при генерации ПСП.

Примеры моделей биологически обоснованныхнейронных сетей

В данном разделе приведены несколько примеров построения моделейнейронных сетей. Для иллюстрации использовались наиболее интересные,нетипичные модели, демонстрирующие зачастую неожиданные и парадок-сальные результаты. К таким моделям, по мнению автора, можно отнестимодель с автоторможением, предложенную Додла и Ринзелем в 2005 го-ду [11].

96 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 97: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

Модель с автоторможением

Гистологи и нейробиологи давно обратили внимание на то, что у некоторыхтормозных клеток после длительного ветвления аксон образует синаптиче-скую терминаль с клеткой, из которой он вышел (т. е. возвращается). По-скольку длительность распространения импульса по волокну достаточновелика, данную связь нельзя считать классической обратно-отрицательнойсвязью. Поэтому такое автоторможение до недавнего времени не рассмат-ривалось вообще.

Из общих соображений можно предположить, что наличие ветви ав-тоторможения должно ограничивать активность клетки, не давая ей гене-рировать длительные пачки ПД, уменьшая общее количество импульсов впоследовательности и среднюю частоту.

Рассмотрим классическую модель ХХ (15), (11) и (12), активируемуюнекоторым случайным процессом. Пусть эта модель имеет единственныйсинапс сама с собой, моделируемый уравнением (45). Будем задерживатьзначение предсинаптического потенциала клетки, модулирующего синапс,на 1 мс, что соответствует задержке по относительному длинному тонкомуволокну.

На вкладке в верхнем правом углу рис. 26 изображена схема нейрон-ной сети, а на треках — активность нейрона без автоторможения (верхнийграфик) и с автоторможением (нижний график). Как ни парадоксально этовыглядит на первый взгляд, при автоторможении среднее количество им-пульсов увеличивается и частота генерации ПД возрастает.

На рис. 27 приведен график зависимости выходной частоты модели отчастоты входа при различных максимальных проводимостях тормозногосинапса. На графике хорошо видно, что при некоторых условиях выход-ная частота модели с максимальной проводимостью тормозного синапса20mS/cm2 в полтора раза превышает выходную частоту без автоторможе-ния.

Анализ модели показывает, что причиной этого результата являетсяфакт, что ТПСП автоторможения возникает как раз в тот момент времени,когда начинает открываться калиевый канал (это хорошо видно на нижнемграфике рис. 26, где показана также динамика проводимости тормозногосинапса). Шунтируя проводимость калиевого канала, тормозный синапсувеличивает срез ПД, не давая калиевой воротной переменной полностьюоткрыться. Это, в свою очередь, приводит к быстрой инактивации калие-вого канала и более быстрому восстановлению клетки после предыдущего

УДК 001(06)+004.032.26 (06) Нейронные сети 97

Page 98: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 26. Схема нейронной сети (вкладка в верхнем правом углу),активность нейрона без автоторможения (верхний график) и с авто-торможением (нижний график) (цит. по [11])

ПД.Эта модель является хорошей иллюстрацией того, как моделирование

может помочь объяснить, какую роль играют те или иные особенностиреальной нейронной сети.

Модель зрительной коры кошки

Другая, не менее примечательная модель была опубликована Хиллом и Та-нони также в 2005 году [14]. В этой модели содержалось более 65 тысячточечных моделей нейронов. Каждый элемент сети моделировался однойсистемой уравнений, представляющим собой некоторый компромисс меж-ду ИН и точечной моделью ХХ. Модель структурно повторяла первичныеи вторичные зрительные поля коры и специфические и неспецифическиеядра таламуса в масштабе 1 : 9, т. е. на один моделируемый нейрон вреальном мозге животного в среднем приходится девять нервных клеток.

На рис. 28 приведена общая структура сети, состоящей из двух отделов— первичного V p и вторичного V s, включающих в себя: участки коры,

98 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 99: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 27. Зависимость выходной частоты модели от частоты входа приразличных максимальных проводимостях тормозного синапса (цит. по[11])

каждый из которых состоял из трех слоев, имитирующих реальные сетислоев L1−L3, L4 и L5−L6 соответственно; два участка таламуса: релей-ного ядра Tp и неспецифического ядра Ts; два отдела при таламическойретикулярной формации — Rp и Rs соответственно. Структура возбужда-ющих и тормозных связей строилась таким образом, чтобы в вертикаль-ном направлении в сети образовывались группы с колончатой структурой.Каждая из таких колонок была настроена на распознавание определеннойориентации и была способна различать ее во входном сигнале. Основнойособенностью данной модели являлось то, что она демонстрировала нетолько активность, характерную для нейронов во время бодрствования, нои была способна моделировать активность во время медленноволновогосна. Причем переход от одной активности к другой сопровождался целымкаскадом характерных паттернов, соответствующим слабой, средней и глу-бокой дремоте.

На рис. 29 показан переход модели от паттерна, соответствующего бодр-ствованию, к паттерну медленноволнового сна. Для такого перехода у всех

УДК 001(06)+004.032.26 (06) Нейронные сети 99

Page 100: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 28. Общая структура сети, состоящей из двух отделов — пер-вичного V p и вторичного V s (цит. по [14])

клеток модели увеличивалась проводимость пассивного K+L канала. Как

видно из рисунка, модель переходит от единичных ПД к паттерну актив-ности «пачка–пауза–пачка», характерному для медленноволнового сна. Хо-рошо известно, что синхронизация нейронов повышается во время так на-зываемого верхнего состояния (upstate), а в паузах между ними (downstate)резко падает. На пространственной диаграмме модели (в нижней частирис. 29) видно, что данная модель хорошо повторяет эти особенности по-ведения реальных нейронов во время медленноволнового сна. При помощиэтой модели можно ответить на вопрос: какие ионные каналы или/и какиесвязи влияют на медленноволновую активность? На рис. 30 показаны двеиллюстрации из этой работы, которые наглядно демонстрируют, как ме-няется поведение модели при удалении тех или иных ее компонент, уве-личении или уменьшении влияния различных ионных каналов на общуюдинамику активности.

100 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 101: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

РИС. 29. Переход модели от паттерна, соответствующего бодрствова-

Page 102: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 30. Изменение поведения модели при удалении различных еекомпонент, увеличении или уменьшении влияния различных ионныхканалов на общую динамику активности (цит. по [14])

102 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 103: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

Заключение

Рассмотренные в данной лекции модели не исчерпывают все возможныевиды моделирования. К сожалению, из-за ограниченного объема не удалосьвключить раздел, посвященный моделированию внутриклеточной динами-ки кальция и натрия, моделям активных и пассивных транспортов, моделямбуферизации и выброса различных ионов.

Как мы видели из приведенных примеров, моделирование нейронов инейронных сетей зачастую позволяет не только объяснить, как происходятте или иные процессы, но и обнаружить явления, ранее неизвестные и неявляющиеся очевидными. С методологической точки зрения моделирова-ние заменяет синтез в процессе познания природы. Не будучи способнымипонять все множество экспериментальных фактов и взаимодействий выяв-ленных процессов, мы вынуждены моделировать их.

Эта особенность моделирования привела к тому, что во многих зару-бежных журналах по нейрофизиологии редакция рекомендует обязательновключать моделирование если не в само исследование, то хотя бы в дис-куссию.

Безусловно, по-прежнему остаются элементы «искусства» при правиль-ном подборе модели, поиске оптимального соотношении размерности сетии точности модели, при выборе уровня рассмотрения проблемы, на ре-шение которой направлено моделирование. Однако, в большинстве случа-ев такие вопросы уже не столь критичны для исследователя. Возросшаямощность вычислительной техники и специализированные программныепродукты c высокой эффективности позволяют решать многие задачи мо-делирования без ограничений точности модели.

Как следует из общего содержания, специалист в области биологическиобоснованного нейромоделирования обязательно должен владеть прочны-ми знаниями математических методов, численных методов, иметь навыкипрограммирования и, главное, хорошо разбираться в проблемах и вопросахнейробиологии. Подготовка такого специалиста, объединяющего знания изтрех разнородных областей, непростая задача. Проблема усугубляется тем,что на русском языке практически отсутствует литература по данным во-просам. Автор настоятельно рекомендует заинтересовавшимся этой увле-кательной наукой обратиться к доступным учебникам на английском илифранцузском языке.

УДК 001(06)+004.032.26 (06) Нейронные сети 103

Page 104: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Литература

1. Николлс Д., Мартин Р., Валлас Б., Фукс П. От нейрона к мозгу // Пер. с англ.П. М. Балабана, А. В. Галкина, Р. А. Гиниатуллина, Р. Н. Хазипова, Л. С. Хируга.– М.: Едиториал УРСС, 2003.

2. Тикиджи-Хамбурьян Р. А. Анализ влияния генератора спайков на динамиче-ские свойства модифицированного импульсного нейрона. // Тез. док. 5-ой Все-российской научно-технической конференции «Нейроинформатика 2003», М.:МИФИ, 2003, с. 134–141.

3. Тикиджи-Хамбурьян Р. А. Модифицированный импульсный нейрон как базоваямодель для реалистичных нейронных сетей // Нейрокомпьютеры: разработка

и применение, 7–8, 2002.

4. Уосcерман Ф. Нейрокомпьютерная техника: Теория и практика. Пер. с англ. –М.: Мир, 1992. – 240 с.

5. Шепард Г. Нейробиология. В 2-х т. Т.1. Пер. с англ. – М.: Мир, 1987. – 454 с.

6. Bannister A. P. Inter- and intra-laminar connections of pyramidal cells in theneocortex // Neuroscience Research. v. 53: 95–103, 2005.

7. Brunel N., Wang X.-J. Effects of Neuromodulation in a Cortical Network Model ofObjectWorking Memory Dominated by Recurrent Inhibition // J. Comput. Neurosci.

– v. 11: 63–85, 2001.

8. Compte A., Sanchez-Vives M. V., McCormick D. A., Wang X.-J. Cellular and networkmechanisms of slow oscillatory activity (1 Hz) and wave propagations in a corticalnetwork model // J. Neurophysiol., v.89: 2707–2725, 2003.

9. Dayan P., Abbott L. F. Theoretical neuroscience (computational and mathematicalmodeling of neural Systems. – MIT Press, Cambridge MA, 2001.

10. DeSchutter E., Bower J. M. An active membrane model of the cerebellar Purkinjecell (I. Simulation of current clamps in slice) // J. Neurophysiol., vol. 71: 375–400,1994.

11. Dodla R, Svirskis G, Rinzel J. Well-timed, brief inhibition can promote spiking:Postinhibitory facilitation // J. Neurophys. 95: 2664–2677, 2006.

12. FitzHugh R. Impulses and physiological states in models of nerve membrane? // J.

Biophys., v.1: 445–466, 1961.

13. Gerstner W., Kistler W. M. Spiking neuron models: Single neuron, populations,plasticity. – Cambridge University Press, 2002.

14. Hill S., Tononi G. Modeling sleep and wakefulness in the thalamocortical system// J. Neurophysiol., v.93: 1671–1698, 2005.

104 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 105: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Р.А.ТИКИДЖИ-ХАМБУРЬЯН

15. Hille B. Ion channels of excitable membranes. Third Edition. – Sinauer AssociatesInc., Sunderland, Massachusetts USA, 2001.

16. Izhikevich E. M. Simple model of spiking neurons // IEEE Transactions on Neural

Networks, v. 14: 1569–1572, 2003.

17. Izhikevich E. M. Which model to use for cortical spiking neurons? // IEEE

Transactions on Neural Networks. – v.15: 1063–1070, 2004.

18. Izhikevich E. M., FitzHugh R. FitzHugh-Nagumo model // Scholarpedia, 3193, 2006

19. Mainen Z. F., Sejnowski T. J. Influence of dendritic structureon firing pattern inmodelneocortical neurons // Nature. – v. 382: 363–366, 1996.

20. McCormick D. A., Pape H.-C. Properties of a hyperpolarization-activated cationcurrent and its role in rhythmic oscillation in thalamic relay neurons // J. Physiology.

– v. 431: 291–318, 1990.

21. McCormick D. A. Huguenard J. A model of the electrophysiological properties ofthalamocortical relay neurons // Journal of Neurophysiology. – v. 68: 1384–1400,1992.

22. Nowak L. G., Azouz R., Sanchez-Vives M. V., Gray C. M., McCormick D. A.

Electrophysiological classes of cat primary visual cortical neurons in vivo as revealedby quantitative analyses // J. Neurophysiol. – v. 89: 1541–1566, 2003.

Рубен Акимович ТИКИДЖИ-ХАМБУРЬЯН, старший научный сотруд-ник НИИ Нейрокибернетики им. А. Б. Когана, Южного Федерального Уни-верситета. Область научных интересов: детальное моделирование нейро-нов и локальных нейронных структур мозга; нейронные ансамбли — воз-никновение и стабилизация; обучение с учетом локальной кальциевой ди-намики, обратного распространения потенциала действия по дендритномудереву нейрона и локальной биохимической кинетики. Является авторомболее 30 научных работ.

Page 106: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л. А. СТАНКЕВИЧСанкт-Петербургский государственный политехнический университет

E-mail: [email protected]

ИСКУССТВЕННЫЕ КОГНИТИВНЫЕ СИСТЕМЫ

Аннотация

В данной лекции обсуждаются пути развития искусственных когнитивныхсистем. Один из таких путей, связанных с разработкой когнитивных гибрид-ных систем, которые способны обучаться восприятию сложной информациии формированию рационального поведения в динамически изменяющихсясредах в реальном времени, рассматривается детально. Показано, что такиесистемы могут быть эффективны, например, для современных интеллекту-альных роботов, поскольку они могут быть базой для разработки искус-ственной нервной системы таких роботов. Приводятся примеры разработкии применения обучаемых компонентов когнитивных систем.

L. A. STANKEVICHSaint-Petersburg State Polytechnic University, Russia

E-mail: [email protected]

ARTIFICIAL COGNITIVE SYSTEMS

Abstract

In the given lection, ways for development of artificial cognitive systems arediscussed. One of the ways related to cognitive hybrid systems, which are ableto be learned and to form complex information perception and rational behaviorforming in real time, are considered in details. It is shown that such systems canbe effective, for example, for the modern intellectual robots because they canbe a base for artificial nervous system of robots. Examples of development andapplication of the cognitive system learnable components are considered.

106 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 107: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

ВведениеРазвитие искусственного интеллекта привело к формированию нового под-хода, который предполагает создание интеллектуальных обучаемых системна основе раскрытых в последнее время нейрофизиологических принциповпостроения нервной системы и методов познавательной и мыслительной(когнитивной) деятельности человека. Такой подход может быть назван ко-гнитивным подходом, а системы — искусственными когнитивными систе-мами. Предполагается, что научное направление, связанное с построениемискусственных когнитивных систем, будет определять развитие информа-тики и искусственного интеллекта в ближайшем будущем. Разработка ко-гнитивных систем стала главным вызовом нового столетия, о чем свиде-тельствуют крупные проекты в этом направлении, объявленные DARPA,FP7-IST и др.

Проблема, связанная с разработкой искусственных когнитивных си-стем, возникла на стыке когнитивной науки и искусственного интеллекта.Ожидается, что такие системы будут способны к накоплению знаний в ре-альном времени и самоорганизации в процессе решения сложных и трудноформализуемых задач. Развитие искусственных когнитивных систем имеетцелью достижение уровня интеллектуальности систем, близкого к челове-ческому, что позволит автоматизировать процесс решения многих задач,которые не могут быть эффективно решены традиционными интеллекту-альными системами. Разработка искусственных когнитивных систем со-провождается теоретическими исследованиями, направленными на созда-ние подходящих концепций и архитектур таких систем, а также методовреализации таких систем, их структур и элементов.

В данной лекции обсуждаются пути развития когнитивного подхода впсихологии, а также связь искусственного интеллекта и когнитивной науки.Рассматриваются когнитивистская и эмерджентная парадигмы искусствен-ных когнитивных систем. Кратко описываются некоторые из известных ар-хитектур когнитивистских, эмерджентных и гибридных систем. Подробноописывается развиваемая автором и его коллегами методология разработкигибридных когнитивных систем. Рассмотрены специально разработанныекогнитивные концепции, архитектуры и когнитивные средства построениятаких систем. Показано применение разработанных средств для созданиякогнитивных агентов, способных эффективно функционировать в составесистем группового управления реального времени в динамически меняю-щихся средах, а также в составе искусственной нервной системы гумано-идного робота.

УДК 001(06)+004.032.26 (06) Нейронные сети 107

Page 108: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Когнитивный подход и развитие когнитивной науки

Истоки когнитивного подхода в науках о человеке прослеживаются, на-чиная с работ древнегреческих мыслителей. К ним можно отнести уче-ние об универсалиях Платона, его теорию памяти, аристотелевские законыассоциации и принципы рассуждения, составляющие основу логическо-го мышления и др. Однако реальное осознание этих понятий произошлов более поздний период, связанный с возникновением научной психоло-гии. Начало научной психологии исходит от Гельмгольца (Hermann vonHelmholtz, 1821–1894) и Вандта (Wilhelm Wundt, 1832–1920). Гельмгольцпервый применил научный подход к изучению зрения человека. Вандт в1879 году открыл первую лабораторию экспериментальной психологии вуниверситете Лейпцига. Здесь он начал эксперименты по решению людьмизадач восприятия и ассоциативных задач, интроспективному (основанномуна субъективном объяснении) исследованию мыслительных процессов че-ловека. Однако позднее возникшее движение бихевиоризма (John Watson,1878–1958) и (Edward Lee Throndike, 1874–1949) восстало против субъек-тивизма, отрицая любую теорию, включающую ментальные процессы, натом основании, что интроспекция не может обеспечить надежных свиде-тельств. Бихевиористы замыкались на изучении только объективных изме-рений восприятия (или стимулов, задаваемых животным) и их результата-ми (или ответами). Ментальные конструкции, такие как Знания, Убежде-ния, Цели и Шаги рассуждений были признаны ненаучными, связаннымис «народной» психологией. Бихевиоризм раскрыл множество знаний о по-ведении крыс и голубей, но имел меньше успехов в понимании людей.Несмотря на это, он имел сильное влияние на психологию (особенно вСША) в 1920–1960 годы.

Термин «когнитивный» происходит от лат. cognitio — познание, а соб-ственно когнитивный подход базируется на идеях когнитивной психологии

— одного из динамично развивающихся направлений. Когнитивная психо-логия, давшая взгляд на процессы мозга, как процессы обработки информа-ции, связана с работами Джеймса (William James, 1842–1910). Заметим, чтои Гельмгольц также настаивал, что восприятие включает форму бессозна-тельного логического вывода. Когнитивная точка зрения была сильно за-темнена бихевиоризмом, пока в 1943 году К. Кларк не опубликовал работу“The Nature of Explanation”, где вернул значение ментального шага междустимулом и ответом и показал, что Убеждения, Цели и Шаги рассуждениймогут быть полезными компонентами теории поведения человека. Он яс-

108 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 109: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

но описал три ключевых шага процесса преобразования стимула в ответ:(1) стимул транслируется во внутреннее представление; (2) это представ-ление преобразуется когнитивными процессами, чтобы произвести новоевнутреннее представление; (3) последнее представление, в свою очередь,ретранслируется в ответное действие.

Формирование когнитивной психологии как особой дисциплины обыч-но связывают с именем Найссера, опубликовавшего книгу с изложени-ем когнитивного подхода в психологии [1], которая стала в определенномсмысле программной. Он отнес к числу важнейших принципов когнитив-ного подхода трактовку человека как действующего, активно восприни-мающего и продуцирующего информацию, руководствующегося опреде-ленными планами, правилами, стратегиями. Для этого подхода характернаспецифическая направленность исследований, выражающаяся в движенииот понимания сложного феномена к пониманию простого. Заметим, что би-хевиоризм и необихевиоризм имеют противоположную исследовательскуюстратегию, основанную на понимании сложного процесса путем предвари-тельного изучения простых процессов. Для когнитивного подхода важныммоментом является рассмотрение активности человека как иерархическиорганизованной.

Первоначально основной задачей когнитивного подхода было изучениепроцессов преобразования информации с момента поступления сигнала ворганы чувств до получения ответа. Сторонники когнитивного подхода ис-ходно используют «компьютерную метафору», уподобляя процессы пере-работки информации человеком тем, которые протекают в вычислительномустройстве [2]. Использование динамических моделей и математическихформализмов для описания мыслительных процессов также играет значи-тельную позитивную роль в развитии этого подхода. Еще одной сферой,оказавшей большое влияние на развитие когнитивного подхода, явилисьисследования в области математической лингвистики, в частности, так на-зываемые трансформационные грамматики, разработаны Н. Хомским [3].

С точки зрения психологии и нейробиологии нервная система человекавключает когнитивную и аффективную системы [4]. Когнитивная систе-ма отвечает за восприятие информации о среде, получаемой с помощьюсенсоров, структурирование и хранение ее в виде знаний в кратковремен-ной и долговременной памяти, а также организует ментальные (разумные)процессы преобразования информации при решении интеллектуальных за-дач. Аффективная система организует выполнение действий, которые ведутк реализации выработанных когнитивной системой планов, т. е. коорди-

УДК 001(06)+004.032.26 (06) Нейронные сети 109

Page 110: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

нирует и управляет моторикой всех эффекторов человеческого организма(мышцами, органами пищеварения, кровоснабжения и др.). Эти системынаходятся в постоянном взаимодействии друг с другом, обеспечивая целе-сообразное функционирование организма в условиях изменяющейся среды.

Современные исследования в области когнитивной науки позволилисделать интересные обобщения, на базе которых создаются новые когни-тивные модели, и обосновать новые гипотезы о когнитивных процессахмозга [5]. Следует заметить, что в настоящее время когнитивный подходв психологии испытывает определенные трудности, связанные с обили-ем моделей, предлагаемых для интерпретации различных аспектов мысли-тельного процесса, и отсутствием достаточных оснований для аргументи-рованного выбора среди них.

Искусственный интеллект и когнитивная наука

В настоящее время термин «когнитивный» используется не только в психо-логии, но и в технике. Разработка ряда когнитивных моделей, т. е. форма-лизованных моделей мыслительных процессов, отражающих современныегипотезы об их протекании в мозге человека, положило начало применениюкогнитивного подхода при создании технических систем. Применительнок техническим системам также стал использоваться термин «когнитивныесистемы», как отражение факта использования когнитивных моделей в ин-теллектуальных системах [6, 7].

Переход психологических понятий в техническую область свидетель-ствует о попытке приблизить интеллектуальные способности техническихсистем к человеческим. Понятие когнитивности в психологии связываетконцепции познания и знаний. Когнитивная наука детально изучает инфор-мационные процессы мозга человека и пытается строить формализован-ные модели этих процессов. Технически важно то, что мозг воспринимаетинформацию, т. е. обрабатывает ее сенсорными системами и формируетструктурированную систему знаний. Результаты исследования процессовобработки информации, связанных с познанием и мышлением в рамкахкогнитивной науки позволили построить когнитивную теорию мозга, опи-сывающую работу мозга на основе информационного подхода и концепциизнаний. Эта теория оказалась полезной с точки зрения совершенствованиятехнических интеллектуальных систем.

Специалисты по интеллектуальным системам, использующие когнитив-

110 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 111: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

ную теорию мозга, стали трактовать познание с технической т

Page 112: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

системам [11] выделены два класса подходов. Когнитивистский подход

основан на символьном представлении знаний об окружающем мире исимвольной обработке этой информации при решении интеллектуальныхзадач. Эмерджентный подход основан на принципах самоорганизации, ко-торая обеспечивает приспособление системы к изменениям, происходящимв окружающем мире.

РИС. 1. Классификация когнитивных подходов и систем

Когнитивистский подход соответствует классическому для искусствен-ного интеллекта символистскому представлению когнитивности как спо-собности решать задачи с использованием символьных представлений опроблемной области. Такой подход привел к разработке концепции физиче-ских символьных систем и систем на базе теории познания и практическоговывода.

Эмерджентный подход противостоит взгляду на обработку информа-ции в символьном виде и отдает предпочтение позиции, где когнитивностьрассматривается как эмерджентная, т. е. неожиданно появляющаяся илиразвивающаяся в процессе самоорганизации способность рационально ре-шать задачи в структурном или алгоритмическом виде. В эмерджентныхкогнитивных системах при самоорганизации в зависимости от реализацииавтоматически создаются коннективистские, динамические или инактив-

112 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 113: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

ные структуры, активизация которых приводит в итоге к формированиюсистемой рационального поведения.

Различия этих подходов фундаментальны не только в плане манипуля-ции символами. Основные различия кратко охарактеризованы в табл. 1.

ТАБЛИЦА 1. Сравнение когнитивистского и эмерджентного подходов

« - »

,

« -

»

Когнитивистские системы

Когнитивизм имеет свое происхождение в кибернетике 1945–56 годов.Именно в этот период намерением кибернетиков было создание наукио мозге, основанной на логике. Основной идеей когнитивизма являет-ся утверждение, что познание включает вычисления, определенные че-рез внутренние представления в виде знаний, которые дают абстрактнуюинформацию о мире. Это представление формируется через восприятие,которое определяет подходящую символьную структуру данных, а затемэта структура используется для планирования и действий в мире. Такойподход обозначается как манипуляция символами.

В когнитивистских системах когнитивность обеспечивается манипуля-циями с явными символьными представлениями состояния и поведения

УДК 001(06)+004.032.26 (06) Нейронные сети 113

Page 114: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

во внешнем мире, чтобы обеспечить подходящие адаптивные, основанныена предвидении эффективные взаимодействия, а также накопление знаний,собранных из опыта. Восприятие касается абстракции пространственных ивременных представлений внешнего мира из сенсорных данных. Рассужде-ния производятся через манипулирование символьными представлениямио внешнем мире, которое позволяет изменять конфигурацию мира, возник-шую из причинных действий. В большинстве когнитивистских систем сим-вольные представления являются продуктом конструктора-человека. Этозначит, что такие представления хорошо понимаемы и интерпретируемылюдьми. Однако это является и ограничительным фактором когнитивист-ских систем, поскольку такие создаваемые человеком представления обед-няют систему, являясь идеализированными.

Физическая символьная система определена Ньюэлом и Саймоном вих ранней работе по искусственному интеллекту [12]. Понятие физическойсимвольной системы эквивалентно автоматической формальной системе.Такая система производит эволюционирующий во времени набор символь-ных структур. Символ представляется как физический паттерн, которыйявляется компонентом символьной структуры.

Ньюэл и Саймон считали, что в физической символьной системе имеютместо два сильно связанных рекурсивных процесса (рис. 2): (1) процессымогут производить процессы и (2) паттерны могут назначать паттерны(которые могут быть также и процессами). Согласно этой схеме, системане только может быть построена на абстрактных представлениях и выводахна них, но она может быть модифицирована как функция обоих процессовчерез текущее состояние (структуру) и ее представление.

Считается, что физические символьные системы могут рассматриватьсякак абстрактные модели когнитивистских систем.

Системы на базе теории познания

Page 115: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

( ,

) (1)

(2)

РИС. 2. Физические символьные системы

нимо с поведением людей, которые знают, как хорошо это делать с учетомсделанных ошибок.

Системы на базе теории практического вывода основаны на высоко-уровневых психологических концепциях Убеждений, Желаний, Намерений[14]. В таких системах процесс принятия решения о том, что делать, име-ет сходство с практическим выводом, который применим в нашей повсе-дневной жизни. Основными компонентами этих систем являются структу-ры данных представляющие убеждения, желания и намерения системы, ифункции, которые представляют размышление (решение какие намеренияпринять, т. е. решения, что делать) и обоснования выбора целей и средств(решения, как это делать).

Эмерджентные когнитивные системы

Эмерджентность имеет другой взгляд на когнитивность, как процесс, прикотором система становится жизненной и эффективной в своей среде.Это осуществляется через процесс самоорганизации, который обеспечива-ет непрерывную перестройку структуры и параметров системы в реальномвремени путем взаимодействий системы и среды, в результате которых про-исходит их взаимное определение (рис. 3). Взаимное определение означает,что когнитивная система определяется в рамках среды и в то же время, чтокогнитивный процесс восприятия определяет, что является реальным и зна-

УДК 001(06)+004.032.26 (06) Нейронные сети 115

Page 116: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

чимым для системы. При этом система сама конструирует свою реальность(свой мир) как результат ее действий в этом мире.

Некоторые авторы утверждают, что когнитивность является дополнени-ем восприятия [15]. Восприятие имеет дело с небольшими, а когнитивность— с более долгими временными периодами. Следовательно, когнитивностьотражает механизм, через который система компенсирует промежуточнуюприроду восприятия и может, поэтому, адаптироваться к среде и пред-сказывать ее действия, которые происходят в много больших масштабахвремени.

В противовес когнитивистскому подходу, эмерджентный подход пред-полагает, что первичная модель для когнитивного обучения должна бытьоснована больше на формировании навыков предсказания, чем на извлече-нии знаний, и, что процессы, которые управляют действиями и улучшаютспособность управления действиями, являются корневыми для всех ин-теллектуальных систем. Хотя когнитивизм влечет за собой абстрактныемодели, которые не воплощены в принципе, физическая реализуемость си-стем не важна в модели когнитивности. В контрасте с этим эмерджентныйподход является внутренне воплощенным, т. е. физически реализуемым.

Коннекционистские системы реализуют параллельную обработку рас-пределенных паттернов активации, используя статистические свойства, ане логические правила. Термин «коннективизм» еще до эры компьютеровиспользовался психологом Торндайком в 1932 году [16], чтобы охаракте-ризовать расширенную форму ассоцианизма, основанного на коннекцио-нистских принципах, ясно видимых в модели ассоциативной памяти. Онтакже предугадал несупервизорный алгоритм обучения, который позднеебыл предложен физиологом Хеббом, который был первым, кто использовалтермин «коннективизм» применительно к нейронным сетям [17]. Коннекти-визм поддерживали МакКаллок и Питс, поскольку ими было показано, чтолюбое утверждение пропозициональной логики может быть представленосетью простых обрабатывающих элементов, и эта сеть имеет мощностьмашины Тьюринга [18].

Системы на нейронных сетях являются примером реализации коннек-ционистского подхода. Разработка и исследование таких систем связано сизвестными работами Розенблатта, Хопфилда и др. Развитие моделей ней-ронных сетей в PDP-архитектуре Руммельхарта, Вербоса и др. [19] такжевнесло значительный вклад в когнитивную науку. Так, эта архитектура уве-ла исследователей от последовательных вычислительных моделей мозга к

116 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 117: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

(

)

(

)

РИС. 3. Эмерджентные системы

параллельно действующим сетям кооперирующихся компонентов.

Динамические системы основаны на результатах теории динамиче-

ских систем, дополняющих классические подходы в искусственном интел-лекте [20]. Рассмотрение когнитивности с позиций динамических системправомерно, поскольку моторные системы и системы восприятия человекаявляются динамическими.

В общем случае динамическая система является открытой, диссипатив-ной, нелинейной, неустойчивой системой. Открытость может рассмат-риваться как наличие большого числа взаимодействующих компонент, ко-торые можно добавлять или убирать для изменения системы. Диссипация

означает наличие свойства диффундировать энергию, что уменьшает еефазовое пространство со временем. Неустойчивость в смысле невозмож-ности поддержания структуры или функций без внешних источников энер-гии и информации является общим свойством. Нелинейность позволяетобеспечить сложное поведение при диссипации. При этом только малое

УДК 001(06)+004.032.26 (06) Нейронные сети 117

Page 118: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

число степеней свободы системы (параметры порядка) вкладывается в ееповедение. Способность характеризовать поведение высоко-размерных си-стем низко-размерной моделью является одним из отличительных свойствдинамических систем от коннективистских.

Нужно отметить тот факт, что динамические системы обеспечиваютнепосредственно многие характеристики, присущие естественным когни-тивным системам, такие как: мультистабильность, адаптивность, формиро-вание образов, распознавание, устремленность, обучение. Эти характери-стики достигаются чисто как функции законов динамики и самоорганиза-ции и не требуют символьных представлений.

Динамические системы позволяют непосредственно реализовать когни-

тивные функции высокого порядка, такие как устремленность и обучение[21]. Например, устремленность или целенаправленное поведение дости-гается суперпозицией функций потенциальных намерений и состояний си-стемы. Обучение видится как модификация паттернов в поведения путемизменения фазового пространства динамической системы.

Можно утверждать, что динамические системы могут обеспечить ко-гнитивные свойства без символьных представлений и вся ментальная ак-тивность является эмерджентной, ситуативной и воплощенной. Когнитив-ность возникает социально, т. е. при динамическом взаимодействии меж-ду компонентами. Поэтому когнитивные динамические системы являютсявоплощенными. Это свойство возникает прямо от процессов самооргани-зации, когда система различает сама себя как заметную сущность через еединамическую конфигурацию и интерактивную деятельность в среде.

Инактивные системы развивают эмерджентную парадигму еще даль-ше. В противовес когнитивизму в инактивных системах когнитивностьрассматривается как процесс, посредством которого могут разрешатьсявопросы, важные для непрерывного существования системы, т.е. опреде-ление системы происходит при ее взаимодействии со средой, в которойона воплощена. При этом ничего нет заданного заранее и нет нужды всимвольном представлении. Вместо этого есть инактивная интерпретация,связанная с выбором подходящих действий, основанных на контексте, в ре-альном времени. Для инактивных систем цель когнитивности — раскрытьнеспецифическую регулярность и порядок, который будет сконструированкак значимый для системы, в процессе непрерывного функционированияи развития когнитивной системы.

Для инактивной системы требуется выполнение только одного фунда-

118 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 119: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

ментального условия — эффективности действий. Оно обеспечивает непре-рывное развитие системы. Это условие связано с тем, что имеется базиспорядка в среде когнитивной системы. С этой точки зрения, когнитивностьявляется процессом, путем которого этот порядок или некоторые его ас-пекты раскрываются или конструируются системой.

Инактивные системы исследуются с 1970-х годов в работах биологовМатурана и Варела и их последователей [22]. Цель этих исследований— выяснить природу эмерджентности автономных систем. Была найденаконцепция, названная автопоэзисом или самопродукцией, где система про-является как когерентная системная сущность, выделенная из среды в ре-зультате процесса последовательной самоорганизации. В настоящее времяразличают инактивные системы с различной степенью автопоэзиса.

Системы с автопоэзисом первого порядка являются клеточными. Ониобразуются через структурное связывание со средой. При этом возмуще-ния среды инициируют структурные изменения системы, обеспечивающиепродолжение ее функционирования.

Автопоэзис второго порядка соответствует метаклеточным системам,которые образуются путем структурного связывания со средой через нерв-ную систему, способную к ассоциации многих внутренних состояний сразличными взаимодействиями, в которые вовлечен организм. В добав-ление к процессам самопродукции эти системы имеют также процессысаморазвития.

Системы с автопоэзисом третьего порядка демонстрируют связыва-ние между системами второго порядка, которые являются автономнымикогнитивными системами (когнитивными агентами). Характерно, что такиесистемы обладают способностью пертурбации их собственных организа-ционных процессов и соответствующих структур. Они способны к тремтипам поведения: (1) инстинктивному, которое производит организацион-ные принципы, возникающие из филогенетической эволюции системы; (2)онтогенетическому, которое обеспечивает развитие системы в течение жиз-ни; (3) коммуникационному, которое является результатом связывания ко-гнитивных сущностей.

В дополнение к этому Бигхард [23] ввел два типа самоорганизующих-ся систем: (1) самоподдерживающиеся системы, которые делают активныевклады, поддерживающие собственное упорство в достижении целей, ноне вкладываются в поддержание условий упорства; (2) рекурсивные само-поддерживающиеся системы, которые делают активные вклады также и вусловия упорства.

УДК 001(06)+004.032.26 (06) Нейронные сети 119

Page 120: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Гибридные модели и системы

Такие системы комбинируют аспекты когнитивистских и эмерджентныхсистем [24]. Разработчики гибридных систем опираются на аргументы про-тив использования явных запрограммированных знаний при создании ис-кусственных когнитивных систем и развивают активные системы восприя-тия, в которых главным стало поведение типа «восприятие-действие», а неабстрагированное восприятие и представление мира. Такие системы могутиспользовать представления, но эти представления должны быть созданысамой системой в процессе взаимодействия с миром. Как следствие этогоподхода можно отметить, что нельзя иметь прямой доступ к внутренне-му семантическому представлению мира, и когнитивные системы должныбыть воплощенными хотя бы в течение фазы обучения.

Например, результаты недавних исследований привели к разработке ко-гнитивных систем зрения на гибридных принципах [25]. Архитектурно этисистемы комбинируют основанные на нейронных сетях компоненты, поз-воляющие реализовать поведение «восприятие-действие», и символьныекомпоненты. Другая биологически мотивированная система [26], модели-рующая функции мозга и кортикальных путей, продемонстрировала разви-тие сегментации объектов, распознавания и способности локализации безлюбых априорных знаний только за счет визуальной информации при экс-плуатации и простых манипуляциях. Такие гибридные системы строятся,как правило, как расширения коннекционистских систем и демонстрируютспособность учиться на простых объектах и использовать действия чело-века при обучении через наблюдение.

Когнитивные архитектуры

Наиболее сложно решаемым вопросом является реализация систем, под-держивающих рассмотренные когнитивные парадигмы. Описанные в ли-тературе архитектуры когнитивных систем и агентов типа ACT [13], SOAR[27], BDI [14] поддерживают когнитивистскую парадигму и носят в ос-новном концептуальный характер. Однако эти архитектуры продолжаютразвиваться и их рассмотрение полезно не только с теоретических, но ипрактических позиций.

Архитектуры АСТ. Эти архитектуры [13] основаны на теории АСТ(Adaptive Control of Thought), которая развивает центральную проблему

120 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 121: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

науки о мышлении — обучение и приобретение знаний. Она основана насистеме продукций, а также на обобщенной модели мышления челове-ка. Обучение рассматривается как процесс, включающий декларативный ипроцедурный этапы.

( )

РИС. 4. Архитектура АСТ-R

На декларативном этапе в памяти системы формируются начальныезнания в форме высказываний, но их нельзя непосредственно использо-вать при решении задачи. Высказывания формируются в кратковременнойрабочей памяти и предварительно обрабатываются интерпретатором. Ко-гда задача поставлена, то информация о ней, содержащаяся в рабочей па-мяти, заменяется знаниями из долговременной памяти. Интерпретаторомявляется система универсальных продукций, которая используется для пре-образования информации при решении задачи. Такие преобразования вы-полняются с помощью механизмов процедурализации и композиции. Про-

цедурализация состоит в замене переменных в начальных универсальныхпродукциях на некоторые конкретные значения. Композиция обеспечиваетслияние независимых продукций и формирование обобщенной продукции,позволяющей за один шаг сделать требуемое действие. Далее обучение

УДК 001(06)+004.032.26 (06) Нейронные сети 121

Page 122: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

переходит на процедурный этап, соответствующий координации знаний.Механизмов координации знаний несколько. Специализация обеспечиваетсоздание новой продукции на основе разделения успешно и не успешноприменяемых продукций. Обобщение объединяет продукции, порождаю-щие один результат. Усиление позволяет повысить приоритет часто ис-пользуемых продукций, чтобы при сопоставлении они использовались ещечаще. Это приводит к стабилизации процесса решения задачи.

Для реализации АСТ теории разработаны и исследуются несколько ар-хитектур, которые постоянно модернизируются. Один из последних и наи-более интересный вариант архитектуры, названный АСТ-R (Rational), пред-ставлен на рис. 4. Эта архитектура содержит 5 модулей. Модуль цели сле-дит за внутренним состоянием системы, формирует набор целей, которыеопределяют поведение системы при достижении этих целей. Решение задачопределяется текущими целями, в соответствии с которыми генерируют-ся действия. Декларативный модуль ищет информацию в долговременнойпамяти, которая содержит декларативные знания. Визуальный модуль обра-батывает сенсорную информацию о среде. Мануальный модуль формируетмоторные действия, которые изменяют окружающую среду. Продукцион-ная система включает процедурную память и координирует действия всехперечисленных модулей, разрешая конфликты, возникающие, если поискрешений требует реализации (поджигания) сразу нескольких продукций.Это делается через 4 буфера: целей, поиска, визуальный и мануальный.АСТ-R действует в циклической манере: паттерны, находящиеся в буфе-рах (определяемые внешним миром и состоянием системы), распознаются,одиночные продукции запускаются и буферы модернизируются.

Архитектура SOAR. Эта обобщенная архитектура [27] когнитивныхагентов, решающих задачи с использованием продукционных правил, под-держивается языком и программным интерпретатором. Исходно она ис-пользует методы компиляции знаний, подобные предложенным в теорииАСТ, и позволяет строить целенаправленных агентов, которые могут бытьохарактеризованы в терминах их целей, пространства задачи, состояний,операторов и ассоциативных предпочтений. Предпочтения могут быть ис-пользованы, чтобы организовать разделяемые нормы для выбора существу-ющих, приемлемых или ранжированных целей, состояний пространства за-дачи и операторов. Цели агентов могут быть автоматически генерированыили сознательно выбраны агентом, как разумной сущностью. Долговремен-ная база знаний агента содержит набор правил. Кратковременная память

122 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 123: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

фиксирует набор текущей информации.SOAR может рассматриваться как программная реализация унифици-

рованной теории познания. Эмпирические исследования выявили, что вомногих примерах поведение SOAR сравнимо с поведением людей, кото-рые знают, как хорошо это делать и знают об ошибках, которые сделаны.Структура системы изменяется в ответ на изменения среды, поскольку онавстроена в базу знаний и связана с процедурой реструктуризации индиви-дуальных и коллективных действий при различных условиях.

Более поздние разработки Plural SOAR и TAC Air SOAR основаны наболее полных моделях человеческого познания и используются для постро-ения когнитивных агентов для коллективной работы. Многоагентные вари-

анты SOAR обеспечивают моделирование команд как коллектива SOAR-агентов. Многоагентный SOAR строится с использованием трех ключевыхидей: внутренних моделей других агентов команды, когнитивных структуробщения (социального поведения) и коммуникации. Каждый член командыявляется агентом с ментальной моделью поведения, о которой другие аген-ты или знают, или будут знать в определенных обстоятельствах. Эти знаниямогут включать представления о целях и предпочтениях других агентов,что позволяет агенту предполагать, что будут делать другие агенты. Каж-дый агент команды имеет разделяемые знания о когнитивной социальнойструктуре. Эта структура определяет восприятие агента, которое дает ин-формацию о том, с кем взаимодействовать, как и о чем договариваться. Витоге, агент команды имеет знания о том, как реализовать коммуникации ичто, когда и кому передавать и как составлять сообщения. Коммуникацияв этих моделях управляется путем передачи соглашений со специальным,связанным с задачей содержанием.

Архитектура BDI. Агенты, которые оперируют ментальными понятия-ми убеждений, желаний и намерений, названы BDI (Belief-Desire-Intention)агентами [14, 28]. Процесс практического вывода в BDI-агенте используетсемь основных компонент:

• набор текущих убеждений, представляющий собой информацию аген-та о текущем окружении;• функцию пересмотра убеждений, (br f ) которая воспринимает вход

очувствления и текущие убеждения агента и на основе этого опре-деляет новый набор убеждений; варианты доступные для агента (егожелания) но основе текущих убеждений об его окружении и его те-кущих намерений;

УДК 001(06)+004.032.26 (06) Нейронные сети 123

Page 124: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

• набор текущих вариантов, представляющий собой возможные на-правления действий доступные для агента;• функцию фильтра (filter) которая представляет собой процесс раз-

мышления агента, и который определяет намерения агента на основеего текущих убеждений, желаний и намерений;• набор текущих намерений, представляющий собой текущий фокус

агента — состояния тех мероприятий, которые были намечены длявыполнения;• функцию выбора действия (execute) которая определяет, какое дей-

ствие должно быть выполнено исходя из текущих намерений.

Можно формально определить эти компоненты. Первое, пусть Bel бу-дет набором всех возможных убеждений, Des — набором всех возможныхжеланий, и Int — набором всех возможных намерений. Для целей этогораздела неважно, что содержат эти наборы. Однако чаще всего убеждения,желания и намерения представлены формулами логики, возможно первогопорядка. Из чего бы не состояли эти наборы, неважно, кроме того, что ониимеют некоторую совместимость, определенную в них такую, что можноответить на вопрос, например, согласуется ли намерение достигнуть x cнекоторых убеждением у.

Представление убеждений, желаний и намерений логическими форму-лами требует выяснения вопроса, являются ли эти логические формулынепротиворечивыми (это — хорошо известная и хорошо понятная пробле-ма).

Состояние BDI-агента в каждый данный момент является тройкой

(B,D, I), где B ⊆ Bel, D ⊆ Des, I ⊆ I.

Функция пересмотра убеждений отображает:

brf : ℘(Bel)× ℘(Int)→ ℘(Des),

которая, основываясь на текущем восприятии и текущих убеждениях, опре-деляет новый набор убеждений. Пересмотр убеждений выходит за рамкиэтого раздела и больше здесь обсуждаться не будет.

Делиберативный процесс в BDI-агенте (формирующий решение, чтоделать) представлен двумя функциями. Первая — функция выработки вари-антов, отображает набор убеждений и набор намерений на набор желаний:

options : ℘(Bel)× ℘(Int)→ ℘(Des).

124 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 125: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 126: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ограничению:

∀B ⊂ ℘(Bel), ∀D ⊂ ℘(Des), ∀I ⊂ ℘(Int), f ilter(B,D, I) ⊆ I ∪D.

Другими словами, текущими намерениями являются намерения, при-нятые ранее, или новые принятые варианты.

Функция execute предполагается как просто возвращающая любые вы-полнимые намерения, т. е. те намерения, которые соответствуют непосред-ственно выполняемым действиям:

excute : ℘(Int)→ A.

Функция принятия решения action BDI-агента формирует действия повосприятию:

action : P → A

и реализуется путем выполнения всех описанных ранее функций.Завершающий вывод (means-ends reasoning) является процессом, реша-

ющим, как достичь конца всего практического вывода (т.е. намерения, ко-торое агент имеет), используя пригодные средства, т. е. действия, которыеагент может выполнять. Такой вывод более известен в искусственном ин-теллекте, как планирование. В нашем варианте планировщик реализуеталгоритм планирования, имея входную информацию в виде: (1) цели, наме-рения или задачи; (2) текущего состояния среды, т. е. убеждения агента; (3)действия, которые может выполнять агент. На выходе алгоритм планирова-ния генерирует план в виде набора действий, который должен привести кдостижению цели. Заметим, что первым реальным планировщиком можносчитать систему STRIPS, разработанную в 1960-е годы. В ней планиру-ющий алгоритм был основан на принципе нахождения разности междутекущим состоянием мира и целевым состоянием и уменьшении этого раз-личия путем применения подходящих действий. Для описания состоянийиспользовалась логика предикатов первого порядка.

Рассмотренный алгоритм реализуется в структуре, представленной нарис. 5.

Формально способность агента выполнить завершающий вывод можетбыть представлена функцией планирования в виде:

plan : ρ(Bel)× ρ(Int)× ρ(Ac)→ Plan,

126 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 127: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

(Beliefs - B)

(Desires - D)(Intentions - I)

РИС. 5. Структура BDI-агента

которая на основе текущих убеждений и намерений определяет план длядостижения этих намерений. Однако во многих реализациях агентов с прак-тическим выводом функция планирования реализуется упрощенно путемпридания агенту библиотеки планов, которая является подготовленным за-ранее набором планов. Нахождение плана для достижения текущего наме-рения в этом случае выполняется одним проходом по библиотеке планов, врезультате которого выбирается план, позволяющий достичь намерения какпостусловия при предусловиях, определяемых текущими убеждениями.

BDI-модель привлекательна по нескольким причинам. Во-первых, этамодель интуитивна: мы все понимаем процесс принятия решения, что де-лать, и потом, как делать, и мы все имеем естественное понимание идейубеждения, желания, и намерения. Во-вторых„ эта модель дает явное функ-циональное разбиение, которое указывает, какого типа подсистемы могутпотребоваться при построении агента. Но основной трудностью при по-строении этой модели является знание того, как эффективно реализоватьфункции, определяющие функционирование модели.

Архитектура Darwin. Эта нейроподобная архитектура поддерживаетэмерджентную парадигму. Под таким названием разработана серия плат-форм для экспериментирования в области управления роботами [29]. Этиплатформы имеют также общее название “Brain-Based Devices — BBD”, что

УДК 001(06)+004.032.26 (06) Нейронные сети 127

Page 128: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

дословно означает «Приборы, основанные на мозге». На самом деле BBDможно рассматривать как модель нервной системы, которая может раз-вивать пространственную и эпизодическую память, а также способностираспознавания путем автономного обучения через экспериментирование.В этом плане BBD наиболее близка к коннекционистским и инактивныммоделям. В отличие от большинства коннекционистских моделей, эта ар-хитектура более сильно моделирует структуру и организацию мозга, чемискусственные нейронные сети. В настоящее время такой подход называюттакже нейроморфным, что предполагает уход от известных моделей фор-мальных нейронных сетей и попытки реализации моделей функциональ-ных частей мозга и нервной системы в виде программ для универсальныхЭВМ или даже специализированных аналоговых и цифровых микросхем.Средствами BBD возможно, как грубое моделирование нервной системы вцелом, так и более тонкое моделирование ее частей и их взаимодействий,что позволяет проводить эксперименты по реализации нейросетевых меха-низмов для разных видов памяти, распознавания и управления.

Главные нейронные механизмы BBD-подхода — синаптическая пла-стичность, поощрения или оценивание системы, входящие связи, дина-мическая синхронизация нейрональной активности, нейроподобные эле-менты с пространственно-временными свойствами. Адаптивное поведениедостигается через взаимодействие этих нейронных механизмов с сенсомо-торными компонентами, которые обучаются автономно путем активногоочувствления и самодвижения.

Проект Darwin в своем развитии прошел ряд этапов. Наиболее инте-ресные результаты получены на последних этапах проекта. Так, DarwinVIII был способен к различению простых визуальных целей (цветных гео-метрических форм) путем ассоциации их с врожденно предпочитаемымиаудио репликами. Для моделирования этих способностей использоваласьмодель нервной системы с 28-ю нейрональными областями, содержащимиоколо 54 тысячи нейронных элементов с 1.7 млн. синаптических связей.Эта система моделирует основные регионы зрения коры головного моз-га, тренинга, оценки и аудио обработки. Регионы зрения имеют сложныесвязи и обрабатывают сигналы рецептивных полей (изображений) послепредварительной фильтрации гауссовскими фильтрами с вертикальной, го-ризонтальной и диагональной разверткой, а также красно-зелеными цвет-ными фильтрами. Область тренинга определяет направление видения каме-ры (пристальный взгляд), которое формируется на основе возбуждающихпроекций аудио региона. Это позволяет системе ориентироваться на на-

128 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 129: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

правление источника звука. Взаимодействие регионов зрения и тренингаобеспечивает перемещение системы к центру пристального взгляда на ви-зуальный объект. Регион оценивания имеет адаптивные связи с региономтренинга, чем достигается обучение выбору цели. Адаптация осуществля-ется с использованием специального правила, которое подобно известномуправилу Хебба. Поведенческой особенностью Darwin VIII является предпо-чтение одной цели над другими за счет врожденного механизма ассоциациивыбираемой цели звуковым репликам. Такое предпочтение демонстриру-ется путем ориентации по направлению к цели.

Darwin IX может выполнять навигацию и категоризировать структуры,используя искусственные усы, моделируемые на основе нейроанатомиче-ских структурах соматосенсорной системы крысы, которая включает 17регионов с 1101 нейронных элементов и около 8400 синаптических связей.

Darwin X способен развивать свою пространственную и эпизодическуюпамять, построенную на модели гиппокампа и окружающих его регионов.Его модель нервной системы содержит 50 нейрональных областей, вклю-чающих 90000 нейронных единиц с 1.4 млн. синаптических связей. Этаплатформа включает визуальную систему, систему направления головы,формацию гиппокампа, базальный отдел мозга, систему оценки-поощренияи систему выбора действий. Визуальная система позволяет распознаватьобъекты, а затем вычислять их позицию, тогда как средства одометрии(визуальных измерений) используются, чтобы чувствовать направление го-ловы.

Архитектура Cog. Эта архитектура развита Бруксом и Сказелатти врамках проекта Cog для проведения когнитивных исследований с использо-вание роботов [30]. Она поддерживает парадигму гибридных когнитивныхсистем.

В рамках проекта Cog проводились работы в области теории мозга,которые фокусировались на социальных взаимодействиях, как ключевомаспекте когнитивной функции в тех социальных навыках, которые тре-буют атрибутов Убеждений, Целей и Желаний по отношению к другимлюдям. Робот, поддерживающий теорию мозга, должен быть способен кобучению из наблюдений, используя нормальные социальные сигналы, испособен к выражению его внутреннего состояния (эмоций, желаний, це-лей) через социальные (несимвольные) взаимодействия. Он должен бытьспособен распознавать цели и желания других и, как следствие, предви-деть реакции наблюдателя и модификации своего собственного поведения

УДК 001(06)+004.032.26 (06) Нейронные сети 129

Page 130: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

в соответствии с этим.Архитектура Cog создавалась с целью проводить исследования в обла-

сти теории мозга, предложенной Сказелатти [31]. Эта теория комбиниру-ет модели Лесли [32] и Барон-Кохена [33], которые декомпозируют про-блему в наборы навыков предшественников и моделей развития. ТеорияЛесли объединяет независимые специфицированные по областям модулидля различения: (1) механического агентства; (2) агентства действий и (3)агентства позы. Грубо говоря, моделируется поведение неанимированныхи анимированных объектов, а также убеждение и намерение анимирован-ных объектов. Теория Барон-Кохена включает три модуля: (1) интерпрета-ции воспринимаемых стимулов (визуальных, аудио и тактильных); (2) ин-терпретации визуальных стимулов, ассоциированных с глазо-подобнымиформами; (3) внимания, которое использует информацию от первых двухмодулей. Третий модуль, в свою очередь, передает вырабатываемую инфор-мацию на Модуль теории мозга, который представляет знания о намеренияхили «эпистемические ментальные состояния» других агентов.

Исследования проводились на платформе (роботе), представляющей со-бой верхнее-торсовую часть гуманоидного робота с двумя руками по 6 сте-пеней подвижности (СП), торсом с тремя СП, головой и шеей с 7-ю СП;всего 22 степени подвижности. Платформа оснащена двумя бинокулярны-ми визуальными системами: широкоугольной и узконаправленной; аудио-системой с двумя микрофонами, трех степенной вестибулярно-окулярнойсистемой и набором тактильных сенсоров.

Теория мозга Сказелатти, позволила воспроизвести в системе Cog, ко-торая управляла роботом, навыки восприятия и моторные навыки предше-ственника, на которых могли быть построены более сложные способности,предусмотренные в теории: различение между неанимированными и ани-мированными движениями и идентификация направления взгляда. Они ис-пользуют несколько построенных на видеообработке способностей, такихкак: (1) выбор направления по цвету объектов; (2) детектирование движе-ний; (3) детектирование цвета кожи; (4) оценка неравенства объектов; (5)визуальный поиск и внимание; (6) видео моторные управления; (7) рефлекссглаживания-слежения; (8) движение головы и шеи.

Разработка гибридных когнитивных системОбзорные материалы предыдущих разделов позволяют сделать вывод омалой значимости когнитивистского подхода для практического создания

130 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 131: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

искусственных когнитивных систем. С практической точки зрения луч-шие результаты может дать гибридный подход, в котором превалируютидеи, положенные в основу эмерджентных систем. Работы автора и егоколлег в этом направлении, проводимые с 1998 года, позволили вырабо-тать определенную методологию разработки искусственных когнитивныхсистем гибридного типа.

В данном и в последующих разделах обсуждаются когнитивные кон-цепции, гибридные архитектуры, построенные на их основе, специальныекогнитивные средства и способы реализации на них когнитивных систем спредлагаемыми архитектурами.

Когнитивные концепции

Реализация искусственных когнитивных систем требует, прежде всего, раз-работки соответствующих когнитивных концепций. Понятие «когнитивныеконцепции», с недавних пор применяемое в машинном интеллекте, отно-сится к некоторым полезным с технической точки зрения концепциям, ин-спирированным из психологии. В данной работе это понятие расширяетсяза счет концепций, построенных на основе последних достижений когни-тивной науки и нейрофизиологии [34].

Исследования, проведенные на основе последних результатов когни-тивной науки в области когнитивных функций и процессов познания имышления, позволили сформировать «концепцию когнитивной функцио-нальности», которая предполагает, что когнитивные процессы строятся наоснове композиции когнитивных отношений, которые, в свою очередь, со-ставляются из когнитивных функций. Эта концепция оказывается полезнойдля формального описания когнитивных систем в функциональном плане.Оказалось полезным ввести также концепцию когнитивного конструкти-

визма, основанную на исследованиях в области нейрофизиологии. Эта кон-цепция определяет возможность реализации когнитивных процессов путемконструирования специальных когнитивных структур из вложенных когни-тивных элементов, которые способны реализовать когнитивные отношенияи функции.

УДК 001(06)+004.032.26 (06) Нейронные сети 131

Page 132: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Концепция когнитивной функциональности основана на обобщенииисследований в области когнитивной науки, в результате которого оказа-лось возможным выделить и связать ряд функциональных когнитивныхи эффекторных компонент нервной системы человека в схему, представ-ленную на рис. 6. Эта схема включает три функциональных компонента:Процессы преобразования,Сенсорные процессы и Эффекторные процессы.Процессы преобразования образуются объединением когнитивных отноше-ний преобразования, которые, в свою очередь, составлены их когнитивныхфункций преобразования. Сенсорные процессы составлены из когнитив-ных отношений и функций восприятия, а эффекторные процессы — изэффекторных отношений и функций действий. Дополнительные функциисвязности процессов обеспечивают взаимодействие этих разнородных про-цессов.

РИС. 6. Схема функциональных компонент разных уровней

132 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 133: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

Иерархия функциональных компонент дает возможность выделить триуровня композиции. На самом нижнем уровне имеют место когнитив-

ные функции, т. е. отображения нескольких входных аргументов в одновозвращаемое значение функции (параметр выхода). Следующий уровеньвключает когнитивные отношения, т. е. отображения нескольких входныхаргументов в несколько выходных значений отношения. Заметим, что от-ношения составляются из функций и, в отличие от функций, могут бытьобратимыми. На третьем уровне формируются когнитивные процессы, со-ставленные из цепочек функций и отношений. Процессы могут связыватьсяна уровне композиций процессов с использованием когнитивных функцийсвязности процессов.

Концепция когнитивного конструктивизма построена на основаниисведений о структурной организации нервной системы человека [4] и тех-нических возможностей конструирования сложных систем. Обобщение этихсведений дало возможность предложить для построения когнитивных си-стем конструктивные принципы: модульности, иерархичности, вложенно-сти, полной связности в пределах уровня, пирамидального управления эле-ментами компонентов нижних уровней сигналами от верхних уровней.

. . .

. . . . . .

РИС. 7. Конструктивная схема системы

Построенная по этим принципам конструктивная схема системы пред-ставлена на рис. 7. Структура включает 4 уровня иерархии и вложенности:

уровень 1: Проекционные сети, рассматриваемые как подсистемы, объ-

УДК 001(06)+004.032.26 (06) Нейронные сети 133

Page 134: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

единение которых образует систему в целом; они состоят из связан-ных наборов Когнитивных компонентов типа Клеток, Ядер и Локаль-ных сетей.

уровень 2: Локальные сети, состоящие из наборов Когнитивных элемен-тов типа Клеток и Ядер и вкладывающиеся в Проекционные сети.

уровень 3: Ядра, состоящие из наборов Когнитивных компонентов типаКлеток и вкладывающиеся в Локальные и Проекционные сети.

уровень 4: Клетки, являющиеся неделимыми Когнитивными компонен-тами, вкладывающимися в Ядра, Локальные и Проекционные сети.

Каждый когнитивный компонент этой схемы реализует определенныйфункциональный компонент. Так, Клетка реализует простую когнитивную

функцию, Ядро — простое когнитивное отношение, связанное с представ-лением и распознаванием образов, а Локальная сеть — сложное когнитив-

ное отношение, связанное с преобразованием образов. Подсистема внутриэтой схемы является функционально самостоятельной и отвечает за когни-

тивный процесс, поддерживающий определенное поведение. Допустимысвязи между Подсистемами и, значит, когнитивными процессами.

Концепции когнитивной многоагентности поддерживают гипотезу осуществовании некоторых автономных когнитивных сущностей в нервнойсистеме человека [35]. Эта гипотеза соответствует последним результатамисследований в области когнитивной теории мозга и нейрофизиологии ипозволяет связать знания о строении и функционировании нервной си-стемы. Так, нейрофизиологи частично прояснили локализацию некоторыхкогнитивных процессов в нейронных структурах мозга. Показано такжепревалирующее значение замкнутых подсистем внутри нервной системычеловека, которые реализуют поведенческие процессы. Эти подсистемыпредставляют собой цепочки нейронных модулей (локальных сетей), рас-пределенные по ряду областей нервной системы. Такие цепочки взаимодей-ствуют между собой в перекрывающихся областях мозга. Функциональныеобъединения таких цепочек, отвечающие за определенные наборы пове-дений, можно считать агентами нервной системы. Такие агенты могутконкурировать между собой или кооперироваться для организации слож-ного поведения. В соответствии с этой гипотезой было введено понятиекогнитивного агента, а также разработана методология создания много-

агентных когнитивных систем управления [36].

134 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 135: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

Концепции когнитивной многоагентности определяют поведение ко-гнитивных агентов. Предполагается, что такие концепции, инспирирован-ные изучением психологии человека, могут сыграть ключевую роль в раз-витии искусственного интеллекта [37]. Они включают три высокоуровне-вые концепции: Убеждение, Желание, Намерение, обозначаемые в лите-ратуре аббревиатурой BDI (Belief-Desire-Intention), и, дополнительно, Уме-

ние (Know-How) и Обязательство (Commitment). Считается, что во многихслучаях метафора агента наиболее полезна, когда используются именно та-кие высокоуровневые когнитивные спецификации. Они дают возможностьопределить: (1) текущее состояние агента; (2) действие, которое агент могсделать и (3) как агент мог бы вести себя в различных ситуациях без рас-смотрения того, как он реализован.

Когнитивный агент является интеллектуальным и в нем может бытьиспользован строгий логический вывод (теоретический вывод), но в боль-шинстве случаев менее строгие процессы принятия решений могут бытьболее эффективными. Хорошие результаты может дать модель принятиярешений, названная практическим выводом.

Намерение определяет состояние, выбранное агентом как конечное иобязательное для достижения. Намерение может касаться текущих дей-ствий или направлено на будущее. В большинстве случаев оно являетсяутверждением позиции (отношения) и имеет тенденцию вести к действию.

Убеждение связывается со знаниями агента в определенные моментывремени. Знание обычно определяется как истинное убеждение. В модаль-ной логике убеждение описывается модальным оператором необходимости.

Желание ассоциирует с каждым моментом времени множество момен-тов, представляющих желания агента. Агент имеет желание в данный мо-мент времени, если оно истинно во всех доступных мирах агента в этотмомент. Желания являются входами в процесс рассуждений агента, которыепозволяют ему выбрать цели.

Умение является ключевым моментом успешной реализации намерения.Оно включает набор действий для удовлетворения намерения. Предполага-ется, что агент знает, как достичь намерения, если он способен соотнестинамерение и свои действия, т. е. обеспечить выполнение намерения.

Обязательство означает свойство агента обязательно иметь намере-ние. Обязательство агента управляет тем, как он будет упорствовать придостижении намерения и как это будет долго. Обязательство может рас-сматриваться также как ограничение для агента.

УДК 001(06)+004.032.26 (06) Нейронные сети 135

Page 136: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Когнитивный агент гибридной архитектуры

Анализ возможностей разных когнитивных архитектур показал, что напрактике в основном используются агенты реактивной архитектуры с

когнитивными компонентами, которые обеспечивают им свойство адап-тивности. Однако при проектировании когнитивных агентов со сложнымповедением может дать хорошие результаты только их комбинированиеразных архитектур. Как пример такого комбинирования рассмотрим ги-

бридную архитектуру когнитивного агента, построенную на основе опи-санных здесь когнитивных концепций.

Гибридная архитектура агента (рис. 8) включает два верхних уровняс архитектурой BDI [14] для организации индивидуальной и коллектив-ной работы агента и нижний исполнительный уровень с архитектуройSubsumption [38].

BDI

BDI

РИС. 8. Когнитивный агент гибридной архитектуры

Нижний уровень когнитивного агента полностью реактивный. Он непо-средственно получает информацию от сенсоров объекта и посылает управ-

136 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 137: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

ляющие инструкции к его исполнительным устройствам (эффекторам).Уровень имеет несколько слоев, каждый из которых формирует свое ре-активное поведение. На этом уровне предусмотрен специальный механизмвыбора действия, основанный на иерархии слоев и приоритетах. Чем вышепо иерархии находится слой, тем больше его приоритет. Если в текущейситуации формируют реакции одновременно несколько слоев, для испол-нения выбирается тот слой, текущий приоритет которого выше.

Средний уровень агента использует информацию об индивидуальныхжеланиях и убеждениях. Убеждения формируются путем обработки сен-сорной информации в процессе мониторинга окружающей среды. Приэтом распознаются и регистрируются значащие события. На основе инфор-мации о событиях, текущих желаниях и убеждениях агента формируетсямаска приемлемых в текущей ситуации действий. На основе этой маскиформируются текущие намерения агента. По текущим намерениям аген-та выбирается подходящий план его действий, в соответствии с которымнастраиваются приоритеты слоев нижнего уровня агента.

Верхний уровень агента отвечает за координацию убеждений взаимо-действующих агентов и разрешение конфликтов между агентами, которыемогут иметь разные намерения. При этом детектируются конфликты меж-ду намерениями одного агента и убеждениями другого. Результатом работыэтого уровня является формирование общих намерений взаимодействую-щих агентов. Общие намерения достигаются путем переговоров агентов ивзаимной коррекции их убеждений, которые изначально могут существен-но различаться.

Когнитивные агенты гибридной архитектуры могут обеспечить слож-ное человекоподобное коллективное поведение интеллектуальных роботовв условиях непредсказуемой динамически изменяемой среды [39].

Средства реализации когнитивных систем

Используя формализованные методы обучения и решения задач, можносоздавать когнитивные модули и структуры, способные отображать когни-тивные функции и моделировать когнитивные процессы [9].

Когнитивные модули строятся на сетях элементов с разными вычис-лительными базисами и регулируемыми связями между ними. Настройкана отображение конкретных когнитивных функций осуществляется путемобучения по примерам точечного отображения этих функций, которые фор-мируются учителем или автоматически отбираются из генерируемого набо-

УДК 001(06)+004.032.26 (06) Нейронные сети 137

Page 138: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ра примеров. Когнитивные структуры строятся как сети когнитивных мо-дулей, соединенных прямыми и обратными связями. Каждая когнитивнаяструктура должна воспринимать цели, ограничения и вырабатывать сиг-налы селекции поведения в зависимости от текущей ситуации (состоянияагента и внешнего мира). На выходах когнитивной структуры формиру-ются последовательные сигналы активизации действий, соответствующихее уровню. Связи между модулями отображают передачи выработанныхими сигналов другим модулям или обратных сигналов от них. Эти связинастраиваются путем обучения во времени для когнитивных процессов.

Когнитивные модули и структуры сетевого типа могут быть реализова-ны на формальных нейронных сетях. Однако на базе традиционных ней-ронных сетей оказалось трудно, а иногда и невозможно, реализовать, на-пример, сложное человекоподобное поведение интеллектуальных роботов.Поэтому был разработан целый набор разных средств, более пригодных дляреализации когнитивных систем. В этот набор входят: нейрологические,иммунологические и поведенческие сети, триангуляционные модули.

Применение нейрологических модулей и обучения сподкреплением в агентах-игроках для футбола роботов

Специальные нейрологические модули (клетки и ядра) позволяют более эф-фективно, чем нейронные сети, реализовать многие когнитивные функциии отношения в процессах восприятия информации и принятия решений.Разработаны и исследованы несколько вариантов нейрологических моду-лей: с нейронно-логическим базисом на основе мозжечковой модели, атакже с нечетко-логическом базисом на основе сеточной и кластерной мо-делей. Они настраиваются путем обучения с подкреплением.

Обучение с подкреплением основано на взаимодействии обучаемогообъекта с окружающей средой с целью достижения некоторой цели [40].Такой тип обучения в сочетании нейрологическими модулями оказался эф-фективным при управлении командной работой агентов-игроков в плохоопределенных многоагентных игровых средах [41]. Оно дает возможностьавтоматически сформировать нужные правила поведения агента при отра-ботке сценарных эпизодов.

Агент и окружающая среда взаимодействуют друг с другом в дискрет-ные моменты времени tk, k = 0, 1, 2, 3, . . .. В каждый момент времениt, агент получает некую информацию об окружающей среде st ∈ S, где

138 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 139: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

S — множество всевозможных состояний, и на этом основании выбира-ет действие at ∈ A(st), где A(st) — множество возможных действие всостоянии st. В следующий момент времени tk+1 агент получает подкреп-ление rt+1 ∈ R и оказывается в новом состоянии st+1. В каждый моментвремени агент осуществляет отображение текущего состояния в вектор,содержащий числовые значения, характеризующие каждое из возможныхдействий. Такое отображение называется политикой агента, и обозначает-ся, как πt. Методы обучения с подкреплением позволяют определить, какагент должен изменять свою политику в соответствии с опытом. При этомагент максимизирует суммарное значение подкреплений (наград), котороеон может получить.

Один из известных методов обучения с подкреплением называетсяSarsa(λ). Базовый алгоритм Sarsa(λ) дает возможность вычислять функ-цию Q(s, a), определяющую значимость действий агента в текущих ситу-ациях. Обучение проводится по эпизодам и шагам внутри них. При этомформируется e(s, a) — вектор траекторий значений Q(s, a), аппроксима-ция которого запоминается как результат обучения (политика). Этот методбыл применен для обучения правильному поведению виртуального агента-игрока в среде виртуального футбола роботов.

На рис. 9 представлен модифицированный алгоритм Sarsa(λ), приспо-собленный к обучению агента-игрока в среде футбола роботов. В этомалгоритме введены три базовых функции, раскрыт метод выбора действийво время обучения, способ обновления траекторий значенийQ(s, a) и отоб-ражение входного вектора в активные рецепторные поля. Базовые функцииимеют следующее назначение. Функция BeginEpisode() — агент вызываетэту функцию в начале каждого эпизода. ФункцияDoEpisodeStep() — агентвызывает эту функцию, когда происходит очередной шаг эпизода. Очевид-но, что эти функции будут вызываться, какой бы задаче не обучался модуль.Функция EndEpisode(boolsuccess) имеет смысл и будет вызвана толькодля задач, в которых есть понятие и имеет смысл специально обрабатыватьтерминальное состояние. Success — параметр, определяющий, закончилсяли эпизод успешно — true, или неуспешно — false. В строке 3 алгоритмапроисходит отображение входного вектора в активные рецепторные полянейрологического модуля на основе мозжечковой модели. В строке 4 проис-ходит определение q-значений каждого действия для текущего состояния.В строке 5 определяется действие, которое будет выбрано. Обычно выби-рается действие с максимальным значением. Параметр ε обычно выбираютиз диапазона (0, 0.05]. В строках 11–16 происходит обновление траекторий

УДК 001(06)+004.032.26 (06) Нейронные сети 139

Page 140: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

BeginEpisode ()

1 1pcurrentSte

2 0e3 T ( ) s

4 nnjiQ jTi

a ,,1,)(

5 )(arg

-1 maxarg

a

aa

Qrandom

QlastOption

7 lastOptionlastOption QQ

DoEpisodeStep ()

8 1pcurrentStepcurrentSte

9 falsereturnSTEPSMAXpcurrentStestepLimitif )_&&(

10 T s11 a

12 Ti

13 lastOptiona

14 1)(ie

15

16 0)(ie

17 T ( ) /s

18 nnjiQ jTi

a ,,1,)(

19 )(arg

-1 maxarg

a

aa

Qrandom

QnewOption

20 newOptionnewOption QQ

21 oldOptionnewOption QQteprewardForS

22 e

23 newOptionlastOption QQ

24 ee

EndEpisode (bool success)

25 1esayedEpisodnumberOfPlesayedEpisodnumberOfPl

26 T s27 a

28 Ti

29 lastOptiona

30 1)(ie

31

32 0)(ie

33 truesuccess

34 uccessrewardForSreward

35

36 ailurerewardForFreward

37 oldOptionQreward

38 e

39 ()eSaveEpisod -

РИС. 9. Модифицированный алгоритм Sarsa(λ)

140 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 141: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

значений Q(s, a). Такой метод обновлений называется замещением. Кон-кретные значения наград r (подкреплений) могут задаваться статически (вначале обучения) и больше не меняться или динамически, когда подкреп-ление определяется «извне» и конкретное значение предъявляется системена каждом шаге обучения.

Был произведен эксперимент по обучению двух агентов-игроков ко-манды правильному выполнению простого сценария атаки. По сценариюзадача двух игроков — забить мяч в ворота противника, защищаемые вра-тарем. Первый игрок ведет мяч. Он должен научиться выбирать одно изследующих действий: пас партнеру, пас партнеру на ход, дриблинг к воро-там противника. Удар по воротам не входил в это множество, и проверялсяотдельно. Второй игрок, получив мяч, должен выбрать направление удара,и попытаться забить мяч. Задача сводится к минимизации времени взятияворот противника. Обозначим оптимальное поведение как π∗ (оптимальнаяполитика агента), множество всех допустимых политик как Π, длитель-ность произвольного эпизода при политике π как T (π). Тогда формальнозадача сводится к определению политики, такой, что

π∗ = argmin∀π∈Π

T (π).

При настройке процесса обучения были выбраны следующие значенияподкреплений. За каждый шаг эпизода

rforEpisodeStep = −0.001,

за успешное окончание эпизода (ворота взяты)

rforSuccessEnd = 1,

если вратарь завладевал мячом (провал)

rforFailureEnd = −1.

После того, как был отдан пас, игрок запоминал это состояние, и потом, вслучае успешного завершения, подкрепление определялось как

r = 1− 0.001 · t,

где t —время до завершения эпизода, в случае неуспеха оно оставалосьтаким же (т. е. r = −1). Иные случаи рассматривались как ошибки (напри-мер, промах по воротам, превышение допустимой длительности времени

УДК 001(06)+004.032.26 (06) Нейронные сети 141

Page 142: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

эпизода), и не обрабатывались, а происходил переход к инициализации сле-дующего эпизода. Обучение контролировалось специальной программой —тренером, который и определял, когда инициализировать новый эпизод.

При моделировании состояние s определялось набором параметров: d1

— расстояние от игрока с мячом до игрока противника; d2 — расстояниеот игрока с мячом до партнера; d3 — расстояние от игрока мячом игрокадо центра ворот; β — угол между векторами, на которых вычислялисьрасстояния d1 и d2. Действия агентов-игроков a выбирались из множествадопустимых действий A = dribble, pass, включающих дриблинг и пасы.

Суммарное время обучения составило примерно 10 часов. Обучениеостанавливалось, исходя из визуальной оценки игры агентов. Преимуще-ства таким образом обучаемых агентов-игроков были показаны в соревно-ваниях. Так, команда STEP (Soccer Team of ElectroPult) таких агентов сталаЧемпионом Мира в Симуляционной 2D Футбольной Лиге Кубка РоботовRoboCup-2004 (Португалия, Лиссабон, 2004).

Когнитивная система управления роботом наиммунологических сетях

Технические системы, основанные на современных представлениях об им-мунной системе человека, демонстрируют новые свойства в сравнении снейронными и нейрологическими системами [42]. Интересные с техниче-ской точки зрения модели иммунных систем базируются на биологическомпонятии иммунитета, т. е. способности иммунной системы к отторжениючужеродных тел. Приобретенный человеком иммунитет является совер-шенным механизмом защиты организма от чужеродных молекул (антиге-

нов) и связан с активностью лимфоцитов. Лимфоциты синтезируют анти-

тела, особые белки, которые связываются с антигенами и подготавливаютих к последующему разрушению. Для успешной работы иммунная системадолжна порождать огромное разнообразие антител, способных связаться слюбой молекулой.

Существует несколько теорий построения и функционирования иммун-ных систем.

Клонально-селекционная теория является классической. Она утвер-ждает, что, когда антиген попадает в организм, существовавшие до это-го клоны антител, которые случайно распознают его, получают стимул кразмножению и выработке соответствующих антител. Однако эта теория

142 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 143: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

оказалась малопригодной для построения технических иммунных систем.

Теория идиотопических сетей более интересна как парадигма, пригод-ная для использования в технических системах [43]. Согласно ней, антителамогут в свою очередь выступать как антигены друг для друга. Тем самымвозникает сильно связанная сеть, в которой все антитела имеют, как детер-минанты антигенов — идиотопы, так и центры распознавания антител —паратопы. Таким образом, иммунная система представляется как огром-ная сеть паратопов, которые распознают идиотопы и идиотопов, которыераспознают паратопы. Идиотопы стимулируют активность лимфоцитов скомплементарными паратопами, обнаруженными на вырабатываемых имиантителах. Наоборот, паратопы подавляют активность соответствующихлимфоцитов. Так формируется иммунный ответ, обеспечивающий повы-шение концентрации антител данной специфичности. Таких ответов мо-жет быть несколько, причем следующий ответ подавляет предыдущий. Нокаждый последующий иммунный ответ значительно слабее, нежели инги-бируемый им предыдущий, и постепенно угасает. Как показано на моделях,подобные процессы в иммунных сетях приводят в результате к подавле-нию (удалению) клонов, обладающих сходством с антигеном. На базе этойтеории развита парадигма иммунологических сетей, применяемая в техни-ческих приложениях.

Динамика иммунологической сети связана с изменениями концентра-ции антител. Концентрация i-го антитела может быть вычислена в соот-ветствии с уравнением

dAi(t)

dt=α

N∑

j=1

mjiaj(t)− αN∑

k=1

mikak(t) + βmi − kiai(t), (1)

ai(t+ 1) =1

1 + exp(0.5−Ai(t)). (2)

В этих уравнениях N — число антител, mji и mi означают сходствомежду антителами j и i (например, степень отклонения) и между анти-телом и детектированным антигеном соответственно. Первый и второйтермы правой части уравнения (2) означают стимуляцию и подавлениеот других антител соответственно. Третий терм представляет стимуляциюот антигена, а четвертый терм является фактором диссипации (например,естественной смерти). Уравнение (3) является функцией, обеспечивающейстабильность концентрации. Выбор антител определяется значениями кон-центраций антител.

УДК 001(06)+004.032.26 (06) Нейронные сети 143

Page 144: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Пространственная модель Тараканова [44] дает математический ап-парат для формального описания иммунологических систем. В этой мо-дели введены понятия клетки и пространственной формальной иммуннойсети (SFIN — Spatial Formal Immune Network). Клетка определена как па-ра «число-точка в q-мерном Евклидовом пространстве». SFIN состоит изнабора клеток, для которых определены парные Евклидовы дистанции инекоторый порог. Одна клетка распознает другую, если они имеют одинако-вые числа, и дистанция между ними меньше порога. Для модификации сетивведены правила: Апостозиса (удаления распознанной клетки) и Иммуни-зации (добавления нераспознанной клетки). Определенная таким образомSFIN дополнена процедурой обучения и может эффективно решать задачираспознавания образов.

Система безопасности робота

Рассмотрим подход к построению иммунологической сети [43] в системебезопасности робота при работе с человеком.

В простом варианте иммунологическая сеть может быть настроена навыбор поведений, защищающих от внезапной остановки робота при потереэнергии или опасных ситуаций, связанных с возможностью нанести вредчеловеку. Пусть, при движении робота среди людей параметры текущейситуации, детектируемые установленными на борту сенсорами, рассмат-риваются как множественные антигены, а подготовленные заранее модулидействий — как антитела. Такая система может регулироваться через сти-муляцию и подавление между антителами.

В качестве примера рассмотрим фрагмент иммунологической сети дляобеспечения безопасности робота при перемещении объектов среди людей.Среда робота (помещение) ограничена и имеет много объектов, которые ондолжен перемещать. Задача робота — переносить объекты в нужное место,следя за запасом энергии (уровня заряда батареи) и избегая столкновенийс человеком. Введем следующие допущения: (1) робот потребляет энер-гию Em на каждом шаге; (2) робот теряет добавочно энергию E

m, когдаон переносит объект; (3) если робот сталкивается с человеком, он теря-ет некоторую энергию Ec дополнительно. Тогда текущий уровень энергиибудет

E(t) = E(t− 1)− Em − k1Em − k2Ec, (3)

где k1 = 1, если объект перемещается роботом, или k1 = 0 в противном

144 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 145: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

случае; k2 = 1, если есть столкновение с человеком, или k2 = 0 в про-тивном случае. Уровень энергии используется как главный параметр привыборе поведения робота.

В нашем примере полагается, что каждый антиген дает информацию обэлементах среды (объект, человек, база) и уровне энергии робота. Каждоеантитело определяется его структурой: для паратопа используется пара:предусловие и поведение, а для идиотопа используется номер, стимулиру-ющего антитела, и степень стимула. Похожая структура предусловия ис-пользуется и для антигена. Для выбора антитела используется переменная«концентрация антитела».

Ограничимся фрагментом иммунологической сети, в которой взаимо-действуют 4 антитела с предусловиями: «направление на базу», «направле-ние на человека», «уровень энергии низкий», «уровень энергии высокий»,которые формируют необходимые управления, а возмущения возникают отантигенов: «база справа», «человек спереди», «энергия высокая», «энергиянизкая». Эти антигены вторгаются в мир робота, а антитела, взаимодей-ствующие между собой при выборе поведения, должны компенсироватьантигены (т. е. после отработки поведений эти антигены должны исчез-нуть).

1

3

3

4

1 2

4 3

1 2 3 4

РИС. 10. Пример сети взаимодействующих антител

Фрагмент сети показан на рис. 10. Например, антитело 1 активизирует-

УДК 001(06)+004.032.26 (06) Нейронные сети 145

Page 146: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ся, если робот детектирует базу в направлении справа, и затем должно вы-звать поведение «поворот вправо». Однако, если текущий уровень энергиивысокий, это антитело должно дать возможность другим антителам, пред-ставленным его идиотопами (в нашем случае, антителу 4), помешать пере-заряду батареи. Теперь предположим, что робот имеет достаточно энергии.В этом случае антитела 1, 2 и 4 одновременно стимулируются антигенами.В результате концентрация этих антител увеличится. Однако, благодарявзаимодействиям антител через их паратопы и идиотопы при обучении се-ти, концентрация каждого антитела изменяется. В итоге антитело 2 должноиметь наивысшую концентрацию и будет в дальнейшем выбрано. Это озна-чает, что робот будет делать маневр уклонения от контакта с человеком.В случае, если робот не имеет достаточно энергии, имеется тенденция квыбору антитела 1 подобным же образом. Это означает, что робот не будетделать специальный маневр уклонения от человека и попытается сделатьповорот направо, чтобы идти к базе и перезарядить батарею.

Когнитивные агенты на поведенческих сетях

Интересные с технической точки зрения модели систем управления взаи-модействующими объектами в сложных плохо предсказуемых средах ба-зируются на психологическом понятии поведения, т. е. способности систе-мы к формированию рациональных действий управляемых ею объектовв соответствии с заданными целями и условиями среды. По характерудействий и механизмам их выбора можно различать простое реактивное

поведение, а также сложное делиберативное (разумное) поведение. Пове-денческие системы, работающие в динамически изменяющихся условияхсреды, должны быть адаптивными, т. е. способными изменять заложенныепри проектировании поведения в новых условиях. Такие системы должныиметь средства коррекции знаний о поведении в процессе функционирова-ния. Это соответствует процессам познания и сознания, которые изучаютсяспециалистами по когнитивной науке.

Когнитивная теория сознания Бара является физиологической теори-ей сознания, которая описывает функциональное построение и высокоуров-невую архитектуру системы сознания [45]. Она постулирует глобальное ра-

бочее пространство, где события сознания возникают и обрабатываются враспределенной системе процессоров, для которых особую важность имеетконтекст. Процессоры могут рассматриваться как малые автономные бес-

146 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 147: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

сознательные системы, каждая из которых управляет отдельной функцией.Обычно процессоры имеют прямые или не прямые коммуникации меж-ду собой. Коалиция бессознательных процессоров использует глобальноепространство как разделяемую область памяти процессоров. Процессорысами организуются, чтобы формировать сознание для понимания ситуации.Состоящие из бессознательных процессоров контексты (контексты целей,контексты целей-доминант, контексты восприятия) огранич

Page 148: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Выбор поведения производится в цикле путем вычисления активациикаждого модуля в соответствии с выражением (1) и выбора соответству-ющего модуля компетенции. После чего выполняется его поведение и де-лается переход к следующему шагу выбора, при необходимости уменьшаяпорог срабатывания на малое значение.

Расширенные поведенческие сети Франклина [47], построенные врамках рассмотренной идеологии когнитивной теории сознания, исполь-зуют модифицированный способ управления переменными в механизмевыбора действий, в результате чего стало возможным обрабатывать по-токи поведений. Поток поведений является набором поведений, которыеслужат удовлетворению одиночной цели агента. Сеть в целом сравниваетмножество потоков поведений и выбирает потоки, которые удовлетворяютее.

Когнитивный агент-игрок на поведенческих сетях

Рассмотрим вариант построения с использованием адаптивных поведен-ческих сетей когнитивного агента-игрока для командной работы в средебаскетбола роботов RoboFIBA [48].

Агент-игрок, традиционно используемый для среды RoboFIBA, имеетреактивную архитектуру с тремя управляющими уровнями: верхним так-тическим, средним поведения и нижним навыков (рис. 11). Верхний такти-ческий уровень выбирает текущее коллективное поведение, основываясьна информации об игроках, положениях маркеров поля и мяча по отно-шению к игроку, а также параметрах, определяющих стратегию команды(роли игроков, формации, планы игры), которые инициализируются передигрой. Средний уровень включает процедуры, определяющие поведениеагента при игре: ведение мяча с препятствиями, перехват мяча, пассы,прессинг и т. д. Различное поведение выбирается в соответствии с теку-щими состояниями среды и игрока. При реализации разного поведенияиспользуются средства уровня навыков игрока. Уровень навыков игрокавключает бег с разгонами и поворотами, обход препятствий, бросок покольцу или пас партнеру и т. д. Результатом работы этого уровня являетсяпоследовательный набор команд, исполняемых сервером. На всех уровняхэтого агента используются специально разработанные правила формиро-вания поведения в различных игровых ситуациях. Настройка на игру про-изводится вручную путем изменения структуры и параметров правил вовремя тренировочных игр.

148 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 149: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 150: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

В отличие от традиционного варианта агента-игрока на правилах когни-тивный агент-игрок на адаптивных поведенческих сетях способен обучать-ся правильному поведению под управлением тренера. Для этого в агентебыла использована трехуровневая адаптивная поведенческая система, мо-дули компетенции которой были реализованы на нейрологических модулях.Каждый модуль компетенции поведенческой сети своего уровня обучалсяотдельному поведению, т. е. отображению своей поведенческой функции,а сеть уровня в целом реализует настраиваемый путем обучения механизмселекции поведений на этом уровне. Локальные сети всех трех уровнейсоединялись связями, по которым передается информация о выбранном наданном уровне поведении по принципу «каждый-каждому». Информацияот верхних уровней к нижним воспринималась последними как указаниена соответствующее изменение своего поведения. Обратная информацияот нижних уровней к верхним подтверждала согласованное исполнениеповедений нижними уровнями.

При разработке агента сначала вручную были определены предусло-вия целей и поведения для модулей компетенции, а затем определяласьих связность. Эта операция выполнялась автоматически с использованиеммеханизма параметризации, т. е. изменения параметров связей сети. Приэтом определяется номер активируемого модуля компетенции (в нашемслучае, заранее обученного определенной поведенческой функции нейро-логического модуля) и степень его активации atij . Для этого используетсяобучение с подкреплением, которое стартует от ситуации, когда парамет-ры связей модулей не определены, но могут быть получены, используясигналы подкрепления.

Допустим, что ситуации С1 и С2 возникают в среде агента, причем каж-дая ситуация может одновременно активизировать модули М1 и М2. Какследствие, степень активизации каждого модуля может увеличиться. Одна-ко, поскольку приоритеты М1 и М2 неизвестны (потому, что номера моду-лей изначально не определены и нет цепочки «активизация-торможение»),любой из них может быть выбран случайно.

Теперь предположим, что случайно выбран модуль М1, и затем полученпозитивный сигнал подкрепления. Чтобы сделать тенденцию выбора М1при таких же или похожих ситуациях, можно записать номер М1 (т.е. 1) впамять связей модуля М2 и увеличить степень активизации at21. Модифи-кация степени активизации производится в соответствии с выражениями:

a12 = µActDs = max(µpr1, µrr2), (5)

150 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 151: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

a21 = µInhDs = max(µpr2, µrr1). (6)

Здесь µActDs и µInhDs представляют степени функции принадлежности ктермам Активизации (Act — Activation) и Торможения (Inh — Inhibition),соответствующие нечеткой переменной поддержки выбора модуля компе-тенции (Ds — Degree of support). Величины µpr1, µpr2, µrr1 и µrr1 являютсястепенями функции принадлежности к нечетким термам Пенальти (p —penalty) и Поощрения (r — reward), которые рассматриваются как термысигнала Подкрепления R (для модуля М1 или М2). Последние 4 степе-ни функций принадлежности могут быть вычислены, используя заданныефункции принадлежности для термов p и r переменной R и подсчитываячисло раз получения пенальти или поощрения, когда выбираются модулиМ1 или М2.

Процедура модификации работает, например, чтобы поднять относи-тельный приоритет М1 по отношению к М2. В случае, когда агент получа-ет сигнал пенальти, номер М2 (т. е. 2) записывается в память связей М1 истепень активации модифицируется аналогичным предыдущему образом.Это увеличивает относительный приоритет М1 по отношению к М2.

В случае агента-игрока, в зависимости от командной тактики (оборо-на, атака или подбор мяча) были заданы поощрения и пенальти, которыеприведены в табл. 2.

ТАБЛИЦА 2. Поощрения и пенальти для обучения сети

Также использовался следующий набор из 8-ти ситуаций и 10-ти пове-дений.

Ситуации: С1-2-3 (Мяч у меня-партнера-свободен-рядом); С4-5 (Парт-нер ближе к моему кольцу-кольцу противника); С6 (Рядом противник смячом); С7-8 (Я с мячом в прыжке-противник на пути к кольцу).

Поведения: М1-2-3-4 (Стоп-бросок по кольцу-блокшот-прыжок); М5-6 (Движение к кольцу-противнику); М7-8 (Пас ближайшему партнеру-партнеру вперед); М9 (Шаг в сторону); М10 (Ловить мяч).

УДК 001(06)+004.032.26 (06) Нейронные сети 151

Page 152: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ТАБЛИЦА 3. Результаты тестовой игры 3.

10 5

2- (

/ )

2 / 8 1 / 2

3- (

/ )

2 / 7 1 / 1

( / ) 33 / 64 20 / 65

(%) 52 31

52 48

Созданная по этим данным и обученная поведенческая сеть использо-вана в агенте-игроке команды А, которая тестировалась в соревновании скомандой В, поведение агентов которой определялось жестких системойправил, составленных разработчиком.

Анализ игры (табл. 3) показал более высокие показатели в точностипаса и владении мячом у команды А. Более качественная игра в пас обес-печила команде А преимущество в счете. Команда В лишь 3 раза довеласвою атаку до броска по корзине, в то время как команда А совершила 15бросков.

Эксперимент показал, что при использовании описанного механизмапараметризации качество поведения агентов зависит от времени обуче-ния. Оно может быть дополнительно улучшено, если использовать допол-нительно механизм структуризации поведенческой сети, построенный нагенетическом алгоритме.

Когнитивные агенты на адаптивных триангуляционныхмодулях

Обучаемые сетевые средства не всегда дают преимущества при построениикогнитивных агентов со сложным поведением. Больший эффект дают ко-гнитивные модули, построенные на методах адаптивной функциональнойаппроксимации, например, на основе многомерной триангуляции. Такиемодули, в частности, значительно лучше работают в режиме обучения под-креплением.

152 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 153: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

Адаптивный триангуляционный модуль

Специальный модуль для аппроксимации сложных когнитивных функцийбыл разработан на основе метода барицентрической аппрокси

Page 154: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Предложен простой алгоритм, имеющий сложность O(N), где N —средняя глубина дискретизации. Алгоритм позволяет определить симплекс,которому принадлежит произвольная точка x, и, осуществив преобразова-ние координат этой точки в пространство базового симплекса, найти бари-центрические координаты λx(t), 1 6 i 6 n+ 1.

Модуль, построенный на основе такого барицентрического аппрокси-матора, может быть настроен на отображение когнитивной функции илиотношения путем супервизорного обучения или обучения с подкреплени-ем.

При супервизорном обучении для обновления значений функции в вер-шинах f(x(i)) и степеней доверия этим значениям px(i) на базе примеров,задающих f(x), используется следующая итерационная схема:

fn+1(x(i)) = fn(x

(i))+f(x)− fnx(i) λx(i)(x)

pn+1x(i)(x) , (9)

pn+1x(t) = pnx(t) + λx(t)(x). (10)

Алгоритм обучения с подкреплением строится на основе методов ди-намического программирования. Решается задача максимизации значенияфункционала подкрепления (10), путем выбора оптимального управленияu∗, т. е.

J(x, u(t)) =

∫ τ

0

γtr(x(t), u(t))dt + γτR(x(τ)), (11)

где r(x, u) — текущее подкрепление, rb(x) — граничное подкрепление, γ —коэффициент 0 6 γ < 1.

В процессе решения этой задачи вводится целевая функция:

V (x) = supu(t)

J(x, u(t)). (12)

Путем аппроксимации уравнения Гамильтона-Якоби-Беллмана с помо-щью конечно-разностной схемы получаем следующее выражение для це-левой функции:

VP

(x) = supu∈U

γτ(x,u)

n∑

j=0

λx(j)η(x, u)VP

(x(j)) + τ(x, u)r(x, u)

,

(13)

154 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 155: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

где η(x, u) — проекция x в направлении, параллельном f(x, u) на противо-положную грань симплекса, а τ(x, u) такого, что:

η(x, u) = x+ τ(x, u)f(x, u). (14)

Вводятся Q-значения:

QP

(x, u) = γτ(x,u)VPη(x, u) + τ(x, u)r(x, u),

QP

(x, u) = R(x), при x ∈ X.(15)

Для итеративного решения (15) необходимо знание η(x, u) и τ(x, u).Они могут быть определены путем взаимодействия с объектом на осно-ве построенных траекторий изменения его состояния, в зависимости отприложенного управления. Разработан безмодельный подход решения сиспользованием теоремы Талеса для аппроксимации τ(x, u)f(x, u) на ос-нове точки входа траектории в симплекс x1 и точки выхода из симплексаx2:

τ(x, u)f(x, u) =x2 − x1

λx(x1). (16)

На основе выражений (15) и (16) строится итерационная схема вычис-ления QΣ(x, u):

QPn+1(x, u) = γ

τxλx(x1)

(VP

(x2)− VP

(x1)

λx(x1)+ V

P(x)

)+

τxλx(x1)

r(x, u).

(17)Здесь τx время движения по траектории x1 до точки x2.Для обеспечения сходимости такая динамика обучения комбинирует-

ся со структурной динамикой, заключающейся в уточнении симплексов снерегулярной целевой функцией.

Когнитивный агент на адаптивных триангуляционных модулях

Главная идея, лежащая в основе разработки когнитивного агента, способ-ного управлять динамическими объектами со сложным индивидуальным игрупповым поведением, заключается в использовании гибридной архитек-туры, компоненты которой настраиваются на отображение сложных когни-тивных функций путем обучения с подкреплением. Трехуровневая гибрид-

ная архитектура комбинирует BDI-архитектуру, а также реактивную слои-стую архитектуру, что должно позволить когнитивному агенту совместить

УДК 001(06)+004.032.26 (06) Нейронные сети 155

Page 156: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

реактивность отработки реакций на внешние воздействия с долгосрочнымпланированием и командной кооперацией.

Для реализации предложенной архитектуры необходимы обучаемые мо-дули, которые способны: (1) обучаться произвольному вектор-векторномуотображению; (2) эффективно функционировать и обучаться в случае вы-сокой размерности пространства входов; (3) обучаться как на основе су-первизорного обучения, так и путем обучения с подкреплением. Такимтребованиям в наибольшей степени соответствуют описанные здесь адап-

тивные триангуляционные модули (АТМ).Когнитивный агент гибридной архитектуры был разработан в соответ-

ствии с ранее рассмотренной общей схемой (рис. 8). BDI-модель, исполь-зованная на верхних уровнях агента, была подробно описана в разделе 4,поэтому здесь рассмотрим кратко только уровень исполнения и уровеньвзаимодействия агента.

На входы каждого из исполнительных модулей, построенных как АТМ,одновременно поступает информация с сенсоров. Она преобразуется вуправляющие сигналы, которые затем поступают на исполнительные устрой-ства. Каждый модуль отвечает за определенные аспекты рефлекторногоповедения системы. Для настройки модулей используется обучение с под-креплением. В процессе работы верхний уровень перенастраивает управ-ляющие слои путем изменения приоритетов модулей.

Уровень взаимодействия BDI формирует индивидуальные убежденияи намерения агента в соответствии с его желаниями (текущими целями),а также корректирует их после согласования с убеждениями и намерени-ями взаимодействующих с ним агентов. Процесс взаимодействия агентовна уровне взаимодействий реализуется сетью АТМ-модулей, обеспечива-ющих согласование убеждений и намерений, а также генерацию общихнамерений.

Когнитивные агенты гибридной архитектуры на АТМ-модулях былиреализованы и настроены на управление беспилотными аппаратами, вы-полняющими координированные групповые операции по уничтожению на-земных целей [49]. Агенты такой архитектуры были использованы также вцифровой нервной системе гуманоидного робота для формирования пове-дений при взаимодействии с другими роботами и человеком [50].

156 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 157: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

Заключение

В настоящее время когнитивный подход широко используется не только впсихологии, но и в технике. Разрабатывается и исследуется большая гаммаискусственных когнитивных систем, использующих когнитивные моделии нейроподобные средства реализации. Предполагается, что именно такиесистемы позволят достичь уровня поведения, соответствующего поведе-нию человека.

Наиболее полезными с точки зрения практического применения можносчитать искусственные когнитивные системы с гибридными архитектура-ми. Разработка, исследования и применение таких систем проводятся ав-тором этой работы и его коллегами с 1998 года. Эти работы развиваютсяна основе предложенных концепций, таких как когнитивная функциональ-ность, конструктивизм и многоагентность.

Разработанные варианты когнитивных модулей сетевого типа: нейро-логических, иммунологических, поведенческих, а также на основе адап-тивной триангуляционной аппроксимации, дали возможность реализоватьряд когнитивных систем и агентов для роботизированных игровых сред.

Литература1. Neiser U. Cognitive psychology. – NY, 1967.

2. Солто P. Когнитивная психология. – М.: Мир, 1996.

3. Хомский Н. Три модели описания языка. Кибернетический сборник. Вып. 2 –М.: Изд-во ИЛ, 1961.

4. Шеперд Г. Нейробиология. Том 1, 2. – М.: Мир, 1987.

5. Величковский Б. М. Когнитивная наука. Основы психологии познания. В 2-х тт.– М.: Академия, 2006.

6. Станкевич Л. А. Когнитивные нейрологические системы управления // Про-блемы нейрокибернетики (Материалы 12-й Международной конференции понейрокибернетике, Ростов-на-Дону, Россия, октябрь, 1999). – Ростов-на-Дону:Изд-во Северо-Кавказского НЦ высшей школы, 1999.

7. Гергей Т. Когнитивные системы — потребность информационного общества ивызов компьютерным наукам // IX Национальная конференция по искусствен-ному интеллекту КИИ-2004 (18 сентября – 2 октября 2004 г., Тверь). Трудыконференции в 3-х томах, Том 1, М.: Физматгиз, 2004, с. 3–10.

8. Станкевич Л. А. Искусственная нервная система гуманоидного робота // Тру-ды Юбилейной международной конференции по нейрокибернетике (Ростов-на-Дону, 25–28 сентября 2002), Ростов-на-Дону, 2002.

УДК 001(06)+004.032.26 (06) Нейронные сети 157

Page 158: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

9. Станкевич Л. А. Нейрологические средства систем управления интеллекту-альных роботов // Научная сессия МИФИ-2004. VI Всероссийская НТК«Нейроинформатика-2004»: Лекции по нейроинформатике, ч.2. – М.: МИФИ,2004, с. 57–110.

10. Станкевич Л. А. Когнитивный подход к управлению гуманоидными роботами //В книге «От моделей поведения к искусственному интеллекту». Серия «Наукиоб искусственном», Ред. Редько В. Г. – Изд-во УРСС, 2006, Гл. 14, с. 386–443.

11. Vernon D., Metta G., Sandini G. A survey of artificial cognitive systems: implicationsfor autonomous development of mental capabilities in computational agents // IEEE

Transactions on Evolutionary Computation, Vol. 11, No. 2, April 2007, pp. 151–180.

12. Newell A., Simon H. A. Computer science as empirical inquiry: Symbol and search// Communications of the Association for Computing Machinery. – vol. 19, pp. 113–126, 1976, Tenth Turing Award Lecture, ACM.

13. Anderson J. The arhitecture of cognition. – Harvard University Press, MA, 1983.

14. Bratman M. Intention, plan, and practical reasoning. – Harvard University Press,Cambridge, MA, 1987.

15. Sandini G., Metta G., Vernon D. Robocup: An open framework for research inembodied cognition // In: Proc. IEEE-RAS/RSI Int. Conf. on Humanoid Robots(Humanoids 2004), 2004, pp. 13–32.

16. Throndaike E. L. The fundamental of learning. – New York: Columbia Univ., TeacherCollege, 1932.

17. Hebb D. O. The organization of Behavior. – New York: Willey, 1949.

18. McCulloch W. S., Pitts W. A logical calculus of ideas immanent in nervous activity// Bull. Math. Biophys., vol. 5, pp. 115–133, 1943.

19. Rumelhart D. E., McClelland J. L. (Eds.) Parallel distributed processing: Explorationsin the microstructure of cognition. – Cambridge, VA: MIT Press, 1986.

20. Reiter R. Knowledge in action: Logical foundation for specifying and implementingdynamical systems. – Cambridge, MA: MIT Press, 2001.

21. Thelen E., Smith L. B. A dynamic systems approach to the development of cognitionand action. In “Bradford Books Series in Cognitive Psychology” – Cambridge, MA:MIT Press, 1944.

22. Maturana H., Varela F. The tree of knowledge — the biological roots of humanunderstanding. – London, U.K.: New Science Library, 1987.

23. Bickhard M. H. Autonomy, function, and representation // Artificial Intelligence.Spec. Issue on Communication and Cognition. – vol. 17, no. 3–4, 2000, pp. 111–131.

24. Granlund G. H. The complexity of vision // Signal Processing, vol. 74, 1999, pp. 101–126.

158 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 159: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Л.А.СТАНКЕВИЧ

25. Granlund G. H. A cognitive vision architecture integrating neural networks withsymbol processing // KI-Zeitschrift Kunstliche Intelligenz. Special Issue on CognitiveComputer Vision. – April, 2005.

26. Metta G., Fitzpatrick P. Early integration of vision and manipulation // Adaptive

Behavior, vol. 11, no. 2, 2003, pp. 109–128.

27. Laird J. et al. Soar: An architecture for general intelligence // Artificial Intelligemce,33(1), 1987, pp. 1-64.

28. Wooldridge M. An introduction to multiagent systems. John Wiley & Sons, Ltd.2002.

29. Krichmar J. L., Edelman G. M. Brain-based devices for the study of nervous systemand the development of intelligent machines // Artificial Life, vol. 11, 2005, pp. 63–67.

30. Brooks R. A. et al. The cog project: Building a humanoid robot // In: Computationfor Metaphors, Analogy, and Agends, C. L. Nehaniv, Ed. Berlin, Germany: Springer-Verlag, 1999, vol. 1562, Springer Lecture Notes in Artificial Intelligence.

31. Scassellati B. Theory of mind for a humanoid robot // Autonomous Robots, vol. 12,2002, pp. 13–24.

32. Leslie A. M. Tomm, toby, and Agency: Core architecture and domain specificity //In: Mapping the Mind: Specificity in Cognition and Culture, L. A. Hirschfield andS. A. Gelman, Eds. – Cambridge, U.K.: Cambridge Univ. Press, 1994, pp. 119–148.

33. Baron-Cohen S. Mindblindness. – Cambridge, MA: MIT Press, 1995.

34. Станкевич Л. А. Когнитивные концепции и их применение в технических ин-теллектуальных системах // Первая Всероссийская конференция «Когнитивнаянаука-2004», Казань, 9–12 октября, 2004.

35. Minsky M. Society of mind. – New York: Simon and Schuster, 1986.

36. Станкевич Л. А. Многоагентные когнитивные нейрологические системы управ-ления // IV Всероссийская конференция «Нейрокомпьютеры и их применение»,НКП2000, Москва, 16–18 февраля 2000, М., 2000.

37. Weiss G. (Ed.) Multi-agent systems. A modern approach to distributed artificialintelligence. – MIT Press, Cambridge, MA., 1999.

38. Brooks R. A. Intelligence without representation // Artificial Intelligence, 47, pp. 139–159, 1987.

39. Станкевич Л. А. Когнитивные структуры управления гуманоидным роботом //Новости искусственного интеллекта, 1, 2004.

40. Sutton R. S., Barto A. G. Reinforcement learning: An introduction. – MIT Press,Cambridge, MA, 1998.

УДК 001(06)+004.032.26 (06) Нейронные сети 159

Page 160: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

41. Котенко И. В., Станкевич Л. А. Командная работа агентов в реальном времени// Новости искусственного интеллекта, 3(57), 2003, с. 25–31.

42. Станкевич Л. А. Иммунологические системы: модели и применение // На-учная сессия МИФИ-2007. IX Всесоюзная научно-техническая конференция«Нейроинформатика-2007» (23–26 января 2007, Москва), Сб. научных трудов.В 3-х частях, часть 3. М.: МИФИ, 2007, с. 98–105.

43. Jerne N. K. Towards a network theory of the immune system // Annales

d’Immunologie (Institut Pasteur), 1974, 125С, pp. 373–389.

44. Tarakanov A. O., Kvachev S. V., Sukhorukov A. V. A formal immune network and itsimplementation for on-line intrusion detection // LNCS 3685: MMM-ACNS 2005 /Gorodetsky V., Kotenko I., and Skormin V. (Eds.), Springer-Verlag, Berlin Heidelberg,2005, pp. 394–405.

45. Baars B. A cognitive theory of consciousness. – Cambridge University Press, NewYork, 1988.

46. Dorer K. Extension behavior networks for behavior selection in dynamic andcontinuous domain // Proceeding of Conference ECAI-2004.

47. Franklin S. Autonomous agents as embodied AI // Cybernetics and Systems. 1997,28, pp. 499–520.

48. Станкевич Л. А., Троцкий Д. А. Баскетбол роботов — много-агентная игроваясреда RoboFIBA // Материалы XVI Научно-технической конференции «Экс-тремальная робототехника», 11–13 апреля 2005, ЦНИИ РТК, СПб., 2005.

49. Тимакин Д. Л. Многоагентные когнитивные системы управления динамически-ми объектами со сложным поведением. Диссертация на соискание ученой сте-пени к. т. н., СПбГТУ, 2002.

50. Станкевич Л. А. Когнитивные структуры и агенты в системах управления ин-теллектуальных роботов // Новости искусственного интеллекта, 1, 2004,с. 41–55.

Лев Александрович СТАНКЕВИЧ, кандидат технических наук, про-фессор Санкт-Петербургского политехнического университета. Научныеинтересы: интеллектуальное управление, искусственные когнитивные си-стемы, нейрологические средства, многоагентные системы управления, фут-бол роботов, гуманоидные роботы. Автор более 130 печатных работ, 8 учеб-ных пособий и 2 монографий. Организатор команд по футболу роботов иучастник чемпионатов мира по футболу роботов (RoboCup) в симуляцион-ной лиге. Является одним из организаторов и участников создания первогов России гуманоидного робота АРНЕ.

Page 161: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

A. A. ZHDANOVS. A. Lebedev Institute of Precision Mechanics and Computer Engineering,

Moscow, RussiaE-mail: [email protected]

ADAPTIVE MACHINES AS AN UNAVOIDABLE WAY OFTECHNOLOGICAL EVOLUTION. PROBLEMS AND TASKS

Abstract

The paper considers the topicality of new way of technologies evolution thatconsists in development of adaptive machines, programs and systems similarto natural control systems. We present the scheme, structure and compositionof the biologically-inspired “Autonomous Adaptive Control” (AAC) systemthat logically follow from the conditions in which the natural control systemswork. The comparison of the AAC system with P. K. Anokhin “FunctionalSystem” helps to find a difference and common lineaments of these modelsof natural control systems. The AAC system can be created on base of presentedsuperposition of some methods of self-learning pattern recognition, decision-making methods, knowledge base and some others methods. One of approachto AAC system creation is based on special self-learning neuron models, whichwere elaborated by us for the AAC system. We presented a few prototypes ofapplication adaptive machines on base of the AAC method. Some mathematical,technological and physiological problems of transfer to new adaptive technologiesare considered in the paper.

УДК 001(06)+004.032.26 (06) Нейронные сети 161

Page 162: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

А. А. ЖДАНОВОАО Институт точной механики и вычислительной техники

им. С. А. Лебедева, Москва,E-mail: [email protected]

АДАПТИВНЫЕ МАШИНЫ — НЕИЗБЕЖНОЕ НАПРАВЛЕНИЕРАЗВИТИЯ ТЕХНИКИ. ЗАДАЧИ И ПРОБЛЕМЫ

Аннотация

Рассматривается актуальность перехода к технологиям создания адаптивныхмашин, программ и систем, подобных естественным системам управления.Представлена схема, состав и структура системы «Автономного адаптив-ного управления», выведенная из понимания возможностей решения зада-чи адаптивного управления в условиях, в которых работают естественныеуправляющие системы. Проведен сравнительный анализ разработанной схе-мы системы «Автономного адаптивного управления» с «Функциональнойсхемой» П. К. Анохина. Представлена разработанная модель нейрона, какэлементарной самообучаемой системы распознавания, и проведено ее срав-нение с формальным нейроном ИНС. Описаны разработанные действующиемодели прикладных систем «Автономного адаптивного управления». Ука-заны математические, технологические и психологические проблемы пере-хода к адаптивным технологиям.

Введение

Среда, в которой мы живем, состоит из двух компонент — естественнойи техногенной. Появлению этого нового для нашей планеты явления —техногенной среды, мы обязаны, видимо, возникновению у человеческоговида интеллекта. До появления человеческого интеллекта и люди и другиеорганизмы жили, наверное, в органическом единстве с естественной сре-дой, но и в полной зависимости от нее. С возникновением интеллекта улюдей возникла способного строить сложные адекватные модели явлений,строить сложные целенаправленные программы поведения, прогнозиро-вать и преобразовывать окружающий мир в свою пользу. Создавая новую,техногенную, среду, человек опирается на свои модели, и, по мере их раз-вития, оказывается способным ко все более сложному поведению, ко всеболее сложным преобразованиям действительности. Очевидно, что не всерезультаты техногенной деятельности человечества позитивны. Но мы на-деемся, что, постепенно заменяя окружающую нас естественную среду на

162 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 163: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

техногенную, мы тем самым не роем себе яму, а развитие интеллекта по-родит и такие модели, которые будут учитывать опасности, и дадут нам вруки способы избежать их. Однако, вступив на путь развития интеллекта,человечество уже не может остановиться, «точка принятия решения» ужедавно пройдена, нам надо продолжать это движение, заботясь о его без-опасности. Обсудим некоторые возможности, которые помогут осознатьзакономерности развития технологий, применяемых людьми в своей пре-образовательной деятельности.

В развитии своих технологий мы очень часто идем по пути, по которомупрошла Природа, и делаем те же изобретения, которые уже были сдела-ны Природой. Это заставляет нас считать, что бионический путь являетсявесьма целесообразным. Он намечает правильное направление, по кото-рому следует направлять поиск в нашем технологическом развитии. ЕслиПрирода нашла некоторое решение, и оно закрепилось в ней, то следуетотноситься к этому с большим доверием и вниманием. Можно приводитьбольшое число примеров, подтверждающих эту мысль.

Я бы хотел остановиться здесь на системах управления, как на наи-более «интеллектуальных» системах, способных к принятию решений наоснове переработки информации. Для того, чтобы увидеть тенденцию раз-вития систем управления, совершим краткий экскурс в прошлое. Посмот-рим, каковы были важнейшие вклады науки в технологии и в созданиетехногенной среды нашего обитания.

Первый вклад был «количество». Первые научные сведения помогалинашим предкам увеличивать количество средств — пищи, жилищ, оружия,сырья, топлива и т. д., в том числе увеличивать количество видов вещей,их разнообразие.

Второй вклад был «качество». Наука привела к улучшению качествасредств. Появились образцы качественной еды, качественных жилищ-двор-цов, качественного дорогого оружия, дорогих предметов искусства и рос-коши, качественного сырья, сложных и утонченных технологических про-цессов и т. п.

Следующий вклад был «оптимальность». Когда стало понятно, что вы-сококачественных вещей на всех не изготовишь, пришло осознание необ-ходимости уметь создавать оптимальные вещи и процессы. Явилась эпохаоптимизации. Наука дала возможность создавать оптимальные жилища, оп-тимальную одежду, оптимальную еду. Все достижения техники ХХ века —это результат достижений в науке оптимизации. Любая современная маши-на — это результат оптимизации. Оптимизация, как известно, состоит в том,

УДК 001(06)+004.032.26 (06) Нейронные сети 163

Page 164: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

что при исходных заданных условиях — некотором объекте с фиксирован-ными свойствами, признаковом пространстве, и критериях оптимальности,находятся такие значения параметров, при которых объект демонстрируетвыходные параметры, наилучшие в смысле заданных качественных кри-териев (фитнес-функции). Операция оптимизации системы — одноразовая.Найдя оптимальный вариант машины (системы, процесса), люди фиксиру-ют его в технической документации изделия и затем тиражируют изделиес данными неизменными параметрами. В процессе эксплуатации однаждынайденные и зафиксированные значения параметров уж не меняются, из-делие просто изнашивается и затем списывается. Следствием такого родатехнологий, характерных для XIX-го и XX-го веков, был выпуск большихсерий одинаковых машин — продуктов одноразовой оптимизации.

Если мы теперь попробуем сравнить это достижение техносферы с до-стижениями биосферы, то увидим, что в Природе дело обстоит не совсемтак. С одной стороны, очень похоже, что «изделия» в Природе тоже оп-тимизированы, и некоторые параллели провести можно. Например, можносравнивать виды животных с сериями машин. Однако налицо и явныеразличия. В каждом виде — «серии» животных или растений, есть многообщего, но нет двух одинаковых организмов. Этот разброс вариантов при-родных «изделий»-индивидов внутри одного вида явно указывает на то, чтоПрирода продолжает искать оптимальные варианты методом проб и оши-бок. Она не останавливается на некотором однажды найденном варианте.Во-вторых, можно видеть, что каждый индивид существеннейшим обра-зом меняется в процессе своей жизни. Младенчество, детство, взрослаяфаза жизни, передача наследуемых признаков, их мутация и естественныйотбор — это технология постоянного поиска, приспособления, адаптациивида организмов к условиям его существования. И поиск этот никогда неостанавливается. Его и нельзя останавливать, так как, в отличие от одно-разовой оптимизации, условия, в которых приходится жить организмам,постоянно меняются. Одноразовая оптимизация в Природе просто недо-пустима. Это же касается и свойств одного отдельно взятого индивида.Условия его жизни мало предсказуемы и постоянно изменяются, поэтомуприродные организмы представляют собой адаптивные, самоприспосабли-вающиеся системы.

Вернемся к вопросу о вкладах науки в техносферу и спросим себя,в чем будет состоять следующий этап? Если следовать логике развития,то следующим вкладом науки в техносферу должно быть появление тех-нологий создания адаптивных машин, т. е. машин и систем, способных к

164 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 165: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

самоприспособлению, самообучению, саморазвитию. Ведь именно к этойтехнологии пришла Природа в своем развитии. Образцы этого «изобрете-ния» Природы мы во множестве видим вокруг себя. И мы видим также,что наши технологии практически абсолютно не демонстрируют нам та-кого рода изделий. Следовательно, мы стоим на пороге появления новыхтехнологий — технологий создания адаптивных машин, программ и систем,и, следовательно, нам неизбежно придется этим заниматься.

Что такое адаптивность

Договоримся о терминах. Слово «адаптивность» не имеет сегодня одно-значного смысла. Например, у биологов «адаптивность» может означатьсвойство привыкания рецепторных клеток к постоянному воздействию, вы-зывающее снижение их восприимчивости. У социологов «адаптивность»может означать готовность к пересмотру привычных представлений и ре-шений, способность гибко реагировать на меняющиеся обстоятельства.У системщиков «адаптивность» может означать стремление к состояниюустойчивого равновесия, которое предполагает адаптацию параметров си-стемы к изменяющимся параметрам внешней среды.

В обиходном техническом смысле под «адаптивностью» понимаетсяспособность системы адекватно реагировать на изменившиеся обстоятель-ства, что-то вроде робастности и способности принимать правильные ре-шения в необычных условиях. Иногда под адаптивностью понимают зара-нее предусмотренные в машине опции, которые можно включать в тех илииных соответствующих обстоятельствах. Но все это не соответствует томупониманию свойства «адаптивность», о котором мы будем говорить здесь.Дадим определение понятию «адаптивность».

ОПРЕДЕЛЕНИЕ 1. Адаптивностью будем называть способность систе-мы управления некоторого автономного управляемого объекта добыватьзнания о свойствах системы «среда–объект управления–система управле-ния», накапливать эти знания в своей памяти и использовать эти знаниядля управления с целью дальнейшего их пополнения и сохранения накоп-ленных знаний путем обеспечения физического выживания объекта, какносителя памяти и средств работы с нею (при неимении других способовк сохранению и использованию знаний).

Поясним это определение. Прежде всего, речь идет об объектах, об-ладающих системой управления — специализированной подсистемой, ра-

УДК 001(06)+004.032.26 (06) Нейронные сети 165

Page 166: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ботающей с информацией. Отсеиваем «адаптивные» машины без системуправления, но с ручкой переключения опций, обеспечивающих заранееизвестное изменение свойств в предусмотренных ситуациях. Во-вторых,отсеиваем неавтономные системы управления, в которых все знания зало-жены изначально, кем-то извне машины, или когда при управлении имеетсявозможность доступа к знаниям вне объекта управления; мы говорим толь-ко о машинах, способных добывать знания для управления на своем опыте.В-третьих, мы отсеиваем машины, работающие с произвольно заданнымицелевыми функциями; например, ракета, которая должна долететь кудаследует и там взорваться — это не наш объект, потому что в природе та-ких объектов, изначально нацеленных на самоуничтожение или вообще —на выполнение кем-то поставленных целей, нет (опустим такие тонкости,как апоптоз, альтруизм, рабство), системы управления такими объектамимогут быть устроены любым способом — ad hoc. Напротив, всем живыморганизмам присуще стремление к выживанию за счет использования приуправлении накопленных ими же знаний. Наконец, поясним слова о том,чем же именно должна управлять система управления. Нервная системаживого организма, а именно ее мы и имеем в виду, управляет не просто те-лом организма, но телом, погруженным в окружающую среду, т. е. всем теммиром, что находится за пределами ее самое, и даже более того — миром, вкоторый включена и сама эта нервная система, потому что при управленииона предусматривает и свои собственные будущие реакции. В техническихсистемах речь почти всегда идет об управлении только заданным объек-том, а влияние всего остального — например, среды, учитывается лишь какпомеха.

Что такое управление

Рассмотрим, как понимается управление в современной технологии. Типо-вая схема системы управления показана на рис. 1.

Объект управления (ОУ) — некая машина или система, например, ра-кета. Неким заказчиком задается целевая функция, например — долететьпо заданной траектории в заданную точку. На объект управления действу-ют случайные возмущающие воздействия со стороны среды, они уводятобъект управления с желаемой заказчиком траектории. Система распозна-вания на основании вектора показаний датчиков X распознает текущеесостояние Ω объекта управления, которое сравнивается с желаемым, и на-

166 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 167: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

X

Page 168: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

отличия состоят в следующем.

1. Заказчик системы управления и объект управления в Природе — этоодно и то же. «Заказчик» сидит внутри ОУ и представляет собойсобственно систему управления. Отсюда сразу следует, что главнойцелевой функцией (во всяком случае — одной из главных) можетбыть только выживание объекта управления (но отнюдь не «долететьв некую точку и там взорваться» или что-либо подобное).

2. Система управления живого организма не знает изначально опти-мального закона управления, позволяющего достигнуть целевой функ-ции (а именно, выживания). Система начинает свою жизнь в заранеемалоизвестной среде и должна закон управления найти. Это озна-чает, что другой важной целевой функцией является поиск законауправления — поиск знаний. Следовательно, во многих отношениях,схема системы управления должна обеспечивать поиск, быть поиско-вой системой. Свойства и среды и самого ОУ постоянно изменяются,поэтому поиск закона управления и его обновление должны проис-ходить постоянно, т. е. система управления в самом общем случаедолжна быть системой поисковой оптимизации. Целевые функциивыживания и накопления знаний назовем естественными целевыми

функциями, что весьма родственно понятию «естественное право»,предусматривающему право на жизнь.

3. Окружающая среда в естественных системах управления рассмат-ривается отнюдь не как источник возмущений, но как сложноорга-низованная субстанция, закономерности которой следует стремитьсяпонять, чтобы в ней выжить.

4. Постоянному изменению на основе результатов поисковой оптими-зации должны подвергаться не только информация — знания, но исамо устройство объекта управления, датчиков, исполнителей и, втом числе, — устройство самой системы управления.

Из сказанного следует, что схема биологически-инспирированной си-стемы управления, должна быть такой, как показано на рис. 3.

Уточним также, что собой представляет «закон управления» в том об-щем виде, в котором его следует понимать при построении адаптивныхсистем управления.

Вернемся к рис. 2 и зададимся следующим вопросом: а откуда возникливсе элементы изображенного на нем «закона управления»? А именно:

168 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 169: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 170: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 171: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

признаков с их вариациями посредством мутаций. Это очень мощный ме-тод поисковой оптимизации, хотя и требующий долгого времени. В техникеэтот метод можно воспроизводить генетическими алгоритмами.

Что касается задачи определения алфавита классов

Ω = (Ω1,Ω2, . . . ,Ωi, . . . ,ΩN),

то эта задача разбивается на несколько сложных подзадач. Возникает сле-дующая их постановка. Задан словарь признаков X и набор T соответству-ющих измерителей. Требуется на основе методов самообучения сформиро-вать алфавит классов, существенных для управления заданным объектомуправления в заданной среде. Как известно из теории систем распозна-вания, для построения самообучаемой системы распознавания, способнойбез «учителя» сформировать алфавит классов, нужно обязательно задатьправила формирования образов, иначе система работать не сможет. Этотребование отражает тот факт, что множество исходных объектов, в дан-ном случае — входных сигналов, можно разбить на классы (классифици-ровать) самыми разнообразными способами. Например, одну и ту же кучупредметов можно расклассифицировать по виду, или по весу, или по цвету,или по форме, или по наличию вредных примесей и т. д. и т. п. То есть,обязательно нужно задать принцип классификации — правило, говорящее,что именно заказчик системы распознавания хочет считать классом.

Нам представляется, что принципы классификации — правила для фор-мирования классов-образов, формируются тоже на этапе формированиябиологического вида поисковым методом. И эти правила заложены уже вобщую для всех представителей вида морфологию нервных сетей и ор-ганов чувств. Однако формирование конкретных образов осуществляетсясамим индивидом, но на основе полученных им от предков правил. На-сколько известно автору, примерами таковых правил являются присущиеименно человеку: способности распознавать в зрительной информациипрямые линии, из которых строятся более сложные зрительные образы;способности формировать образы человеческих лиц своих соплеменников;по-видимому, наличие большого числа «шаблонов» для формирования кон-кретных поведенческих паттернов, и, даже, как утверждают, наличие куль-турологических шаблонов, присущих конкретной этнографической группе[1].

По поводу существа этих правил формирования классов-образов можнопредположить, что в них входит принцип кластеризации — т. е. близостив многомерном признаковом пространстве точек, описывающих схожие

УДК 001(06)+004.032.26 (06) Нейронные сети 171

Page 172: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

объекты. Этот принцип реализуется, в частности, в механизме пластично-сти нейронных синапсов, которые при прохождении по ним возбуждениявзаимно стимулируют рост друг друга, если они расположены в преде-лах некоторой ограниченной окрестности. Однако среди признаков особовыделяется ось времени, поскольку, во-первых, нервная система живыхорганизмов предназначена, во многом, для управления движением, чтотребует строгой временной синхронизации движущихся частей организма,а во-вторых, — относительное положение событий во времени отражаетпричинно-следственные связи явлений в нашем мире, что должно учиты-ваться в формируемых образах, используемых для управления.

На базе таких заданных «шаблонов»-правил, конкретным индивидомформируется множество уже конкретных классов-образов, которые и со-ставляют алфавит классов Ω = (Ω1,Ω2, . . . ,Ωi, . . . ,ΩN ) данного индиви-да. Эта задача решается применением подходящего метода классификации.Сформированный алфавит классов должен быть запомнен в памяти систе-мы управления индивида (в «памяти образов»). Очевидно также, что алфа-вит классов — «память образов» конкретного индивида может пополнятьсяна протяжении всей его жизни, т. е. ось Ω на рис. 4 постоянно расширяется.Помимо сказанного, необходимо учитывать, что подсистема формированияобразов должна быть способна формировать «образы над образами», т. е.обнаруживать закономерности, включающие в себя более мелкие законо-мерности. Это тоже приводит к постепенному расширению оси образов Ω(рис. 4), и, более того, — к постепенному переносу области определения«закона управления» в сторону таких более сложных образов.

ЗАДАЧА 2. Следующая задача тоже связана с осью Ω в законе управ-ления на рис. 4. Это задача распознавания образов. Управляющей системенужно понять, какие из уже сформированных ранее образов действуют(распознаются) в текущий момент. Решение задачи состоит в том, что те-кущие показания датчиков X(t) сравниваются с содержимым памяти об-разов — алфавитом классов Ω = (Ω1,Ω2, . . . ,Ωi, . . . ,ΩN ), описанных наязыке признаков, и с помощью так называемых «решающих правил», вы-носится решение — к каким из классов относится текущая ситуация, или —какие образы распознаются в текущий момент. Задача решается примене-нием подходящего метода распознавания. Например, можно использоватькакую-либо искусственную нейронную сеть (ИНС).

ЗАДАЧА 3. Определение эффективных «управляющих» воздействий наобъект управления и среду (на рис. 4 соответствует определению диапазонаи значений осиM ). С одной стороны эта задача ограничена возможностями

172 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 173: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

исполнительных устройств, которыми располагает ОУ. Природа отбираети конструирует исполнительные устройства тоже применительно ко всемубиологическому виду и тоже поисковым способом естественного отбора.Однако в силу большого числа степеней свободы исполнительных органоввозникает огромное поле для перебора и выбора нужных воздействий и ихкомбинаций, как на этапе обучения, так и на этапе принятия решений. Здесьвозникает задача целесообразного структурирования данных, описываю-щих возможные управляющие воздействия, и их представления в памяти.Такое структурирование тоже должно быть основано на некоторой класси-фикации, например, по степени влияния воздействий на результат, для чегоможно использовать теоретико-множественные подходы и их логическиеоперации. Очевидно, что структуризация данных об управляющих воздей-ствиях, а также увеличение количества таких данных, могут происходить втечение всей жизни объекта управления, т. е. ось M на рис. 4 может сильноизменяться со временем в процессе адаптации системы управления. Темсамым, можно утверждать, что для адаптивных систем управления и об-ласть определения и область значений закона управления могут изменятьсяв процессе адаптации в результате работы поисковых механизмов.

ЗАДАЧА 4. Поиск статистически достоверного закона управления. Те-перь остановимся на самом законе управления (кривая на рис. 4). Откудаона появляется? В технических системах управления на всем протяженииХХ века такая кривая определялась в результате решения обратной задачи,описывающей реакцию математической модели заданного ОУ на управля-ющие воздействия с одновременным учетом целевого положения объектауправления. Вначале составлялась математическая модель ОУ, описываю-щая изменение состояния ОУ в ответ на то или иное управляющее воз-действие. Затем указывалось желаемое для заказчика целевое состояние,и решалась обратная задача. Результат — подобный показанному на рис. 4,«закон управления», указывающий, какое управляющее воздействие нужноприменить при заданном отклонении текущего состояния ОУ от желаемогозаказчиком, чтобы минимизировать это отклонение.

Очевидно, что точность найденного таким способом закона управленияопределялась точностью математической модели ОУ. Известно, что воз-можности современной математики далеко не безграничны, и для многих имногих реальных объектов построить их математические модели и вывестииз них эффективные законы управления оказывается делом весьма затруд-нительным или вовсе невозможным. Каков же выход из такого положения?Выход состоит в построении систем, способных находить оптимальный

УДК 001(06)+004.032.26 (06) Нейронные сети 173

Page 174: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

закон управления предъявленным объектом минуя этап построения мате-матической модели ОУ, т. е. в построении адаптивных систем управления.В данном контексте легко объяснить способ работы адаптивной системыуправления, сделаем это, опираясь на рис. 4.

Прежде всего, ось Ω будем понимать именно как алфавит классов —множество образов, которые уже сформированы системой управления. По-тому что при понимании ∆Ω(t) именно как рассогласования текущего ижелаемого состояний уже учитывается качественный критерий, оцениваю-щий отклонение текущего состояния от цели. В общем случае это должнобыть просто множество различимых образов. Например, это множествообразов различимых управляющей системой состояний, в которых можетнаходиться ОУ. Можно упорядочить множество образов в каком-либо от-ношении, используя правило монотонности — близкие образы описываютблизкие состояния ОУ.

Пространство (M,Ω) является поисковым пространством, на которомрасположен заранее неизвестный управляющей системе закон управления,который следует найти. При этом в естественных условиях не выделяет-ся особого времени на то, чтобы сначала найти этот закон, а потом ужеим пользоваться для управления. В общем случае искать закон управле-ния живым организмам приходится в то же самое время, когда нужно импользоваться - принимать решения и управлять (иногда выделяется периоддетства, обучающих игр, обучения родителями и т. п.).

Итак, в процессе жизни ОУ, в текущий момент, система распознаванияобразов, которая уже сформировала некоторый алфавит классов, распозна-ет конкретный образ текущего состояния Ω(t) или несколько таких образов(если ни одного образа к этому моменту еще не было сформировано, тоэто тоже вполне «штатный» случай, просто неопределенность еще большевозрастает). Для простоты, пусть это будет один образ Ωi(t). Тем самым впризнаковом пространстве (M,Ω) выделяется столбец, соответствующийобразу Ωi(t). Пусть закон управления еще не определен для этого столбца,т. е. система управления еще «не знает», какое управляющее воздействиеMk(t+1) ей следует выбрать для исполнения в следующий момент (t+1).Для поиска наилучшего решения системе управления следует в самом об-щем случае использовать метод «проб и ошибок», выбирая воздействиеMk(t + 1) случайным способом и запоминая, что получится в результате.В качестве результата нужно фиксировать номер образа того состояния, вкоторое перейдет ОУ после совершения действия Mk(t+ 1). Конечно, ре-зультат может состоять в том, что будет вызвано распознавание нескольких

174 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 175: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

новых образов и/или прекратится распознавание нескольких ранее распо-знанных образов. Это все надо фиксировать в определенной структуре.Для простоты будем считать, что результат состоит в распознавании одно-го образа Ωr(t+2). Можно ли считать, что переход из состояния Ωi(t) присовершении воздействия Mk(t+ 1) в состояние Ωr(t+ 2), т. е. тройка

〈Ωi(t),Mk(t+ 1),Ωr(t+ 2)〉, (1)

которая, на самом деле, получена по ретроспективным данным о предыс-тории

〈Ωi(t− 2),Mk(t− 1),Ωr(t)〉, (2)

является закономерным результатом? По одному прецеденту считать так, вобщем случае, нельзя. Следовательно, надо накопить убедительную стати-стику. Значит, система управления должна каждый раз, когда она попадаетв состояние Ωi(t), пробовать совершать разные действия Mk(t + 1), нодля каждого из них запоминать результат Ωr(t+ 2), и подсчитывать числоповторяющихся совпадений. Если некоторая тройка вида (2) повторится впредыстории не менее, чемM раз, что достаточно для заключения о неслу-чайном характере совпадения, то такую тройку системе управления следуетсохранить как элементарное «знание» о свойствах ОУ (а точнее — системы«среда–объект управления–система управления»). Назовем памятью, гдесохраняются знания, Базой Знаний (БЗ). При определенных условиях в БЗследует сохранять и знания об отдельных прецедентах, но это уже болеесложные подробности, которые сейчас опустим.

Подчеркнем в сказанном одну важную деталь: основным способом по-лучения эмпирических знаний, которые можно использовать при управле-нии, является поиск многократно повторяемых комбинаций событийвида (1). «Если у меня в руке зажат камень, и я разожму руку, то каменьупадет. А если не разожму — то не упадет. Я это знаю, потому что это былоуже много раз».

Итак, в Базе Знаний накапливается в виде совокупности троек (2) стати-стически достоверная информация о том, в какие известные состояния Ωrобъект управления закономерно переходит при совершении воздействийMk, если перед этим ОУ находился в состоянии Ωi. Поскольку ретро-спективные данные вида (2) имеют статистическое подтверждение (каждаятройка повторялась не менее, чем M раз), то это дает уверенность в том,они будут повторяться и в будущем и их можно использовать для прогно-зирования. Поэтому при принятии решений система управления с опре-

УДК 001(06)+004.032.26 (06) Нейронные сети 175

Page 176: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

деленным, но вынужденным риском, экстраполирует известные ей ретро-спективные закономерности (2) окружающего мира, сдвигая их по временив будущее и превращая в прогноз вида (1). Тем самым, система управления,распознав, что она находится в текущий момент в состоянии Ωi(t), имеетоснования предполагать, что если она совершит действие Mk(t + 1), то кмоменту (t+ 2) ОУ должен перейти в состояние Ωr(t+ 2). Это и есть тотпрогноз, на который может опираться система управления при принятиирешений.

Однако одного знания о том, какими способами можно целенаправ-ленно перейти в этом мире из одного состояния в другие, т. е., того, чтозаписано в Базе Знаний, не достаточно для управления. Потому, что вэтих знаниях не указано качественное различие между разными состояни-ями, тем самым — отсутствуют указания на целевые состояния, перейтив которые и следует стремиться. Такого рода знания эквивалентны картеметрополитена в руках без указания целевой точки в городе, в которуюнам следует сейчас добраться, и без меры, позволяющей оценить степеньблизости различных станций к искомой целевой точке в городе.

Не останавливаясь здесь подробно на этом вопросе, скажем только,что управляющей системе абсолютно необходимо наличие некоторой каче-ственной шкалы оценок, которыми можно характеризовать образы состо-яний. В технических системах такие оценки введены в виде мер, оцени-вающих состояния ОУ в признаковом пространстве относительно целевойточки, заданной заказчиком системы (например, отклонение траекторииполета от заданной). Но в природных системах управления, как было ска-зано выше, есть только две главные целевые функции — (а) выживаниеи (б) накопление знаний. Поэтому качественные оценки всех образов такили иначе характеризуют образы именно в соответствии с этими целевымифункциями. Каждый сформированный системой управления образ снаб-жается своей качественной оценкой. И эта оценка характеризует важностьэтого образа для выживания ОУ или его полезность для накопления знаний.Разные образы с одинаковыми оценками равноценны для природной систе-мы управления. Это дает нам возможность выбирать между разнороднымицелевыми состояниями, например, «вкусное пирожное ли мне съесть илилучше интересную книжку почитать?». Источниками качественных оце-нок для образов являются: априорные знания, переданные в генофондеот предков, — для базовых образов, обеспечивающих основной гомеостаз,собственный опыт — для вновь сформированных образов конкретных объ-ектов, процессов и состояний, а также «аналитически» выведенные оценки

176 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 177: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

для некоторых труднодостижимых образов (на аналитическом выводе та-ких оценок, как и на аналитическом выводе новых знаний, останавливатьсяздесь не будем). Автор глубоко убежден, что подсистемой, обеспечиваю-щей нервную систему любого живого организма информацией о качествен-ных оценках образов, является эмоциональный аппарат, присутствующий влюбом живом организме [2–4]. Другой важной функцией эмоциональногоаппарата в природных системах управления является «овеществление» ука-занных целевых функций — выживания и накопления знаний в виде однойуниверсальной цели — стремления к максимизации обобщенной текущейэмоциональной оценки, характеризующей состояние ОУ. Это один из «об-манов» Природы, которым она заставляет все организмы быть активными вокружающей среде, постоянно воздействовать на среду, что приносит нерв-ной системе новые знания, которые и повышают вероятность выживанияОУ.

Можно утверждать, что в каждой природной системе управления внекотором виде присутствует таблица (см. пример на рис. 5), в которойкаждому сформированному образу поставлена в соответствие его каче-ственная, или как будем говорить — «эмоциональная» оценка.

i

« » Si

1 «0» - « »

2 «+4» - « »

… …

N «-5» - « »

РИС. 5. Пример таблицы эмоциональных оценок Si сформированныхобразов Ωi. Оценки заданы априорно, либо найдены в процессе жизниобъекта управления

Итак, вернемся к рис. 4. Первоначально отсутствующая кривая «законауправления» на нем появляется в результате следующих операций. Каж-дый раз, когда ОУ попадает в текущее состояние Ωi, система управленияпробует совершать различные действия M , как это было описано выше,получая в результате распознавание образов результатов. Если эти образыΩr результирующих состояний статистически повторяются, то они запи-сываются в долговременную память — в Базу Знаний. На этом множествеобразов Ωr результирующих состояний строится еще одно измерение Si —значения эмпирически найденных эмоциональных оценок этих состояний

УДК 001(06)+004.032.26 (06) Нейронные сети 177

Page 178: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

с помощью таблицы (рис. 5).Подчеркнем два важных момента. Формирование образа результата со-

вершения того или иного действия — достаточно сложная задача, требую-щая наличия у системы управления определенных ресурсов. Здесь такжетребуется применение самообучаемой системы распознавания. В общемслучае, множество образов результатов действий не обязательно совпадаетс множеством образов исходных состояний. Образы исходных состояниймогут быть очень конкретными, а образы результирующих состояний мо-гут быть более общими, размытыми. Например, образ целой чашки в рукеперед тем, как ее роняют на пол — это одно, а образ разбившихся чашек— это более общий образ, это то общее, что есть у всех разбившихся обпол чашек. У каждого ли животного имеется такая по мощности систе-ма распознавания, которая может формировать точный образ результата?Поэтому сравнивать реально случившийся результат с тем результатом, ко-торый планировался — это по силам далеко не всякому организму, потомучто далеко не всякий организм в состоянии в подробностях представить се-бе результат своего выбранного действия. Нам представляется, что простыеорганизмы могут формировать образы результатов только в очень простойформе. Самая простая форма образа результата — это просто его эмоци-ональная оценка. Т. е., организм запоминает, что если он сделает это, тобудет «хорошо» или «плохо», но не может себе представить образ резуль-тата более содержательно. И такого представления образа результата можетбыть вполне достаточно для эффективного принятия решений хотя бы наодин шаг вперед. Нервная система как бы говорит себе: «Я сделаю такпотому, что знаю, что в результате будет хорошо». Примерно так работаютизвестные системы с подкрепляющим обучением, Reinforcement LearningSystems. Более продвинутая нервная система в этом случае может сказать:«Я сделаю так потому, что в результате перейду в такое-то конкретное со-стояние, а оно “хорошее”». Во втором случае система управления можетпланировать свои решения на несколько шагов вперед, например, сначаласознательно перейдя в состояние с плохой оценкой, чтобы потом иметьвозможность перейти в состояние с уже более хорошей оценкой, т. е. про-ходить через локальные минимумы.

Отсюда очевиден алгоритм принятия решений системой управления.Он состоит в следующем. Система распознавания распознает образ (илимножество образов) текущего состояния Ωi. По этому номеру образа (илиномерам образов) БЗ отделяет ту свою часть, которая адекватна текущейситуации, на рис. 4 это столбец образов результатов. По таблице (рис. 5)

178 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 179: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

находятся эмоциональные оценки образов результатов. Далее решаетсяоптимизационная задача — нужно найти действие, соответствующее об-разу (или образам) результатов с максимальной оценкой (оценками). Нарис. 4 это действие M(t+1). Задача поиска максимума зависит от полнотыимеющихся данных. Если система управления успела ранее исследоватьвсе возможные действия, что уже отражено в БЗ, то в текущий моментостается только выбрать действие, соответствующее максимуму (т. е. «извсех возможных в текущий момент действий, я выбираю то, которое дастмне результат с наибольшей из возможных в этой ситуации эмоциональ-ных оценок». Отсюда совсем не следует, что новое состояние будет лучшепредыдущего). Это удовлетворяет целевой функции «выживания».

Если же в отделенных БЗ данных имеются пропуски (см. рис. 4), т. е.система управления еще не знает о результатах всех возможных действий,а известные действия обещают только плохие результаты, то она можетпринять решение о совершении пробных действий в попытке заполнитьпробелы в БЗ и найти действие, которое в подобных условиях даст хоро-ший результат. Это удовлетворяет целевой функции «накопления знаний».Принятие решения здесь предполагает применение некоторой стратегиипоиска — случайного перебора, градиентного спуска, действия по анало-гии, по прецедентам и т.п. Для организации направленного поиска здесьвозможно применение различных способов прогнозирования знаний, ихформального вывода [5–9]. Более того, без применения некоторой стра-тегии направленного поиска с использованием всей доступной априорнойинформации (переданной генетически в виде неких шаблонов от предков, ав технических системах — идущих от научных знаний) мы сразу же сталки-ваемся с «проклятием размерности» в попытках организовать поиск мето-дом простого перебора в достаточно сложных признаковых пространствах.Результаты таких пробных действий, более или менее обоснованных и сослучайной компонентой, приносят новые знания, которые могут попасть вБЗ, где хранится уже статистически обоснованная информация.

Из найденных экстремальных по эмоциональным оценкам результатовдействий для каждого из известных образов исходных состояний и скла-дывается, в конечном счете, тот закон управления, который показан каккривая на рис. 4 и 2. Но в отличие от традиционного неадаптивного вариан-та (рис. 2), закон управления, найденный адаптивной системой управления(рис. 4), отражает не аналитически выведенный приблизительный законуправления, а реальный, соответствующий текущим свойствам предъяв-ленного объекта управления. При этом закон управления, представленный

УДК 001(06)+004.032.26 (06) Нейронные сети 179

Page 180: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

в БЗ адаптивной системы управления, будет изменяться со временем, ес-ли свойства объекта, окружающей среды, или других компонент системыизменяются.

Page 181: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

той своей части, которая является автономной, если даже другая ее частьработает по указанию из неизвестных нам источников. Поэтому мы сме-ло можем утверждать, что рассмотренная схема адаптивного управления вполной мере относится и к живым организмам (рис. 6).

В более подробном виде, с указанием необходимых разделов памяти, атакже некоторых, не описанных выше, но важных блоков, именно — под-системы управления Базой Знаний (выполняющей, в частности, и задачуформального вывода новых знаний), а также подсистемы определения вре-менного темпа принятия решений, схема системы автономного адаптивногоуправления представлена на рис. 7.

Рис. 7 представляет схему автономной адаптивной системы управленияи, одновременно, ее прообраза — нервной системы, так, как они должнывыглядеть в общем случае с кибернетической точки зрения. В данной схемевыделяются функциональные блоки и блоки памяти. Все функциональныеблоки в этой системе должны быть адаптивными, самообучаемыми. Всеблоки работают в двух параллельных режимах.

Первый режим есть обучение на основе ретроспективных данных, от-ражающих историю процесса управления, записанных в доступных имразделах памяти. Каждый раздел памяти обладает своей глубиной — ха-рактерным временем обновления. Поэтому обучение может происходить в«фоновой» манере, в своем темпе и независимо от процесса управления,однако оно должно успевать за обновлением данных в памяти. Результатыобучения также записываются в соответствующие разделы памяти, что исоставляет собственно процесс адаптации. А именно, в процессе разви-тия индивида самообучаются: подсистема формирования и распознаванияобразов (результат записывается в память образов), подсистема эмоций,База Знаний, подсистема определения времени принятия решений. В про-цессе развития вида на другой временной шкале адаптируются: датчики иисполнители, а также «шаблоны» — правила для самообучаемых систем,передаваемые всем индивидам.

Второй из параллельно идущих режимов, есть режим управления. Оноснован на взаимосогласованной работе всех указанных подсистем, и поль-зуется теми данными, которые к текущему моменту уже записаны в соот-ветствующих разделах памяти. Например, результат распознавания образовзависит от того, какие образы были сформированы ранее, а результат при-нятия решений зависит и от распознанных образов, и от текущего содержи-мого Базы Знаний, и от сложившихся к текущему моменту эмоциональныхоценок образов. Любое изменение содержимого любого из этих разделов

УДК 001(06)+004.032.26 (06) Нейронные сети 181

Page 182: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

-

-

-

-

РИС. 7. Схема системы «Автономного адаптивного управления», какконцептуальной модели нервной системы. Функциональные блоки иблоки памяти

182 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 183: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

памяти может привести к существенно иному результату принятия реше-ний.

Еще раз в общих чертах опишем алгоритм работы адаптивной системыуправления (аналога нервной системы).

1. Подсистема формирования и распознавания образов распознает в те-кущей входной информации те образы, которые она может распознать втекущий момент на основе показаний датчиков, содержимого памяти об-разов и имеющихся алгоритмов распознавания. Множество распознанныхв текущий момент образов появляется на выходе распознающей системы.Одновременно в фоновом режиме эта же подсистема формирует новыеобразы на основе показаний датчиков и содержимого памяти образов —находит те комбинации входных сигналов и распознаваемых образов, ко-торые появляются уже много раз либо сопровождаются сильной эмоцией.Результат — новые сформированные образы, записывается в память обра-зов.

2. Подсистема (аппарат) эмоций, располагая ассоциированными с рас-познанными образами их эмоциональными оценками, суммирует эти оцен-ки, получая интегральную эмоциональную оценку текущего состояния. Этаинтегральная эмоциональная оценка текущего состояния поступает в под-систему определения времени принятия решений. Вычисляется время, от-веденное на принятие решения, которое тем меньше, чем текущая ситу-ация хуже или чем быстрее она ухудшается. Одновременно подсистемаэмоций находит или уточняет эмоциональные оценки для новых, недав-но сформированных образов, путем поиска корреляции между фактами ихнаблюдения и вариациями интегральной эмоциональной оценки текущегосостояния. Помимо этого, аппарат эмоций задает универсальную «мотива-цию» управляющей системе — она всегда заставляет систему управлениястремиться к увеличению интегральной эмоциональной оценки текущегосостояния. Эта универсальная «мотивация» «зашита» в устройстве подси-стемы принятия решений. «Доминирующая мотивация» — это распознан-ные в текущий момент образы с наибольшими отрицательными оценкамиили возможность, согласно БЗ, в текущий момент вызвать распознаваниеобразов с большими оценками.

3. База Знаний в режиме принятия решений получает на вход множе-ство распознанных в текущий момент образов и отделяет ту свою часть,которая адекватна текущей ситуации — это та часть, в которой есть записи,указывающие, какие действия, согласно предыдущему опыту или априор-

УДК 001(06)+004.032.26 (06) Нейронные сети 183

Page 184: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ной информации, можно совершать в текущей ситуации. (Например, еслираспознаны образы, говорящие о том, что вы вошли в магазин, то БЗ ак-тивизирует те записи, в которых перечислены все возможные действия,которые вы умеете совершать, входя в магазин. Если распознанные образыговорят о том, что вы оказались под водой, то в БЗ отделяется та ее часть,где записаны все доступные вам действия, которые вы умеете совершатьпод водой). Эта отделенная часть БЗ открывается для доступа со сторонысистемы принятия решений. Параллельно с этим в фоновом режиме обу-чения подсистема формирования БЗ пытается формировать новые знания.Для этого она просматривает доступные ей «архивы» — память распо-знанных образов и память совершенных действий, пытаясь обнаружить вней закономерные тройки вида (2). Если таковые находятся, то они вно-сятся в БЗ, расширяя знания. Кроме этого, подсистема формирования БЗпытается формальными способами (например, методом аналогий) вывестиновые знания на основе анализа содержимого БЗ. Если таковые новые зна-ния обнаруживаются, то они записываются в БЗ, но с пометкой «Прогноз.Проверить!». Такие прогнозируемые знания могут служить направляющейнитью при целенаправленном поиске новых полезных, с точки зрения це-левых функций, знаний.

4. Подсистема принятия решений работает следующим способом. Отподсистемы определения времени принятия решений, она получает указа-ние на отведенное ей время для совершения своей работы в данный актуправления. Как было сказано выше, отведенное время ?T тем короче, чемтекущая ситуация хуже (по текущей интегральной эмоциональной оценке)или чем быстрее она ухудшается (1-я производная). Если ситуация настоль-ко плоха, или так быстро ухудшается, что на принятие решения отводитсяноль времени, ∆T = 0, то система управления отключается — «падает вобморок». Если ∆T > 0, то эта величина переводится в некое число k,характеризующее глубину просмотра БЗ, которую можно себе позволитьв текущей ситуации. Обычно это небольшая величина. Смысл принятиярешения состоит в следующем. Согласно открывшемуся ей фрагменту БЗ,система управления знает, какими действиями в данной ситуации она мо-жет пользоваться, и что произойдет в результате совершения каждого изальтернативных действий. А именно, какие образы можно вызвать, а какиеобразы можно вытеснить (прекратить их распознавание). Естественно, чтовместе с образами появляются или исчезают и их эмоциональные оценки.Подсистеме принятия решений остается только оценить суммарный выиг-

184 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 185: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

рыш по каждому из альтернативных действий и выбрать действие, котороеобещает дать максимальный выигрыш по суммарной эмоциональной оцен-ке. При этом в БЗ просматривается только влияние на k образов результатовс максимальными по модулю их эмоциональными оценками. Именно по-этому мы постоянно выбираем между выигрышами и проигрышами, напри-мер, запросто выбираем между такими разнородными образами, как ущербсвоему здоровью и получение приятных нам впечатлений. Подчеркиваем,что при принятии решений играет роль только эмоциональная оценка об-разов и ассоциативно распознаваемых одновременно с ними ансамблей, аотнюдь не их содержание. Поэтому, например, трудно бороться с пороками— если вызываемые ими положительные эмоции нечем перекрыть, то этисостояния будут вызываться вновь и вновь. В большинстве случаев системеуправления приходится бороться с распознанными образами, имеющимиотрицательные оценки. Мы часто распознаем образы с отрицательнымиоценками — пустота в желудке, холод либо жара в помещении, сигналы отвсяческих желез и внутренних органов, неприятности в окружающей средеи тому подобные образы заставляют нас выбирать действия, обещающиепрекратить эти мучения. Редко ничто нас не беспокоит, и тогда мы можемподумать о том, как бы нам вызвать распознавание приятного образа. Ли-бо появляется шанс поймать сравнительно большой выигрыш, пренебрегаянеудобствами, и тогда мы решаемся на такой шаг. Если в результате выборанаходится несколько действий, абсолютно равноценных по эмоциональнойоценке результата, то выбор производится случайным способом.

5. Номер выбранного действия сообщается исполнительным устрой-ствам, которые его реализуют.

6. Каждый цикл принятия решений сопровождается сохранением неко-торой информации в соответствующих разделах памяти. Эти разделы па-мяти могут быть кратковременными (некоторое время помним, что виделиили что сделали), а некоторые - долговременными, например, память об-разов или БЗ, куда записываются извлеченные из опыта знания.

7. Подчеркнем, что система управления работает крайне формально —все сигналы с датчиков и с нейронов, распознающих образы — одинако-вые нервные импульсы, для нее равноценны. Отличие проявляется тольков эмоциональных оценках разных образов. И принятие решений строитсятолько на основании сравнения этих эмоциональных оценок. Другое дело,что с ростом интеллекта возрастает сложность образов, их специализацияили абстрактность, а также степень ассоциативности. Память образов, База

УДК 001(06)+004.032.26 (06) Нейронные сети 185

Page 186: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Знаний и аппарат эмоций представляют нашу внутреннюю модель мира.Но формально выбор дикаря, оперирующего образами сытости и голо-да, и выбор интеллигентного человека, оперирующего образами чести ичувства долга перед Отечеством, осуществляется с помощью одинаковогомеханизма. Несмотря на разницу в семантике образов, все образы и ихэмоциональные оценки для нервной системы представлены не более чемодинаковыми нервными импульсами.

8. Остается еще упомянуть, что для системы управления формальноневажно, через что проходит обратная связь от исполняющих устройствк датчикам - через окружающую среду ли, или более коротким путем —от гортани к внутреннему уху. Это, наряду с ассоциативными свойствамисистемы, порождает возможность возникновения языка для вербальныхпроцессов, способных заменять реальные объекты их языковыми иден-тификаторами. В свою очередь это приводит к средствам для «разговорасамого с собой», что есть основа для предварительного моделирования сво-его поведения и для различных интеллектуальных проявлений [5, 10–12].

В теоретико-множественном представлении процесс адаптивного управ-ления можно записать в виде следующих основных отношений (4) междуобъектами системы:

T X

Ra

i(t)

Si(t)

< i(t), Mk(t+1), r(t+2)>

Rnd

1 2

33

44, 9

6

S7

5

10

Ka11

Mk(t+1) L12

13

T (t)S(t)

9

8

9 (4)

где объекты системы:

T — набор датчиков,

X — вектор входной информации,

Ra — набор априорных правил формирования образов,

Ω — алфавит классов (память образов),

Ωi(t) — множество распознанных в текущий момент образов,

Si(t) — множество эмоциональных оценок распознанных образов,

186 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 187: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

S — память эмоциональных оценок образов,

S(t) — интегральная эмоциональная оценка текущего состояния,

〈Ωi(t),Mk(t+ 1),Ωr(t+ 2)〉 — База Знаний,

∆T (t) — интервал времени на принятие решения,

Mk(t+ 1) — принятое решение — управляющее воздействие,

Ka — набор априорных правил формирования знаний,

Rnd — генератор случайных воздействий, необходимый для обеспеченияпоиска,

L — исполнительные устройства, операции:

1 — измерения и перевод физических воздействий в цифровой вид,2 — распознавание образов,3 — формирование новых образов — алфавита классов,4 — формирование Базы Знаний,5 — извлечение из памяти эмоциональных оценок распознанных

образов,6 — вычисление интегральной эмоциональной оценки текущего

состояния объекта управления,7 — обмен информацией с памятью эмоциональных оценок образов,8 — вычисление времени, отведенного на принятие решения,9 — принятие решения,

10 — использование генератора случайных воздействий принеобходимости выбора из равнозначных вариантов,

11 — формальный вывод новых знаний по БЗ и на основе наборааприорных правил формирования знаний,

12 — передача принятого решения исполнительным устройствам,13 — обратная связь от исполнительных устройств к датчикам через тело

объекта управления и окружающую среду.

УДК 001(06)+004.032.26 (06) Нейронные сети 187

Page 188: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Несколько критических замечаний в отношенииобщепринятого понимания процесса управления

Почему мы уделяем этим вопросам понимания процесса управления такоебольшое внимание? По двум причинам. Во-первых, понимание принциповадаптивного управления, реализуемого в природных управляющих систе-мах — нервных системах, дает нам возможность самим строить системыуправления с адаптивными свойствами, а необходимость в таких системахуже назрела, о чем было сказано в первой части статьи. Во-вторых, анали-зируя соответствующую литературу, можно сделать вывод о том, что сего-дня не существует общепринятого понимания того принципа управления,который реализован в биологических системах. Проблемами пониманияпринципа действия мозга сегодня озабочены: нейрофизиологи, киберне-тики, инженеры и философы. Оказалось, что в силу сложности объектаисследования на пути каждого из этих специалистов стоят специфическиепроблемы.

Нейрофизиологи стараются найти ответы с помощью изощренных ин-струментов и методик наблюдения нервной активности, освоение и исполь-зование которых требует больших усилий. Однако объект изучения — мозг,морфологически очень сложен. Понять принцип работы мозга с помощьюисследования его материальных реализаций практически невозможно, какневозможно понять принцип работы неизвестного микропроцессора толь-ко с помощью микроскопа, но без понимания принципов построения вы-числительной машины. Нейрофизиологи под тяжестью открывшегося имвида сложнейшей машины нередко «сваливаются» в изучение деталей, несущественных для понимания принципа управления. C другой стороны,нейрофизиологи не обязаны знать ни принципов построения систем рас-познавания образов, ни принципов принятия решений, и тому подобныхдисциплин, которые выходят за рамки биологии. Однако мозг, работающийс информацией, вынужден работать как кибернетическая машина, он неможет пренебрегать принципами работы с информацией. И без пониманияэтих принципов понять принцип работы мозга - кибернетической машины -нельзя. Поэтому можно наблюдать парадоксальные ситуации. Например, впоследние несколько лет нейрофизиологами дискутируется вопрос о том,имеется ли в нервной системе подсистема принятия решений (decision-making)? Хотя кажется очевидным, что если животное выбирает, куда по-вернуть — направо или налево, то это означает, что у него есть некий центрпринятия решений. Определяется ли принятие решений уровнем некото-

188 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 189: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

рого гормона в межклеточной среде? Решение определяется результатамиобучения, а тот или иной гормон — это лишь одна из деталей механиз-ма хранения, передачи и использования информации в процессе принятиярешений. Другая «ловушка» для нейрофизиологов — это отвлечение наисследование экстремальных или побочных эффектов, демонстрируемыхнервной системой в необычных для нее условиях.

Кибернетики и математики, в свою очередь, тоже пока не в состоянииразобраться с работой мозга, потому что они полагают, что без доско-нального знания предмета изучения — мозга, понять его работу нельзя, аначинать погружаться в океан биологической информации сложившемусяспециалисту из другой области решиться трудно. Поэтому у кибернетикови математиков бытует такое представление: мы не знаем, как работает мозг,и заниматься его изучением не будем, дайте нам постановку задачи, и мыпридумаем программу, которая будет делать то же самое. И они с успехомсоздают такого рода программы — шахматные компьютеры, автоматическиепереводчики с языка на язык, шагающих и танцующих роботов и т. п. Од-нако эти программы практически ничего общего не имеют с устройствоммозга и ничего не объясняют в его устройстве.

Все это вместе приводит к довольно странным представлениям о работемозга, которые можно увидеть в современной научной литературе. Одно избытующих представлений состоит в том, что поведение мозга определяетсязаписанной где-то в его памяти таблицей вида «состояние»→ «адекватнаяреакция».

В рассмотренной выше общей модели адаптивного управления (4), этосоответствует таблице

〈Ωi(t)→Mk(t+ 1)〉, (3)

т. е. мозг живет по правилу: «Если распознан образ Ωi(t), то совершайдействие Mk(t+ 1)».

Однако такой способ управления приписать живому организму совер-шенно невозможно. Прежде всего, в таком «табличном» понимании спосо-ба управления не описывается механизм обучения, и отсутствует свободавыбора, присущая живым организмам. В схеме на рис. 7 и в формализации(4) это соответствует только некоторой части подсистемы распознавания,сильно обедненной Базе Знаний и примитивной процедуре принятия реше-ний. C точки зрения рассмотренной выше схемы автономного адаптивногоуправления остается неясным:

УДК 001(06)+004.032.26 (06) Нейронные сети 189

Page 190: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Page 191: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

если давление превышает заданный уровень — клапан открывается и дав-ление падает до уровня, при котором клапан закрывается. Можно оставитьтолько датчики и систему распознавания, и принимать решения, однознач-но соответствующие распознанным образам. Так работает львиная долятехнических систем управления. Другой вариант — можно выкинуть изцикла управления все, оставив только базу знаний, с закачанными в неезнаниями от человека-эксперта — так работают экспертные системы, и этосчитается одной из вершин в теории искусственного интеллекта. И т. д.Нам представляется, что настало время переходить к построению действи-тельно интеллектуальных систем управления в их полном виде.

В нейрофизиологической литературе ответ на вопрос о принципе дей-ствия нервной системы обычно завуалирован общими фразами, смысл ко-торых сводится к очевидным утверждениям, что в нервной сети есть марш-руты от входа к выходу — рефлекторные дуги, и что работа нервной си-стемы зависит от топологии этой сети и других причин, влияющих на еефункционирование. Вопросы обучения, составления базы знаний, логикипринятия решений и другие вопросы о принципах адаптивного управления,как правило, не рассматриваются совсем. И это положение дел понятно.Ответственные биологи должны основывать свои выводы на достоверныхнаблюдениях. Мозг же, являясь сильно распределенной системой, с мощ-ными средствами, обеспечивающими его помехозащищенность и отказо-устойчивость, насквозь адаптивный — постоянно приспосабливающийся ипостоянно изменяющий свои проявления и реакции на раздражения, будучиактивной, а не реактивной системой, является крайне трудным, постоянноменяющимся объектом изучения для выделения в нем устойчивых реакцийи свойств. Поэтому, не понимая логики работы мозга, в нем очень трудновыделить что-то детерминированное, это ставит исследователей в весьмазатруднительное положение.

Наиболее продвинутой моделью нервной системы долгие годы была мо-дель, предложенная в 30-х годах прошлого века академиком П. К. Анохиными названная «Функциональной системой» (рис. 8). В те годы эта модель,действительно, явилась выдающимся шагом вперед. В ней впервые обра-щалось внимание на необходимость различения в биологических системах,как управляемых объектах, контуров обратной связи, необходимой для це-ленаправленного управления, акцентировалась необходимость системногоподхода в их понимании.

Теория функциональных систем (ФС) долгие годы являлась путеводнойнитью в исследованиях принципов функционирования живых объектов,

УДК 001(06)+004.032.26 (06) Нейронные сети 191

Page 192: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

она объединяла идеологию исследований многих и многих специалистов,и в этом ее большое достоинство. Развившиеся за прошедшие годы пред-ставления, в том числе — полученные, исходя из иных отправных точек,дают нам сегодня возможность яснее увидеть как правильные стороныв предложенном описании ФС, которые нашли экспериментальное под-тверждение, так и те стороны, которые сегодня могут быть уточнены илиизменены. Рассмотрим некоторые такие детали ФС.

РИС. 8. Схема функциональной системы по П.К.Анохину

ФС рассматривалась как определенный «шаблон», который можно при-менять к решению разных задач управления, и который возникает в нерв-ной системе в том месте, в котором организуется управление. Однако намизвестно о трудностях, которые возникали при попытках построить систе-му управления по схеме ФС. Нам представляется, что причиной этому яв-ляются некоторые неопределенности, скрывающиеся за указанными в ФСпонятиями, а иногда чрезмерно сложные для реализации задачи. Укажемнекоторые из них. Так, понятие «афферентного синтеза» вполне раскрыва-ется понятиями из теории систем распознавания образов, описывающимиспособ построения самообучаемых систем распознавания. Это понятия:множество измерителей, признаковое пространство, рабочий словарь при-знаков, правила формирования образов, алфавит классов, описание классовна языке признаков, решающие правила, а также программа управления

192 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 193: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

процессом распознавания. Эти известные решения полностью описыва-

Page 194: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Представляется не вполне обоснованным введение в ФС такой подси-стемы, как «Акцептор результата действия». По замыслу, видимо, это под-система, которая воспринимает воздействие со стороны среды, являющеесяоткликом среды на Действие объекта управления. Прежде всего, неясно,как отличать воздействия среды, являющиеся результатом Действия, от воз-действий среды, не являющихся таким результатом. Поиском таких резуль-татов человечество занимается усиленно уже много лет. Пример: являетсяли глобальное потепление результатом нашего воздействия на Природу,или не является. Или более простой пример: является ли боль в печениследствием того, что я съел именно этот салат? Не всякому специально-му исследованию удается найти такую связь, а примитивному животномуотделить сходу результат Действия от просто «Обстановочной афферен-тации» не представляется возможным. Мы приходим к выводу, что нетсмысла выделять такую подсистему, как «Акцептор результата действия».Потому что результат Действий воспринимается теми же самыми датчи-ками и той же самой системой распознавания, которые воспринимают всевоздействия со стороны внешней и внутренней среды.

Кроме того, надо также представить себе сложность сравнения прогно-зируемого результата действия с реальным результатом. Если улитка при-нимает решение переползти на соседнее место, то вряд ли она может себевообразить, как будет выглядеть это соседнее место, с тем, чтобы иметьвозможность сравнить результат и свой прогноз. Боюсь, что в голове улит-ки просто нечем вообразить себе этот планируемый результат. Для яркогои подробного воображения себе ожидаемого результата действия, допуска-ющего последующее его сравнение с реальностью, надо иметь довольноразвитые мозги, Базу Знаний, и, возможно, даже язык, с помощью кото-рого из этой Базы Знаний можно было бы по своему желанию извлекатьподробности ожидаемого результата. Нам представляется, что, во-первых,результат ожидается в большинстве случаев либо в виде самых простыхобразов — сытости, тепла, полового удовольствия и т. п., а у более простыхорганизмов и просто в виде эмоциональных оценок результата: например,улитка помнит, что если переползти на соседнее место в случае, когда всепод собой уже съела, то будет хорошо. Вообразить себе это новое местоона, возможно, не в состоянии. Во-вторых, а надо ли сравнивать результатс прогнозом? Во всех наших реализациях систем автономного адаптивногоуправления, которые реально демонстрировали способность к адаптивно-му управлению, осуществлять такое сравнение в общем случае было ненужно. Закономерные результаты совершения действий в определенных

194 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 195: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

исходных условиях, накапливались в Базе Знаний, и если они там были,то использовались при принятии решений. Система управления автомати-чески полагается на надежность той информации, которую она записаларанее в БЗ. Если же в результате выбора и совершения действия, результатрасходился с тем, что было записано в БЗ, то ничего страшного для системыуправления не происходило. В новой ситуации она снова обращалась к БЗи двигалась дальше. Впадать в разочарование или предпринимать работунад ошибками при выявлении такого расхождения в общем случае ни к че-му, для этого нет ни времени, ни необходимости — надо двигаться дальшев новых условиях. Если же БЗ содержала ошибочную информацию, либоесли свойства среды или ОУ изменились, то БЗ постепенно переучится всвойственной ей манере. Нам представляется, что такого рода операцию— сравнение планируемого результата с реальным, осуществляют только вредких специальных случаях высокоорганизованные животные. Например,тогда, когда они выводят новые знания некоторым формальным способомиз старых, и потом хотят проверить справедливость своего прогноза. Такпоступают, например, ученые, кропотливо проверяющие свои гипотезы.У небольшого организма может не оказаться ни средств для воображенияожидаемого результата, ни памяти для того, чтобы этот воображаемый ре-зультат сохранить до нужного момента, ни средств, с помощью которыхможно было бы как-то сравнить наступившую реальность с тем, что от-ложено в память, ни возможностей, чтобы как-то использовать результатытакого сравнения. Это в общем случае ненужная операция.

Следует обратить внимание на то, что в схеме ФС отсутствует такаяважнейшая подсистема как База Знаний — память, в которой накапливает-ся добытая системой управления статистически достоверная информация опричинно-следственных связях в системе «объект-среда». Такая эмпириче-ски найденная информация принципиально необходима для обоснованногопринятия решений. Она является своего рода «моделью мира», которуюсистема управления строит и использует для выбора альтернативных ва-риантов своего поведения. При отсутствии такой информации совершеннонеясно, на что может опираться система управления при принятии реше-ний, и где сохраняются результаты ее адаптации. «Программы действий»живого организма не могут быть жестко заданными. Прежде всего, этодолжны быть программы выбора из альтернативных вариантов на осно-ве накопленных в памяти знаний. Нам представляется, что появление вФС таких объектов и операций, как Акцептор результата действия, обрат-ная афферентация, сравнение результата действия с прогнозом, вызваны

УДК 001(06)+004.032.26 (06) Нейронные сети 195

Page 196: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

попыткой заменить ими центральное отсутствующее звено — память эмпи-рически найденных в окружающем мире причинно-следственных связей —Базу Знаний. Без памяти для хранения знаний нельзя построить адаптивноеуправление. Если под памятью понимать хранилище Программ действийв виде четких однозначных предписаний, то это тоже не верно. Памятьв рассматриваемых системах должна содержать не столько однозначныепрограммы, сколько наборы возможностей, из которых управляющая си-стема имеет право выбирать более или менее обоснованно, но с элементомслучайности, без которой невозможно развитие.

Представленные нами теоретические принципы и схема автономногоадаптивного управления (ААУ) были выведены нами из понимания общихпринципов управления, которые применимы и к техническим и к био-логическим объектам, работающим в одинаковых исходных условиях, по-скольку являются логически вынужденными. Сопоставление системы ААУс ФС П. К. Анохина, ориентированной на биологические системы, можетоказаться весьма полезным, так как может обогатить обе теории.

Искусственные нейронные сети

Коротко проанализируем существующее состояние дел с таким важными полезным разделом науки, имеющим отношение к проблеме построенияадаптивных систем управления, как искусственные нейронные сети (ИНС).ИНС часто рассматриваются как модели нервной системы, способные вос-производить принципы ее функционирования. Мы разделяем мнение техспециалистов, которые считают, что такие параллели очень мало оправда-ны и здесь покажем, почему.

Основные свойства ИНС стоят в следующем. ИНС по своему устрой-ству представляет собой обучаемую с учителем, либо (что реже) самообу-чаемую геометрическую (детерминированную) систему распознавания об-разов, либо обучаемый (самообучаемый) аппроксиматор функций (рис. 9).

Когда ИНС обучена и используется в рабочем режиме (рис. 9), то вобщей схеме автономной адаптивной системы управления (4) она можетбыть использована либо для реализации отображения показаний датчиковв вектор входной информации 1 : T → X, либо в качестве системы рас-познавания образов, осуществляющей преобразование от показаний датчи-ков к распознанным образам 2 : X → Ωi(t). При желании, ИНС можноиспользовать для реализации некоторых других отдельных отображений в

196 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 197: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

1

2 .

n

X

x1

x2

.

.

.

xn

.

.

.

.

.

.

.

.

РИС. 9. В рабочем режиме ИНС выполняет функции системы распо-знавания образов, либо аппроксимирует заданную функцию

схеме (4), например, отображения 6 : Si(t) → S(t) или 8 : S(t)→ ∆T (t).Но реализовать работу всей автономной адаптивной системы управления,т. е., осуществлять отображение от входных сигналов к выходным реакци-ям системы управления X(t)→ L(t+ 1) ИНС никак не в состоянии. Делодаже не в структуре ИНС, препятствия начинаются уже с самого способаобучения ИНС (рис. 10).

Обучение ИНС требует наличия «учителя», имеющего возможности:а) знать желаемый выход ИНС для каждого из входных векторов, б) на-блюдать множество всех выходных сигналов ИНС, в) сравнивать реальныйвыход с желаемым, вычисляя невязку, г) иметь доступ к весам (синап-сам) всех нейронов ИНС и возможность корректировать их, д) управлятьподачей объектов из обучающей выборки, обеспечивая полноту обучения.Каждое из этих требований совершенно фантастическое с точки зренияреальной нервной системы. Выполнить эти требования можно только внебольших по размеру ИНС.

Помимо сказанного, ИНС обладает свойством «катастрофического за-бывания», состоящего в том, что однажды обученная ИНС, не может бытьдообучена впоследствии без тотального переучивания по всей обучающейвыборке.

Нами неоднократно предпринимались попытки реализовать рассмот-ренную схему системы автономного адаптивного управления непосред-ственно на базе ИНС, и это привело лишь к частичному решению с помо-щью ИНС адаптивного резонанса. Все же весьма оригинальное решениебыло найдено, о нем будет сказано ниже. Еще одно нарекание вызыва-ет модель нейрона, используемая в ИНС, так называемый «формальныйнейрон».

УДК 001(06)+004.032.26 (06) Нейронные сети 197

Page 198: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

X Out

Out1

Out2 .

Outn

x1

x2

.

.

.

xn

.

.

.

.

.

.

.

.

.

?

=

1

2 .

n

.

.

.

РИС. 10. Предварительное обучение ИНС с помощью «учителя»,управляющего подачей объектов из обучающей выборки, наблюдаю-щего рассогласование реального и желаемого выхода ИСН, и имею-щего доступ к весам (синапсам) всех нейронов

РИС. 11. «Формальный нейрон», используемый в ИНС

Предназначенный для разбиения многомерного признакового простран-ства на подобласти при помощи гиперплоскостей в случае пороговой акти-вационной функции, либо для аппроксимации функций, формальный ней-рон сам по себе не обладает никакими средствами ни для выделения законо-мерностей в наблюдаемых явлениях, ни для самообучения. Выше мы при-шли к выводу, что основным способом получения эмпирических знаний,которые можно использовать при управлении, является поиск многократ-но повторяющихся комбинаций событий. У «формального нейрона» кэтому нет никаких автономных средств.

Из сказанного в этом разделе следует, что ИНС к моделированию нерв-ной системы имеет очень отдаленное отношение. Да, ИНС родились болеечем полвека назад из первых попыток моделирования нейронов, но пред-

198 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 199: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

ставляют собой очень упрощенную модель нейрона и очень упрощеннуюмодель фрагмента нервной ткани. ИНС можно использовать в технике дляпостроения весьма полезных систем распознавания, обучающихся с учите-лем. Но добиваться от ИНС работы в роли системы автономного адаптив-ного управления не следует категорически. Собственные проблемы ИНС исоответствующие задачи известны — это борьба за скорость обучения ИНСпо обучающим выборкам, различные алгоритмы обучения, увеличение ем-кости памяти ИНС. Однако модели нервных систем целесообразно строитьна иных моделях нейронов и сетей.

Синтез систем автономного адаптивного управления

Принципиальную возможность построения систем автономного адаптив-ного управления (ААУ) мы рассмотрели выше, перечислив все основныезадачи и указав возможные способы их решения. Список подзадач и ихвзаимосвязь указаны в общей схеме системы «Автономного адаптивногоуправления», представленной на рис. 7, все основные отношения указаныв схеме морфизмов (4). Вся система управления в основных своих чер-тах имеет дискретный характер, соответствующий дискретному характерулогики вообще и дискретному характеру нервной системы, — логическоймашины, отражающей логику внешнего мира, работающей с дискретнойинформацией и логическим способом принимающей решения. Потому ос-новной принцип работы и нервной системы и ее моделей может описы-ваться теоретико-множественным языком, имеющим дело с отображени-ями между дискретными множествами входных и выходных сигналов икачественных оценок, а также языком логики. Основной принцип обуче-ния состоит в отыскании тех конкретных отображений, которые в даннойприкладной системе происходят статистически неслучайно. Способами по-иска статистически неслучайных комбинаций дискретных событий могутбыть, например, подходящие методы взаимного корреляционного анали-за. Поскольку и самообучаемые системы распознавания и корреляционныйанализ требуют априорного указания правил формирования образов, и раз-личных ограничений, которые должны преодолеть проблему «проклятияразмерности», то такие правила и ограничения находятся на «видовом»уровне, в процессе эволюционного развития вида. Последние достаточноприемлемо воспроизводятся генетическими алгоритмами.

Возможные способы построения систем автономного адаптивного управ-

УДК 001(06)+004.032.26 (06) Нейронные сети 199

Page 200: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ления мы подробно описали в монографии [5]. Построить систему ААУможно, применяя подходящих методы построения самообучаемых системраспознавания, способы представления знаний, методы принятия реше-ний. Нами построен ряд программных и физических моделей адаптивныхмашин, на основе рассмотренного метода ААУ, которые описаны в публи-кациях группы и представлены в Интернете [13].

-

-

-

-

.

.

.

.

.

.

РИС. 12. Общая схема нейрона для систем ААУ

Одним из наиболее интересных для специалистов, занимающихся про-блемами ИНС, способов реализации систем ААУ, является способ построе-ния систем ААУ на основе сетей из разработанных нами моделей нейронов,которые мы для их отличия от формальных нейронов и от ИНС, называемнейроноподобными элементами или нейронами ААУ. В нейроне ААУ реа-лизуется описанный выше принцип поиска и запоминания многократноповторяемых пространственно-временных комбинаций событий. По-скольку здесь фигурируют две характеристики — структурная (определен-ные комбинации) и статистическая (определенная повторяемость), то ней-рон должен иметь средства к анализу этих двух критериев — структурногои статистического. Подчеркнем, что оба этих критерия, применительно кнаблюдаемым им событиям-сигналам, проверяются нейроном автономно,без привлечения внешнего «учителя», непосредственно управляющего вовремя его обучения и работы. Проверка структурного правила осуществ-ляется сама по себе некоторой встроенной в нейрон не слишком сложнойсистемой распознавания с заранее заданным правилом. Проверка стати-

200 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 201: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

стического критерия повторяемости отобранных структур входных дан-ных тоже может быть простой (например, число повторений сравниваетсясо статистическим порогом) или боле сложной (например, по частоте на-блюдения отобранной комбинации). Сказанному удовлетворяет следующаясхема нейрона ААУ (рис. 12). Обучение нейрона состоит в поиске им за-ранее неизвестной комбинации, удовлетворяющей обоим критериям, и еезапоминании в своей долговременной памяти. В целом, отдельный нейрондолжен представлять собой элементарную самообучаемую систему распо-знавания образа — образа неслучайной пространственно-временной ком-бинации входных сигналов.

Нами разработано несколько вариантов моделей нейрона, соответству-ющих данной схеме, и отличающихся сложностью примененных структур-ного и статистического правил [14, 15]. Наиболее простой вариант показанна рис. 13.

РИС. 13. Одна из реализаций нейрона ААУ

Формальное описание работы нейрона дано, например, в работах [5, 16].В элементе Rw нейрона nw проверяется, удовлетворяет ли входной векторзаданному структурному правилу, например, самому простому — все ли mвходных сигналов равны “1”? Если это правило выполняется, то блоком lwпроверяется статистическое правило, например, наблюдался ли этот вход-ной вектор уже больше, чемM раз? Пока оба этих правила не будут выпол-

УДК 001(06)+004.032.26 (06) Нейронные сети 201

Page 202: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 14. Пример формирования (слева) и распознавания (справа) об-раза пространственно-временной последовательности сигналов (обве-дены рамками вверху), которой соответствует образ O11

нены, нейрон считается необученным, закономерность не найдена, образне сформирован, и на выходе такого нейрона всегда будет сигнал Sw = 0.Если же однажды оба правила выполнятся, то нейрон перейдет в состоя-ние «обучен». С этого момента он будет реагировать выходным сигналомSw = 1 всякий раз, когда на его входе будет наблюдаться подобный вход-ной вектор и делать это со строгой временной задержкой, необходимой длякорректного управления событиями при управлении. Для нейронов, полу-чающих его выходной сигнал, это будет означать, что такт назад произошлонекоторое вполне определенное (каждый раз одно и то же) событие. На со-общение о таком событии другие нейроны и подсистемы могут опиратьсяв своем поиске других закономерностей или для распознавания ранее уженайденных. Сигналы нейронов ААУ в сети имеют вполне определеннуюсемантику — они «говорят» о том, что в системе произошли вполне опре-деленные события и произошли они во вполне определенные моментывремени. Использование обратных связей между нейронами, которые спо-собны «отключать» сработавшие нейроны, а также временных задержек всрабатывании нейронов, позволяет строить сети, способные формироватьи распознавать образы строгих пространственно-временных закономерно-

202 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 203: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

РИС. 15. Пример опережающего распознавания. Нейрон n11 научил-ся распознавать образ пространственно-временного явления (рамкавверху) раньше, чем закончится его восприятие, т.е. нейрон способенк предсказанию будущих событий

УДК 001(06)+004.032.26 (06) Нейронные сети 203

Page 204: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

стей, причинно-следственных событий, комбинаторных явлений или собы-тий (рис. 14), строить типовые программы реализации принятых решенийНаличие в нейроне средств помехозащищенности обеспечивает возмож-ность опережающего распознавания образов (рис. 15), что, собственно, иобеспечивает возможность прогнозирования и принятия решений, а также— далеко идущую возможность ассоциативного распознавания и языковыхявлений [10–12].

РИС. 16. Схема из «формальных нейронов» ИНС, эквивалентная посвойствам одному нейрону ААУ, показанному на рис. 13

В работе [5] показано, что разные способы использования нейроновААУ могут составить полный логический базис И, ИЛИ, НЕ, и с их помо-щью можно реализовать все подсистемы, составляющие систему ААУ.

К сожалению, специалисты по ИНС видят мало знакомых им черт «фор-мального нейрона» в нейроне ААУ, пока не «чувствуют» его и им трудноприменить свой опыт для работы с таким нейроном. Чтобы перекинуть«мостик» между нейроноподобной версией систем ААУ и ИНС, мы пред-принимали попытки построить системы ААУ на «формальных» нейронахИНС, которые не увенчались явным успехом в силу присущего ИНС свой-ства «катастрофического забывания», противоречащего свойству системААУ обучаться, дообучаться и переобучаться непосредственно в процессеуправления. Оригинальное решение проблемы было получено в 2007 го-ду студентами МФТИ А. Чернодубом и Д. Пономаревым, предложившимииз «формальных нейронов» строить не всю систему ААУ, но один нейронААУ. Ими разработана такая эквивалентная нейрону ААУ схема из не менее

204 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 205: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 206: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ОУ становилось все более целенаправленным — ОУ все чаще добивалсятех состояний, которые имели высокие «эмоциональные» оценки, а до-ля случайных составляющих в поведении ОУ постепенно уменьшалась. Всостоянии, когда БЗ накапливала достаточно знаний, поведение ОУ стано-вилось вполне целесообразным, и качество управления достигало своегомаксимума.

РИС. 17. Типичные кривые роста во времени качества управления,обеспечиваемого системой ААУ (черная линия). Для сравнения пока-зано качество управления, обеспечиваемое детерминированной систе-мой управления, построенной на лучших решающих правилах, най-денных априорно (серая линия)

Для количественного оценивания качества управления разрабатывалисьсоответствующие критерии. Характерной для систем ААУ чертой являетсяпостепенный рост оценки качества управления с постепенным приближе-нием к некоторой асимптоте (см. пример на рис. 17), определяемой такимиограничениями, как количество нейронов в БЗ, точность датчиков, возмож-ности приводов и т. п., которые можно, при желании, расширять. Как пра-вило, система ААУ со временем начинает демонстрировать более высокоекачество управления, чем то, которое демонстрирует априорно рассчитан-ная детерминированная система управления (если ее можно построить), засчет автоматического приспособления к каким-то нюансам, которые труд-но предусмотреть заранее. При этом адаптивная система управления можетавтоматически переучиваться при изменении свойств ОУ или среды, чегоне может делать детерминированная система управления. Например, это

206 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 207: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

(a) (b)

РИС. 18. Примеры реализованных адаптивных систем: (a) мобильныйробот «Гном 9» с адаптивной системой управления учится ездитьбез столкновений и собирать мусор; (b) модель спутника с адаптивнойсистемой угловой стабилизации

важно при поломках сенсорных или исполнительных устройств ОУ.Были разработаны, например, следующие системы. Мобильный робот

Гном 9 (рис. 18), который самостоятельно обучался ездить без столкнове-ний в лабиринте и собирать мусор (бумажки) заданного цвета. Если вначалеробот движется хаотично, натыкаясь на препятствия и игнорируя мусор, топостепенно количество наездов на препятствия уменьшалось практическидо нуля, и робот начинал целенаправленно собирать мусор. При этом ондемонстрировал такие непредусмотренные ситуации, как решение забратьмусор у стенки, «сознательно» получая при этом уже ожидаемое им непри-ятное соударение со стенкой и некоторые другие нетривиальные свойства.

Физическая модель наноспутника с адаптивной системой угловой ста-билизации демонстрирует способность постепенно находить способ управ-ления спутником и стабильно удерживать его в заданном состоянии.

Адаптивная система управления активной подвеской транспортногосредства автоматически обучается управлять подвеской так, чтобы повы-сить комфортность, устойчивость и управляемость автомобиля. Существу-ют также и другие примеры.

УДК 001(06)+004.032.26 (06) Нейронные сети 207

Page 208: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Математические, технологические и психологическиепроблемы перехода к адаптивным технологиям

При переходе к технологиям построения адаптивных машин, программ исистем возникает ряд разнохарактерных проблем. Если мы правы в оцен-ке актуальности перехода к адаптивным машинам, опираясь на факт ихналичия в живых системах, их свойства, которые не воспроизводимы всовременных технических системах на основе одноразовой оптимизации,и неизбежность появления спроса на подобные машины при расширениисферы объектов, требующих автономного и, следовательно, адаптивногоуправления, то человечеству придется заниматься построением адаптив-ных машин. При этом придется преодолевать следующие существующиепроблемы.

Психологические проблемы перехода к адаптивным машинам. Вобщественном сознании еще отсутствует массовое представление о том,что машины могут быть адаптивными. Вся предшествующая технологияприучила нас смотреть на машины, как на объекты, приспособленные кусредненным ожидаемым условиям эксплуатации и к усредненным поль-зователям, а во-вторых, как на машины с фиксированными свойствами, неменяющимися со временем. Мы охотно готовы заменять устаревшие ма-шины на новые, более «продвинутые», но не готовы допустить, что машина

Page 209: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

нет появляться, то окажется, что привычные технологии следует подверг-нуть существенным изменениям. Переход от производства однотипныхштампованных машин, которые изменяются только изнашиваясь, к маши-нам, которые сходят с конвейера одними, а потом накапливают опыт иизменяются в индивидуальном порядке, «умнеют» по мере «взросления»,требует существенных изменений в подготовке специалистов, традициях,менталитете и т. д. Заметим, что технологии и сегодня являются в опре-деленном смысле адаптивными, хотя и неявно. Накопление, мутирование,отбор и закрепление новых признаков идет в . . . «генах» технологической инаучной документации. Когда этот процесс будет полностью автоматизиро-ван и совмещен с полностью автоматизированной реализацией конструк-ций, описанных в документации, это будет одним из шагов в указанномнаправлении.

Математические и другие теоретические проблемы. Всякая техно-логия основывается на теоретических возможностях. Выше мы показали,что возможность построения автономных адаптивных систем управленияна основе определенной совокупности уже известных сегодня методов,существует. Более того, мы разработали и показали действующие прото-типы таких машин. Основная теоретическая задача состоит в правильномсистемном понимании и описании алгоритмов всех взаимосвязанных под-систем адаптивной управляющей системы, которые должны логически вы-нужденно следовать из тех начальных условий, в которых работают нерв-ные системы или адаптивные машины.

ЗаключениеВ настоящей работе мы описали актуальность и, по-видимому, неизбеж-ность перехода технологий от построения систем на основе одноразовойоптимизации к построению систем, способных к перманентной оптими-зации в реальном времени функционирования. Были указаны основныеподходы к построению такого рода систем и методы, которые можно ис-пользовать для этого. Была в общих чертах описана разработанная намисистема «Автономного адаптивного управления» (ААУ), претендующая нааналогию с нервными системами по принципу действия. Представлены ва-рианты работающих прикладных адаптивных систем, построенных на ееоснове. Некоторое внимание мы уделили здесь представлению одного изважных способов реализации систем ААУ — нейросетевого (нейронопо-добного) способа, основанного на специально разработанных нами новыхмоделях нейрона (нейрона ААУ), которые исходят из понимания нейрона

УДК 001(06)+004.032.26 (06) Нейронные сети 209

Page 210: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

как элементарной самообучаемой системы распознавания. Было показано,как можно построить нейрон ААУ из «формальных нейронов» ИНС, чтооткрывает возможность построения систем ААУ в том числе и с исполь-зованием средств ИНС. Возможно, что нейрофизиологам будет интересназатронутая здесь тема сравнения схемы системы «Автономного адаптив-ного управления» с «Функциональной схемой» П. К. Анохина, посколькуобе модели имели одну и ту же цель, но были построены, отталкиваясь отразличных исходных условий.

В целом мы надеемся, что разработанными принципами построениясистем «Автономного адаптивного управления» мы внесли определенныйвклад в технологии создания адаптивных машин, программ и систем, ко-торые будут работать в недалеком будущем.

Литература1. Луговской В. М. Супермозг человечества. – М.: Народный Пушкинский фонд,

2009.

2. Жданов А. А. О роли аппарата эмоций как системообразующего фактора в адап-тивных системах управления // Труды Института системного программирова-ния РАН. М., 2004. с. 215–225. (Англ. том.: Zhdanov A. A. Emotional system as asystem-forming factor in adaptive control systems. Proc. of the Institute for SystemProgramming. RAS, Vol. 5. V. P. Ivannikov (ed.), ISP RAS, 2004. pp.191–200).

3. Zhdanov A. A., Vinokurov A. N. Emotions simulation in methodology of autonomousadaptive control // 14th IEEE Int. Symp. on Intellig. Control /Intellig. Systems andSemiotics ISIC/ISAS’99. Spec. session “Emotions and Intelligent Systems”. Sept.15–17, 1999, Cambridge, Massachusetts, USA. Paper 99-002I-6.

4. Жданов А. А. Аппарат эмоций как системообразующий фактор // Сб. научн. тр.Всерос. н.-техн. конф. «Нейроинформатика-2004», М.: МИФИ. – с. 85–93.

5. Жданов А. А. Автономный искусственный интеллект. 2-е изд. (монография). –М.: БИНОМ. Лаборатория знаний, 2009. – 359 с.

6. Zhdanov A. A., Zemskikh L. V. The evolutionary growth of neural networks for theautonomous adaptive control system // The 5th World Multiconference on Systemics,Cybernetics and Informatics (SCI 2001) and the 7th International Conference onInformation Systems Analysis and Synthesis (ISAS 2001), Orlando, USA, July 22–25, 2001. – pp.404–409.

7. Жданов А. А. Земских Л. В., Беляев Б. Б. Применение генетических алгоритмовдля оптимизации нейросетевой базы знаний адаптивной системы стабилиза-ции углового движения космического аппарата // Сб. тезисов докладов XXVакадемических чтений по космонавтике, Москва, 24–26 января 2001 г. – М.:Война и мир. – с. 128–129.

210 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 211: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

А.А.ЖДАНОВ

8. Жданов А. А., Земских Л. В., Беляев Б. Б. Система стабилизации углового движе-ния космического аппарата на основе нейроноподобной системы автономногоадаптивного управления // Космич. исследования. – 2004, т. 42, 3. – с. 1–15.

9. Земских Л. В., Самаров Е. К., Жданов А. А., Бабкова В. В. Применение генети-ческих алгоритмов для оптимизации адаптивной системы управления мобиль-ного робота на параллельном вычислительном комплексе // Труды Институтасистемного программирования: Том 7, Новые подходы в нейроноподобных иоснованных на знаниях системах /Под ред. А. А. Жданова. – М.: ИСП РАН,2004. – с. 79–104.

10. Zhdanov A. A., Naumkina T. S. Modeling of formation of extralinguistic factorsinfluencing the attitude of the recipient towards language messages // Proc. of the12th International Conference SPECOM-2007. – pp. 833–838.

11. Zhdanov A., Kondukov A., Naumkina T., Dmitrienko O. Automatic origin of alanguage in AAC neuron-like systems // Proc. of the 11th International Conference“Speech and Computer SPECOM-2006”, pp. 550–554.

12. Жданов А. А., Наумкина Т. С. Моделирование языковых явлений в нейро-ноподобных системах управления // Сб. научн. тр. Всероссийской научно-технической конференции «Нейроинформатика-2007», ч. 3, с. 76–84.

13. URL: www.aac-lab.com

14. Zhdanov A. A., Ryadovikov A. V. Neuron models in the autonomous adaptive controlmethod // Optical Memory and Neural Network, Allerton Press, Inc., Vol. 9, No. 2,2000, pp. 115–132.

15. Рядовиков А. В., Жданов А. А. О некоторых формальных моделях нейронов //Сб. научн. тр. Всероссийской научн.-техн. конференции «Нейроинформатика-99», ч. 1. – М.: МИФИ, 1999. – c. 202–211.

16. Жданов А. А. Метод автономного адаптивного управления // Известия Акаде-

мии Наук. Теория и системы управления. – 1999, 5, с. 127–134.

17. Пономарев Д. Ю., Жданов А. А., Чернодуб А. Н. Нейросетевая реализация фор-мальной модели нейрона, используемого в методе «Автономного адаптивногоуправления» // Нейрокомпьютеры: разработка, применение. – 2007, 1. –с. 64–75.

Александр Аркадьевич ЖДАНОВ, доктор физико-математических на-ук, заведующий отделом Института системного программирования РАН,Москва. Область научных интересов: адаптивное управление, нейронныесети, распознавание образов. Имеет более 60 научных публикаций.

Page 212: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВНИИ Ядерной Физики МГУ, Москва,

E-mail: [email protected]

АДАПТИВНОЕ ПОСТРОЕНИЕ ИЕРАРХИЧЕСКИХНЕЙРОСЕТЕВЫХ СИСТЕМ ДЛЯ КЛАССИФИКАЦИИ И ДЛЯ

СЕГМЕНТАЦИИ ВРЕМЕННЫХ РЯДОВАннотация

Предложен алгоритм построения самоорганизующегося классификатора наоснове многослойного персептрона. В результате работы алгоритма создает-ся классификатор, имеющий древовидную структуру, каждый узел которойпредставляет собой персептрон. Структура дерева и параметры каждогоперсептрона формируются автоматически. При работе с данными, содер-жащими большое количество классов, предложенный алгоритм позволяетсущественно снизить вычислительную стоимость решения задачи. Алго-ритм был протестирован на ряде модельных, тестовых и практических за-дач. Предложена модификация алгоритма, допускающая его использование

Page 213: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

Введение

Классификация данных и распознавание образов является одной из важ-нейших задач обработки результатов физических измерений в различныхобластях науки и техники. Нейронные сети (НС) являются одним из клас-сов алгоритмов, часто применяемых для решения подобных задач. Отли-чительными чертами НС являются их способность обучаться на примерахи обобщать полученную информацию, невосприимчивость к шуму и при-сущая им параллельность архитектуры. При решении практических задачклассификации и распознавания образов с помощью традиционных ней-росетевых подходов существует ряд принципиально важных недостаткови ограничений, наиболее значимыми среди которых являются: сложностьрешения задач классификации в случае плохо разделимых классов, субъ-ективность выбора алгоритма решения конкретной задачи и его парамет-ров, возможность попадания в локальный минимум, заметное снижениекачественных характеристик НС классификатора при большом количествеклассов, неоправданно высокая вычислительная стоимость построения НСклассификатора при большом количестве классов, проблема интерпрета-ции признаков, по которым НС принимает решение.

Целью исследований являлось преодоление указанных выше недостат-ков путем разработки конструктивного нейросетевого алгоритма классифи-кации, обладающего следующими свойствами: наращивание архитектурыНС по мере необходимости в процессе тренировки; сокращение вычис-лительной стоимости решения задачи классификации; обеспечение опти-мального выбора признаков, используемых нейросетью для классификацииданных, а также универсальность алгоритма, т. е. применимость его к воз-можно более широкому кругу задач.

Основополагающие идеи метода

Метод адаптивного построения иерархических нейросетевых классифи-каторов (ИНК) основан на следующих соображениях [1–6].

Процесс тренировки многослойного персептрона (МСП) можно рас-сматривать как одновременное выделение признаков в скрытом слое и ихдекодирование в выходном слое. Для простейшей архитектуры МСП коли-чество выделяемых признаков можно считать пропорциональным количе-ству нейронов в скрытом слое. При этом задание числа нейронов в скрытом

УДК 001(06)+004.032.26 (06) Нейронные сети 213

Page 214: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

слое меньше некоторого порога приведет к ситуации, когда НС будет неспособна выделить количество признаков, достаточное для классификациипредложенных образов в требуемое количество классов. НС начнет пу-тать образы из классов, похожих в терминах того небольшого количествапризнаков, которые выделяются в скрытом слое.

Можно предположить, что при некоторых условиях нейросеть будетв этой ситуации выделять наиболее существенные признаки во входныхданных и, следовательно, эти признаки можно использовать для принятиярешения о том, какие классы следует объединить в группы.

Алгоритм формирования групп классов

Основанный на вышеизложенной идее алгоритм формирования групп клас-сов (АФГК) работает следующим образом.

Шаг 1. Вначале МСП обучается решать задачу классификации с использо-ванием стандартного метода обратного распространения ошибки [7].

Шаг 2. По прошествии нескольких эпох тренировки, алгоритм произво-дит анализ статистики ответов МСП на тренировочном наборе. Впроцессе анализа проводится «голосование» образов: для каждогообраза (примера) определяется номер нейрона выходного слоя, име-ющего максимальную амплитуду отклика и превышающего некийпорог голосования. Этот номер трактуется как номер класса, за при-надлежность к которому «проголосовал» данный образ. Если коли-чество образов из класса k, проголосовавших за принадлежность кклассу j, больше половины количества образов в классе k, то счи-тается, что все представители класса k отныне принадлежат классуj. Другими словами, если ответом сети на образы из разных классовявляется стабильная активация одного и того же нейрона, то такаяситуация рассматривается как свидетельство в пользу того, что этиклассы следует объединить.

Шаг 3. После окончания анализа всех классов, производится соответству-ющая модификация желаемых выходов. После этого тренировка про-должается с использованием измененной информации о классе, к ко-торому принадлежит каждый образ.

214 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 215: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

Приведем формальное описание алгоритма АФГК.

Шаг 1. Обучение по методу обратного распространения ошибки

∀p ∈ Ck Oi(p) = δik

Шаг 2. Анализ статистики ответов

Возможный вариант — «голосование по порогу»:

∀p ∈ CkIF argmax(Y (p)) = j AND Yj(p) > Θ THEN

Vj = V j + 1

Шаг 3. Модификация желаемого ответа

IF Vj > N(Ck)/2 THEN

∀p ∈ Ck Oi(p) = δik

Указанные выше стадии «тренировка–анализ–модификация желаемыхответов» повторяются, пока классы продолжают объединяться. В резуль-тате описанной процедуры исходный набор классов разбивается на неко-торое количество групп и одновременно с этим создается классификатор,поддерживающий именно это разбиение.

Алгоритм построения ИНК

Опишем алгоритм построения ИНК как процесс построения дерева ре-шений, узлы в котором реализованы в виде МСП с заданным размеромскрытого слоя. Построение ИНК начинается с вызова АФГК, в результатеработы которого происходит объединение исходных классов в небольшоеколичество групп. Таким образом, формируется базовый узел ИНК (первыйуровень иерархии), в котором осуществляется наиболее «грубая» класси-фикация. Очевидно, что полученные группы классов можно рассматриватькак ветви дерева решений.

После создания базового узла, для каждой из полученных групп классов(ветвей) вновь вызывается АФГК. Важно, что при этом алгоритм анализи-рует лишь те исходные классы, которые попали в данную ветвь дерева. Врезультате формируется узел следующего уровня иерархии, а из анализи-руемых классов образуются новые группы (ветви). После формированиявсех узлов данного уровня иерархии, АФГК вызывается для каждой из

УДК 001(06)+004.032.26 (06) Нейронные сети 215

Page 216: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

вновь полученных ветвей. Ясно, что узлы более высоких уровней иерар-хии осуществляют все более и более детальную классификацию.

Алгоритм построения ИНК для данной ветви останавливается, если вней содержится один исходный класс, или если дальнейшая детализацияклассов в этой ветви невозможна (например, если процент ошибочныхклассификаций в узле превысил некоторый порог).

Свойства алгоритма построения ИНК

Можно трактовать процесс построения ИНК как процесс подбора адекват-ной сложности задачи на каждом уровне иерархии. Пусть задана архитекту-ра МСП, используемая при построении ИНК (для простоты единственнымпараметром архитектуры будем считать размер скрытого слоя). В процессеформирования очередного узла возможны три результата работы АФГК:

1) Заданная архитектура МСП способна разделить классы, входящиев данную ветвь, т. е. сложность поставленной в данном узле задачиклассификации соответствует возможностям используемой НС.

2) Заданная архитектура МСП не может разделить классы, входящие вданную ветвь, но возможно образование групп классов, т. е. задачаклассификации, слишком сложная для решения в данном узле, раз-бивается на задачу разбиения классов по группам (причем сложностьэтой задачи адекватна возможностям используемой НС) и на наборзадач для узлов следующего уровня иерархии. Заметим, что при ис-пользовании такой стратегии задача тренировки узла ИНК можетбыть решена достаточно быстро, поскольку предложенный метод мо-дификации желаемых ответов сильно ускоряет сходимость обучения.С другой стороны, количество классов, подлежащих распознаванию,постепенно уменьшается с каждым следующим уровнем иерархии,что упрощает задачу классификации.

3) На некотором этапе построения ИНК может сформироваться ветвь,внутри которой границы между классами настолько сложны, что за-данная архитектура МСП не в состоянии ни разделить классы, нисформировать из них группы, что говорит о невозможности решитьзадачу классификации средствами заданной архитектуры.

Как видно из этого рассмотрения, первоначальная глобальная задачараспознавания множества исходных классов (возможно, очень сложная)

216 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 217: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

разбивается на последовательность локальных задач со сложностью, адек-ватной возможностям нейросетевой архитектуры, используемой в узлахИНК. Преимущества иерархического способа решения задачи перед ис-пользованием одиночного МСП с большим скрытым слоем достаточно оче-видны. Хотя одиночный МСП и может решить задачу (по теореме об МСПкак универсальном аппроксиматоре [8]), однако требуемый размер скрыто-го слоя заранее неизвестен, и его приходится находить методом подбора.В то же время, в предлагаемом иерархическом подходе архитектура МСПможет быть практически произвольной, поскольку алгоритм наращиваетструктуру ИНК по мере необходимости, используя заданную архитектурукак конструкционные блоки.

Докажем теорему, позволяющую оценить количество скрытых нейро-нов МСП, достаточное для построения ИНК со 100% распознаванием.

Теорема. Пусть требуется классифицировать P примеров X ∈ RN вM классов. Тогда для построения ИНК, дающего гарантированное 100%распознавание, достаточно использовать МСП с размером скрытого слоя,равным min (2 ·N,P − 1).

Доказательство. Действительно, пусть в узле ИНК требуется класси-фицировать P примеров X ∈ RN в два класса K1 и K2 (если количествоклассов больше 2, то объединим эти классы на два новых класса произ-вольным образом). Рассмотрим пример X ∈ K1. В наихудшем случае, еготребуется отделить от (P − 1) примеров из K2. Для этого достаточно:

• либо построить набор из (P − 1) гиперплоскостей, отделяющих Xот каждого из примеров из K2, на что требуется (P − 1) скрытыхнейронов;• либо для каждого из признаков Xj (j = 1, N) построить по 2 гипер-

плоскости, отделяющих данный пример от примеров с меньшими ис большими значениями этого признака, для чего требуется (2 · N)скрытых нейронов.

Таким образом, теорема доказана.

Результаты численных экспериментов

Для проверки алгоритма был выбран ряд модельных задач, а также извест-ные задачи реального мира, чьи базы данных доступны по сети Интернет.Ниже приводятся основные результаты проверки алгоритма на некоторыхиз них.

УДК 001(06)+004.032.26 (06) Нейронные сети 217

Page 218: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Параметры алгоритма (размер скрытого слоя N , скорость обучения σи период анализа статистики ответов T ), как правило, являлись общимидля всех узлов дерева. Момент при обучении МСП был равен 0.9. Изменяяпараметры N , σ и T, можно изменять количество классов в каждом узле,т. е. топологию получающегося иерархического дерева. На всех рисунках,представляющих полученные для разных задач иерархические деревья, длякаждого узла указаны список классов, поступающих для распознавания навход данного узла, и проценты правильного распознавания на тренировоч-ном и тестовом наборах.

Одномерное распределение Кантора

Интервал [0 . . . 1.8] был разделен на 180 сегментов длиной по 0.01.Подлежащие классификации образы представляли собой кривые Гауссас полушириной 0.1 и единичной амплитудой. Входными признаками дляэтих образов были их амплитуды в серединах всех 180 сегментов. (Такимобразом, нейронные сети всех уровней имели каждая по 180 нейроновво входном слое.) Функция плотности распределения максимумов образовописывалась хорошо известным одномерным распределением Кантора.

0

1

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8

РИС. 1. Задача с одномерным распределением Кантора. Функция плот-ности распределения максимумов образов (сплошная линия); примерклассифицируемого образа (пунктир)

Расстояние между соседними пиками функции плотности распределе-ния равнялось ширине каждого пика; то же справедливо для групп сосед-них пиков. На рис. 1 сплошной линией показана функция плотности рас-

218 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 219: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

пределения для одномерного распределения Кантора, пунктирной – примерклассифицируемого образа.

Признаком, определяющим принадлежность образа к тому или иномуклассу, являлась координата его максимума. Каждый из 8 пиков на рис. 1был разделен на два равных сегмента, что в сумме давало 16 исходныхклассов для базовой сети. Тренировочный и тестовый наборы содержалипо 320 образов, по 20 образов для каждого из 16 классов. Количествонейронов в скрытом слое намеренно выбиралось минимальным (2–3) дляполучения возможно более сложной иерархической структуры с меньшимколичеством выходных классов для каждого узла и с потенциально болеевысоким качеством распознавания.

Классы 1-16 100/100

Классы 13-16 100/100

Классы 5-8 100/100

Классы 1- 4100/100

Классы

7,8 97.5/100

Классы

1,2 97.5/100

Классы

3,4 100/100

Классы

13,14 100/100

Классы

9,10 97.5/100

Классы

11,12 100/100

5 6

7 8 9 10 11 121 2 3 4 13 14 15 16

Классы 9-12100/100

Классы

15,16 97.5/100

РИС. 2. ИНК для одномерного распределения Кантора: N = 2, σ=0.01,T = 5 для базового узла, T = 20 для всех остальных узлов. Процентправильного распознавания на тренировочном наборе 98.75%, на те-стовом наборе 100%

На нижеприведенных рисунках (рис. 2, рис. 3) представлены примерыИНК для данной задачи, полученных для различных наборов параметровалгоритма (размер скрытого слоя N, скорость обучения σ и период анализастатистики ответов T).

Заметим, что все запуски дали сходные результаты: базовая сеть всегдагруппировала исходные классы по 4 (1–4, 5–8, 9–12 и 13–16); сети второгоуровня иерархии имели по две или три выходных категории; сети третьего

УДК 001(06)+004.032.26 (06) Нейронные сети 219

Page 220: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

уровня использовались для того, чтобы различить нераспознанные к этомумоменту соседние классы.

Увеличение N (и в меньшей мере — увеличение T ) приводит к увеличе-нию количества классов, распознаваемых в каждом узле, и, как следствие,к уменьшению глубины дерева. Вся система оказывается достаточно чув-ствительной к начальной инициализации весов МСП, т. е. два последова-тельных запуска алгоритма с одними и теми же параметрами приводят, какправило, к построению различных по топологии деревьев.

Классы 1 - 16 99.7/100

Классы 14-16 99.7/100

Классы 5-8 100/100

Классы 1- 4,13 100/100

Классы

7,8 100/100

Классы

1,2 97.5/100

Классы

3,4 100/100

Классы

5,6 100/100

Классы

9,10 97.5/100

Классы

11,12 100/100

5 6 7 8 9 10 11 12

1 2 3 4

14

15 16

Классы 9-12100/100

Классы

15,16 97.5/100

Классы

1 - 4 100/100

13

РИС. 3. Базовый и терминальный узлы N = 2, остальные N = 3,σ=0.1, T = 5. Процент распознавания на тренировочном наборе98.75%, на тестовом наборе 100%

Увеличение σ дополнительно усиливает влияние начальной инициали-зации весов и приводит к построению менее сбалансированных деревьев.Впрочем, процент распознавания системы в целом весьма слабо зависитот конкретной топологии дерева (даже при его сильной асимметрии) и дляданной задачи всегда оказывается весьма высоким (не менее 98.75%).

На рис. 4 показан пример эволюции принадлежности различных исход-ных классов с течением времени для базового узла ИНК.

220 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 221: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

0

2

4

6

8

10

12

14

16

0 10 20 30 40 50 60 70 80 90 100 110 120 130Время обучения, эпохи

Номер класса

РИС. 4. Пример эволюции принадлежности различных исходных клас-сов с течением времени для базового узла ИНК

Распознавание текстур

Эта хорошо известная база данных, доступная по сети Интернет [9], поз-волила провести первое адекватное сравнение результатов работы алго-ритма с результатами работы альтернативных алгоритмов. База данныхtexture_CR.dat содержит 11 классов, помеченных номерами 2, 3, 4, 6, 7,8, 9, 10, 12, 13, 14. Тренировочный и тестовый наборы содержат по 250образов в каждом классе. Данные нормировались к нулевому среднемуи единичному стандартному отклонению. Каждый образ описывается 40признаками.

Для этой задачи оказались справедливыми все наблюдения о влияниипараметров на получаемые деревья, сделанные выше для задачи с распре-делением Кантора. Отметим, что при любой разумной комбинации пара-метров процент распознавания получавшегося иерархического дерева ока-зывался не ниже 98.5%, что превышает наилучшие результаты, приводи-мые в [9] для того же способа предобработки данных (98%). Заметим, чтодля разных полученных деревьев существуют устойчивые группы классов,объединяемые алгоритмом на первой стадии. Такие группы, как прави-ло, состоят из классов, имеющих, согласно [9], минимальную взаимнуюдисперсию.

УДК 001(06)+004.032.26 (06) Нейронные сети 221

Page 222: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Для дополнительной проверки возможностей алгоритма задача быламодифицирована следующим образом. Каждый из 11 классов был случай-ным образом разбит на 4 подкласса равного размера. В результате работыалгоритма на втором уровне иерархического дерева 44 исходных классабыли автоматически сгруппированы по 4 класса, образовав 11 реально раз-личающихся групп. При этом уровень правильного распознавания этих 11классов составил 99.4%. Стоит также заметить, что и в этом экспериментена первом уровне дерева алгоритмом были объединены классы с мини-мальной взаимной дисперсией.

Распознавание гласных

Задача дикторонезависимого распознавания 11 гласных звуков английскогоязыка [10] отличается сложными для распознавания классами. Это хоро-шо видно из приведенной ниже таблицы, в которой показаны наилучшиерезультаты, достигнутые для этой задачи [10]. Образы описываются 10 при-знаками. Данные нормированы к нулевому среднему и единичному стан-дартному отклонению. Тренировочный набор содержит по 48 примеровдля каждого класса, тестовый — по 42. На рис. 5 показан пример ИНК дляданной задачи, полученный при N = 1, σ=0.01 и T = 1.

ТАБЛИЦА 1. Сравнительные результаты для задачи распознавания гласных

Алгоритмклассификации

Нейронов вскрытом слое

% натестовомнаборе

Однослойный персептрон — 33МСП 88 51Модель Канервы 528 50Радиальные базисные функции 528 53Сеть с гауссовскими узлами 528 55Сеть с квадратичными узлами 88 55Метод ближайших соседей — 56

ИНК (1) 58

222 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 223: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

Классы 1-11 98.1/92.2

Классы 4-11 98.2/84.2

Классы 4-6,1196.9/93.5

Классы 1-3 93.1/72.2

Классы 6,1195.8/88.1

Классы 5,6,1188.2/84.1

Классы 9,1091.7/79.8

Классы 8-1090.3/84.1

Классы 7-1097.4/92.3

6

74

10

85

11

2 3

9

1 Классы 2,3 91.7/88.1

РИС. 5. ИНК для распознавания гласных: N = 1, σ=0.01, T = 1. Про-цент правильного распознавания на тренировочном наборе 84.90%, натестовом наборе 58.23%

Заметим, что хотя общие закономерности влияния параметров на ре-зультаты построения иерархических деревьев сохранились, процент пра-вильного распознавания на тестовом наборе для этой задаче зависел отзначений параметров тренировки гораздо сильнее, и мог изменяться от50% до рекордного значения 58.23%.

Сравнение ИНК и стандартного МСП. Число нейронов ИНК в скры-том слое в табл. 1 записано с некоторой долей условности — понятно, чтохотя каждый узел у дерева имеет 1 нейрон, в целом дерево эквивалентноболее сложной структуре. Поэтому на этой же задаче, очень показательнойименно в силу крайне низких процентов правильного распознавания, былопроведено прямое сравнение полученных деревьев и стандартного МСП.

Были натренированы МСП с размерами скрытого слоя от 1 до 10 сшагом 1, и далее до 100 с шагом 20 (20, 40, 60, 80 и 100). На рис. 6 при-ведена зависимость процента распознавания на тестовом наборе для МСП

УДК 001(06)+004.032.26 (06) Нейронные сети 223

Page 224: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

(сплошная линия) и для ИНК (отдельные точки) в зависимости от полногочисла связей в полученной архитектуре. Анализ этой зависимости показы-вает, что ИНК не только существенно выигрывают по процентам распо-знавания, но также и весьма эффективны по вычислительной сложности.Наилучший ИНК, полученный для этой задачи, имеет такое же количествовесов, как и МСП с 7 нейронами в скрытом слое.

Распознавание на тестовом наборе, %

0

10

20

30

40

50

60

0 500 1000 1500 2000 2500

Количество связей

МСП

V4 (N=4, T=1)

V1 (N=3, T=2)

V5 (N=1, T=2)

V6 (N=1, T=1)

РИС. 6. Процент распознавания гласных на тестовом наборе для МСП(сплошная линия, MLP) и для некоторых ИНК (отдельные точки, V1,V4, V5, V6) в зависимости от полного числа связей в полученной ар-хитектуре. Параметры алгоритма построения ИНК указаны в легенде.Скорость обучения во всех случаях σ = 0.01

Качество распознавания для тех же ИНК и МСП также сравнивалосьна тестовом наборе, искаженном 10% и 20% белым шумом. На рис. 6 при-ведены результаты сравнения МСП и ИНК по устойчивости к шуму, на-кладываемому на тестовые данные. Даже в наихудшем случае 20% белогошума, ИНК имеют более высокий процент распознавания на тестовом на-боре, что связано с меньшим количеством весов и большей устойчивостьюрешения.

Дикторонезависимое распознавание изолированных слов

Алгоритм построения ИНК был также успешно опробован при разработ-ке нейросетевой системы дикторонезависимого распознавания изолирован-ных слов.

224 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 225: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

Распознавание

на тестовом наборе, %

45%

50%

55%

60%

0% 10% 20%Амплитуда шума, %

V4 (N=4, T=1)

V1 (N=3, T=2)

V5 (N=1, T=2)

V6 (N=1, T=1)

40h

60h

80h

РИС. 7. Распознавание гласных. Сравнение МСП (40h, 60h, 80h обо-значает число нейронов в скрытом слое) и ИНК (V1, V4, V5, V6) поустойчивости к шуму, накладываемому на тестовые данные. Зависи-мость процента распознавания на тестовом наборе от относительнойамплитуды белого шума. Параметры алгоритма построения ИНК ука-заны в легенде. Скорость обучения во всех случаях σ = 0.01

С помощью этой системы была реализована возможность голосовогоуправления работой стандартного калькулятора Windows, наглядно иллю-стрируя эффективность ИНК.

Подготовка данных. Речевой сигнал оцифровывался с частотой 10 кГц12-битовым аналого-цифровым преобразователем и разбивался на непе-рекрывающиеся сегменты шириной 6.4 мс. После домножения сигналав каждом сегменте на сглаживающее окно Хэмминга, производился рас-чет быстрого преобразования Фурье сигнальным процессором ADSP-1205

фирмы Analog Devices. Затем осуществлялся поиск начала/конца слова поалгоритму, основанному на алгоритме Рабинера-Шафера [11]. В результатеопределения начала и конца слова формировался массив векторов, обра-зующий спектральный образ произнесенного слова. Частотный диапазонполученного массива преобразовывался в т. н. шкалу барков [12], для чегоон разбивался на 20 интервалов и для каждого интервала вычислялась сум-марная интенсивность попавших в него спектральных отсчетов. Границыинтервалов вычислялись по формуле:

z =26.81f

1960 + f− 0.53, (1)

УДК 001(06)+004.032.26 (06) Нейронные сети 225

Page 226: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

где z — частота в барках, f — частота в герцах.В результате для каждого слова получалась последовательность спек-

тральных векторов (спектрограмма), длина которой зависела от длины про-изнесенного слова. Чтобы избавиться от временной зависимости, каждаятакая последовательность приводилась к одинаковой длине путем линей-ной деформации по времени. Эта длина составляла 50 сегментов (640 мс)и соответствовала средней длине слова.

Амплитуды полученной спектрограммы переводились в шкалу децибел,и максимальное значение сигнала принималось за 0 дБ (при этом экспе-риментально определенный уровень шума соответствовал −17 дБ). По-сле этого спектрограмма перенормировалась из диапазона [−17 дБ, 0 дБ]в диапазон [0, 1]. На вход системы распознавания подавались двумерныеспектрограммы слов, состоящие из 1000 точек (50 точек по времени, 20точек по частотной шкале), нормированные в диапазон [0, 1].

База данных содержала 36 слов для управления калькулятором в рус-скоязычной версии оболочки Microsoft Windows, произнесенными 19 дик-торами (14 мужских голосов, 5 женских голосов). Тренировочный наборвключал 12 мужских и 3 женских голоса, тестовый набор — 2 мужских и 2женских голоса.

Для искусственного расширения используемого при тренировке набораданных каждый предъявляемый образ мог искажаться одним из следующихспособов. В одном случае к образцу добавлялся случайный белый шум,не превышающий заданной амплитуды Anoise, в другом случае образецподвергался нелинейным временным искажениям амплитуды Adistort (чемимитировалось изменение темпа произнесения слова). Благодаря примене-нию указанной методики эффективное количество образов, используемыхпри тренировке, было практически не ограничено и тем самым предотвра-щалась возможность эффекта «переучивания» нейросети.

Стратегия постепенного усложнения тренировки. Стратегия посте-пенного усложнения тренировки применительно к данной задаче заклю-чалась в следующем. В начале обучения НС предъявлялись лишь неис-каженные образы (Anoise = 0, Adistort = 0), и обучение продолжалосьдо достижения НС заранее заданного уровня правильного распознаванияна тестовом наборе (90%). Затем амплитуда искажений Anoise и Adistortустанавливалась равной некоторой малой величине, и, тем самым, тре-нировочный набор расширялся за счет предъявления слегка искаженных

226 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 227: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

образов, а задача классификации усложнялась. По достижении заданногоуровня правильного распознавания амплитуды искажений еще увеличива-лись. Амплитуда искажений постепенно возрастала по мере обучения НСдо тех пор, пока нейросеть была в состоянии поддерживать качество рас-познавания на заданном уровне.

Описание системы распознавания. Был построен ИНК, состоящий издвух уровней иерархии. Базовая НС имела 24 нейрона в скрытом слое. 36исходных классов (36 слов) были объединены алгоритмом АФГК в 6 групп(1 группа из 4 классов, 3 группы по 6 классов и 2 группы по 7 классов).Для каждой из групп были построены вспомогательные НС, содержащиеот 12 до 24 нейронов в скрытом слое. Для уменьшения вероятности ложно-го распознавания незнакомых слов в тренировочный набор каждой из НСвторого уровня иерархии были включены не только представители классов,попавших в данную ветвь ИНК, но и все примеры из остальных классов.Для этих примеров из «посторонних» классов желаемым ответом НС быланулевая активность всех нейронов выходного слоя, что при распознаваниитрактовалось как ответ «не знаю». Общий процент правильного распозна-вания 36 слов для незнакомого диктора составил около 95%, что соот-ветствовало типичным значениям, получаемым в нейросетевых системахраспознавания [13].

Нейросетевая сегментация временных рядов

Алгоритм построения ИНК может быть использован для анализа объектов,представимых в пространстве признаков в виде непрерывных или квази-непрерывных траекторий, в частности, для анализа временных рядов спереключающейся динамикой.

Пусть временной ряд yt (t = 1, 2, . . .) генерируется источником S(zt),где zt является переменным во времени параметром, принимающим зна-чения из фиксированного множества параметров Θ = θ1, θ2, . . . , θK. Вмомент времени t значение yt зависит от предыстории yt−1, yt−2, . . . и оттекущего значения zt. Значение zt может скачком изменяться (переключать-ся) в произвольные моменты времени (т. е. значение изменяется за время,пренебрежимо малое по сравнению с интервалами между этими изменени-ями). Конкретные значения параметров из множества и их число K заранеенеизвестны.

УДК 001(06)+004.032.26 (06) Нейронные сети 227

Page 228: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Задача анализа структуры временного ряда в рамках этой модели заклю-чается в разбиении временного ряда на участки, внутри которых значениеzt не изменяется. На практике условие мгновенности изменения значенияzt (т. е. «переключение») выполняется далеко не всегда. Одним из наиболееочевидных предположений является наличие достаточно широкого участка«дрейфа». В этом случае анализ структуры временного ряда предполагает,помимо выделения участков с постоянным значением zt, также опреде-ление участков дрейфа, на которых одновременно существует несколькозначений zt.

Можно предполагать, что в качестве объектов с описанными видами из-менения типа динамики могут выступать временные ряды самой различнойприроды, от физических процессов (например, в задачах исследования ди-намики межпланетной плазмы, классификации типов электрических про-цессов в головном мозге, сегментации непрерывной речи) до финансовыхзависимостей (например, при анализе состояния фондового рынка).

В работах [14–16] описывается нейросетевой подход к исследованиюобъектов с переключающейся динамикой, однако в этих работах произво-дится подстройка и отбор нейросетей при заранее заданном их количестве,т. е. архитектура всего комплекса нейросетей в целом фиксирована и имеетпараллельный, а не иерархический принцип организации. В нашем подходеиспользуется принцип постепенного иерархического наращивания сложно-сти структуры ИНК, что позволяет получать многоуровневые нейросетевыекомплексы с очень сложными поверхностями разделения классов.

В работе [17] предлагается метод анализа временных рядов с дрейфо-вым характером изменения типа динамики, в котором для анализа участ-ков дрейфа предлагается использование скрытых марковских моделей. Впредложенном нами подходе при сегментации таких временных рядов ис-пользуется чисто нейросетевой анализ участков дрейфа.

Описанные методики были применены для сегментации временных ря-дов с переключающейся и дрейфовой динамикой.

Описание алгоритма анализа временных рядов с переключающейсядинамикой

Алгоритм формирования групп классов (АФГК) для анализа и сегментациивременных рядов с переключающейся динамикой работает следующим об-разом [18,19]. Введем величину «минимального размера сегмента» (МРС),задавая ее значение, исходя из априорной оценки минимального времени

228 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 229: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

жизни одного типа динамики. Анализируемый временной ряд разбиваетсяна одинаковые участки с размером, равным МРС, причем в пределах каж-дого из участков динамика объекта предполагается неизменной. В допуще-нии, что переключение между различными типами динамики происходитдостаточно редко, каждый из этих участков считается принадлежащим котдельному классу со своей собственной динамикой. Таким образом, коли-чество выходных нейронов в НС равно начальному количеству получив-шихся участков.

Методика тренировки МСП аналогична методике, использовавшейсядля анализа статических объектов. Вначале обучение ведется стандартнымметодом обратного распространения ошибки. По прошествии несколькихэпох тренировки, алгоритм производит анализ статистики ответов МСП натренировочном наборе. Так как данный алгоритм работает с временнымирядами, то имеет смысл учитывать очевидное априорное соображение, чтоклассы соседних образцов (в том числе и относящихся к разным участкамначального разбиения), скорее всего, совпадают. Таким образом, при рас-смотрении голосования отдельного образца следует учитывать результатыголосования его соседей слева и справа, попадающих в т. н. «окно анали-за». Размер окна анализа примем равным половине МРС. Будем считать,что рассматриваемый образец отнесен к классу j, если больше половиныобразов в окне анализа проголосовало за принадлежность к классу j (впротивном случае информация о принадлежности к классу не изменяется).

После окончания анализа голосования временной ряд разбивается нановые сегменты в соответствии с измененной принадлежностью к классам.Если количество образцов в каком-либо сегменте меньше, чем МРС, тотакой сегмент присоединяется к сегменту, расположенному левее.

В результате, границы сегментов, изначально расположенные равно-мерно, могут быть передвинуты. После формирования нового разбиения насегменты тренировка продолжается. Последовательность операций «трени-ровка–голосование–модификация сегментов» повторяется, пока разбиениевременного ряда не перестанет изменяться. Итоговое количество классов,на которые был разбит временной ряд, определяется лишь по окончаниитренировки МСП.

В результате работы АФГК участки временного ряда с одинаковой илиблизкой динамикой оказываются отнесенными к одному и тому же классу,а весь временной ряд разбивается на сегменты с указанием типа динамики.

Алгоритм построения ИНК при анализе временных рядов с переклю-чающейся динамикой также аналогичен случаю анализа статических объ-

УДК 001(06)+004.032.26 (06) Нейронные сети 229

Page 230: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ектов. Сеть следующего уровня не строится, если после окончания трени-ровки все образцы объединены в один класс. В этом случае будем считать,что в рассматриваемом временном ряду выделение дополнительных ти-пов динамики не представляется возможным. Сеть следующего уровня нестроится и для классов, состоящих из сегментов, каждый из которых непревышает двойного размера МРС. Такие классы разделять на более мел-кие сегменты нецелесообразно, так как их размер сравним со временемжизни динамики одного типа.

Для всех остальных классов строятся сети следующего уровня иерар-хии. Все образцы, принадлежащие одному такому классу, снова разби-ваются на сегменты размера МРС. Количество выходных нейронов в сетиследующего уровня равно количеству получившихся сегментов. Процедураобучения получившейся сети аналогична обучению базовой сети. Особен-ностью процедуры является то, что теперь мы рассматриваем временнойряд не как непрерывный, а как состоящий из выделенных на предыдущемуровне иерархии участков временного ряда, которые могут не являтьсясмежными. Поэтому алгоритм сегментации применяется к каждому тако-му участку временного ряда по отдельности.

Описание алгоритма анализа временных рядов с дрейфовойдинамикой

Одним из главных предположений, которое было положено в основу опи-санного выше алгоритма анализа временных рядов с переключающейсядинамикой, являлось предположение о мгновенном переключении междуразличными типами динамики. Однако на практике данное условие выпол-няется далеко не всегда. Одним из наиболее очевидных предположенийявляется наличие достаточно широкого участка «дрейфа». В рамках этоймодели, на участке дрейфа предполагается одновременное существованиенескольких типов динамики, причем типы динамики плавно трансформи-руются один в другой (дрейфуют) в течение некоторого достаточно значи-тельного интервала времени. Например, в модельных задачах рассматри-вался дрейф вида:

f(t) = a(t) ∗ fL(t) + (1− a(t)) ∗ fR(t), (2)

где fL и fR — функции, описывающие динамику в сегментах, располо-женных слева и справа от переходного участка, соответственно, а a(t) —функция, линейно нарастающая от 0 до 1 на участке дрейфа.

230 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 231: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

Очевидно, что заложенные в существовавший алгоритм ограниченияпозволяли относить такие участки только к какому-либо одному классу, чтоприводило к тому, что при сегментации появлялись хаотические перескокиот класса к классу на коротком временном интервале

Обобщение алгоритма АФГК на случай дрейфового характера измене-ния типа динамики заключается в следующем.

Будем рассматривать ответ нейронной сети (множество активностейнейронов выходного слоя Oj(Si), j = 1, . . . ,K) на предъявление примераSi (i = 1, . . . , N) как оценку вероятности принадлежности данного при-мера к каждому из K классов. Учтем предположение о плавном характереизменения типа динамики во временном ряде с характерным масштабом,равным минимальному времени жизни одного типа динамики. С другойстороны, ответы НС на предъявление разных примеров являются статисти-чески независимыми, поскольку используемая архитектура (МСП) не имеетвнутренней памяти. Исходя из этого, можно оценить функцию распреде-ления вероятностей принадлежности примера S к каждому из K классовпутем усреднения ответов НС по окну анализа шириной W :

Pj =∑

Oj(Si))/W, i = 1, . . . ,W, j = 1, . . . ,K,

где суммирование ведется по всем примерам Si, попадающим в окно ана-лиза.

Будем считать незначимыми классы m, для которых выполняется усло-вие

Pm < Pwin/5, где Pwin = argmax(Pj), j = 1, . . . ,K,

и для таких классов примем Pm = 0. Наконец, перенормируем суммувероятностей для оставшихся классов на 1. Полученный вектор Pm ис-пользуется как желаемый ответ для примера S.

Таким образом, предлагаемый алгоритм может отнести данный при-мер не к одному классу (за принадлежность к которому проголосовалобольшинство представителей), а одновременно ко всему набору «классов-кандидатов». Благодаря тому, что в желаемом ответе допускается наличиенескольких классов, во время тренировки для каждого примера будет най-дена наиболее предпочтительная группа классов.

Если тип динамики какого-то участка анализируемого временного рядасостоит из примеров, каждый из которых классифицируется однозначно, товесь этот участок будет отнесен к единственному классу. Если же этот уча-сток принадлежит области предполагаемого дрейфа, то на отдельных его

УДК 001(06)+004.032.26 (06) Нейронные сети 231

Page 232: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

фрагментах будут доминировать различные типы динамики. Заметим, чтоанализ процесса изменения амплитуд ответов нейросети на участке дрей-фа позволяет получать количественную информацию о характере дрейфаодного типа динамики в другой.

Эксперименты с псевдо-хаотическими временными рядами

В модельных экспериментах использовалась задача определения границпсевдохаотических последовательностей x(t + 1) = fi(x(t)), i = 1, 2, 3, 4,где:

1. f1(x) = 4x(1− x), x ∈ [0, 1]; logistic map

2. f2(x) = 2x, x ∈ [0, 0.5), 2(1− x), x ∈ [0.5, 1]; tent map

3. f3(x) = f1(f1(x)); double logistic map

4. f4(x) = f2(f2(x)); double tent map

Эти последовательности чередовались, генерируя (в разных экспери-ментах) по 25–125 точек каждая, а общая длина тренировочного набораданных составляла 1000–2400 точек. Затем временной ряд линейно нор-мировался к нулевому среднему и единичному стандартному отклонению.Пример для тренировки нейросети формировался из пяти последователь-ных значений полученного временного ряда. Принадлежность примера кклассу определялась по тому, к какому классу принадлежит последняя (са-мая правая) точка отрезка.

На начальной стадии исследовались временные ряды с переключаю-щейся динамикой. Границы между сегментами в процессе работы алгорит-ма считались фиксированными.

В первом эксперименте каждая из псевдохаотических последователь-ностей поочередно генерировала по 50 точек, и этот процесс был повторен5 раз. Таким образом, общая длина временного ряда составила 1000 точек.Этот ряд был поделен на 40 сегментов по 25 точек, поэтому первоначаль-но в задаче было 40 классов. Общий процент распознавания этого ИНКсоставил 96.1%. Заметим, что классификация того же временного ряда в 4класса, соответствующие 4 последовательностям, с помощью обыкновен-ного МСП дает лишь около 95%.

232 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 233: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

Classes 1 - 40 98.3 %

Classes 1 - 27 Classes 37-40 100 %

Classes 28 - 36

Classes 37 - 39 Classes 40

logistic map tent map

double logistic map double tent map

(a)

0

1

2

3

4

1 201 401 601 801 1001 1201 1401 1601 1801

(b)

РИС. 8. Вверху – ИНК, построенный в эксперименте с сильным дисба-лансом представительности классов (пропорция 27 : 9 : 3 : 1). Общийпроцент распознавания ИНК 98.3%. Внизу — сегментация временногоряда, полученная с помощью построенного ИНК (номер псевдохаоти-ческой последовательности, к которой была отнесена каждая точкавременного ряда, в зависимости от номера точки; нуль соответствуетнераспознанным образам)

Был также проделан набор экспериментов с несбалансированными клас-сами, когда некоторые псевдохаотические последовательности давали зна-чительно больше точек, чем другие. Наиболее сильный дисбаланс исполь-зовался в эксперименте, результаты которого представлены на рис. 8.

Было взято 1350 точек logistic map, 450 точек tent map, 150 точек doublelogistic map и только 50 точек double tent map. Таким образом, пропорция

УДК 001(06)+004.032.26 (06) Нейронные сети 233

Page 234: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

между последовательностями была 27 : 9 : 3 : 1. Размер тренировочногонабора составил 2000 примеров. Этот набор был разделен на 40 сегментовпо 50 точек в каждом. Общий процент распознавания ИНК, представлен-ного на рис. 8, составил 98.3%. Проценты распознавания для каждой изпоследовательностей были следующими: logistic — 99.33%, tent — 98.2%,double logistic — 91.4%, double tent — 92%.

В следующей серии экспериментов в процессе работы алгоритму разре-шалось подстраивать положение границ сегментов. Опишем один из такихэкспериментов. Все четыре последовательности поочередно генерировалипо 100 точек. Процесс был повторен 5 раз, в результате общая длина вре-менного ряда составила 2000 точек. Весь набор был разбит на 47 сегментапо 43 примера в каждом (кроме последнего сегмента, принадлежащего f4, вкотором было 22 примера), причем 13 из 47 сегментов содержали примеры,принадлежащие различным последовательностям. Таким образом, во мно-гих сегментах присутствовало изменение типа динамики, и ожидалось, чтоалгоритм передвинет границы сегментов соответственно. Значение МРСбыло выбрано равным 10, скорость обучения 0.01.

РИС. 9. Результат сегментации модельного временного ряда после под-стройки положения границ сегментов. Вертикальные линии — грани-цы сегментов при начальном разбиении

Общий процент распознавания ИНК составил 98% при точно опреде-ленных границах каждого типа динамики. Границы сегментов были пере-двинуты алгоритмом таким образом, что к каждому сегменту принадлежатпримеры практически только одного типа динамики (рис. 9).

234 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 235: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

В последней серии экспериментов исследовались временные ряды сдрейфовым характером изменения типа динамики.

Последовательности f1–f4 поочередно генерировали по 100 точек, спереходными участками шириной 50 точек. Процесс был повторен 4 раза,и в результате общая длина временного ряда составила 2400 точек. Весьнабор был разбит на 48 сегментов по 50 примеров в каждом.

Для анализа полученного временного ряда использовалась нейросеть с5 входными нейронами, 20 нейронами в скрытом слое и 48 нейронами ввыходном слое. Сеть тренировалась со скоростью 0.01. С шагом в 200 эпохдля каждого примера из временного ряда вычислялась оценка вероятностиего принадлежности к каждому из классов, путем усреднения ответов НСв окне анализа шириной 50 точек.

0

1

2

3

4

1 201 401 601 801 1001 1201 1401 1601 1801 2001 2201

РИС. 10. Результат сегментации модельного временного ряда, в кото-ром переключение типа динамики носит дрейфовый характер. Видно,что на участках дрейфа одновременно существуют два типа динамики

На рис. 10 приведен результат сегментации описанной псевдохаотиче-ской последовательности с помощью разработанного алгоритма. На гра-фике показаны существующие в каждый момент времени типы динамики,определенные в результате работы алгоритма. Видно, что на участках дрей-фа одновременно существуют два типа динамики.

УДК 001(06)+004.032.26 (06) Нейронные сети 235

Page 236: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Эксперименты с биомедицинскими данными

Описанный алгоритм построения ИНК был применен для анализа запи-сей физиологического изменения параметров дыхания (респираторные дан-ные), снятых у здоровых людей во время дневного сна. Задача заключаласьв разбиении временного ряда (10–15 тысяч точек, рис. 11, верхний график)на сегменты с различными типами динамики, соответствующими опреде-ленным стадиям сна. Сегментация, полученная с помощью ИНК (рис. 11,нижний график), сравнивалась с ручной разметкой временного ряда меди-цинским экспертом (рис. 11, средний график). Экспертная разметка вклю-чала 5 классов (W1/W2 — две фазы бодрствования, S1/S2 — две фазы сна, иартефакт) [20]. Данные для этого эксперимента доступны в Интернете [21].

РИС. 11. Анализ биомедицинских данных. Сверху вниз: анализи-руемый временной ряд (респираторные данные); ручное разбиениеэкспертом-медиком; результат сегментации данных разработаннымалгоритмом

Данные нормировались к нулевому среднему и единичному стандарт-ному отклонению. На вход нейросети подавались 16 точек временного

236 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 237: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

ряда, взятых с шагом в 6 точек. Временной ряд разбивался на сегменты по360 точек в каждом. Значение МРС было выбрано равным 180, что соот-ветствовало характерному времени существования одного типа динамики(фазы сна) по заключениям экспертов.

В табл. 2 приведены средние проценты соответствия разбиения, полу-ченного с помощью ИНК, с экспертным разбиением. Соответствие ручнойразметки с машинной сегментацией измеряется на различных уровнях точ-ности. Грубое разбиение включает в себя два класса: W = W1 ∪ W2 иS = S1 ∪ S2. В более тонком разбиении используются три класса — W1,W2 и S = S1 ∪ S2. В качестве «тестового набора» использовались дведругие записи респираторных данных, полученные для того же пациента.Для сравнения приведены также результаты из статьи.

ТАБЛИЦА 2. Средние проценты соответствия разбиения, полученногос помощью ИНК, с экспертным разбиением

РезультатИНК

РезультатИНК

Результаты[6]

Результаты[6]

Набор данных W1–W2–S W–S W1–W2–S W–SТренировочный 81.30% 86.93% 79.08% 86.33%Тестовый 59.10% 71.35% 63.92 % 75.24%

Сильное различие между процентами, полученными для тренировочно-го и тестового наборов при сегментации W1–W2–S, могут свидетельство-вать о некоторой «переученности» ИНК. Этот эффект связан, по-видимому,как с недостаточной представительностью данных, так и с тем, что однимиз основных положений алгоритма является отсутствие ограничений свер-ху на выявляемое количество различных типов динамик.

Полученные проценты, тем не менее, демонстрируют перспективностьалгоритма. Важно заметить, что эксперт давал оценку не только по ре-спираторным данным, но и на основе других физиологических сигналов,регистрировавшихся одновременно с респираторными данными (ЭЭГ, ЭКГ,электроокулограмма, артериальное давление, частота сердечных сокраще-ний), в то время как ИНК строился лишь на основе респираторных данных.

УДК 001(06)+004.032.26 (06) Нейронные сети 237

Page 238: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Работа с данными космофизического эксперимента

В качестве объекта анализа использовался временной ряд, состоящий изсреднечасовых значений скорости солнечного ветра за 1974 г. (8760 то-чек). Поскольку в данных имелись значительные (около 20%) пропуски,для их заполнения использовалась следующая процедура: пропуски сна-чала заполнялись линейно с добавлением небольшого шума и вычислялсядесятичный логарифм полученной зависимости. Затем рассчитывались ко-эффициенты вейвлет-преобразования Добеши 4-го порядка по 512 точкам(т. е. 512 часов, что составляет около 3 недель), и проводилось обратноепреобразование с отбрасыванием коэффициентов с амплитудой ниже 30%от максимальной. Отфильтрованная кривая сглаживалась путем усредне-ния по 6 часам. Анализируемый временной ряд представлен на верхнемграфике рис. 12. Расстояние между вертикальными линиями соответствуетодному обороту Солнца.

Для компактного представления динамики полученного временного ря-да в качестве входов для нейронной сети использовались 4 первые коэффи-циента вейвлет-преобразования Добеши 4-го порядка по 128 точкам (128часов, что составляет около 5 суток) и 13 задержанных значений каждо-го из этих коэффициентов (с шагом в 48 часов). Максимальная задержкасоставляла 624 часа, а размер временного окна — около 27 суток.

Для определения участков различных типов динамики временной рядразбивался на 27 сегментов по 324 точки в каждом (рис. 12, верхний гра-фик). Окно анализа составляло 162 точки. Нейронная сеть имела 56 вход-ных, 27 выходных нейронов и 5 нейронов в скрытом слое. Скорость обу-чения сети составляла 0.5.

В результате работы алгоритма была получена сегментация анализи-руемого временного ряда, представленная на рис. 12.

На среднем графике показаны амплитуды ответов наиболее активныхнейронов выходного слоя нейросети в зависимости от номера предъявлен-ного примера. На нижнем графике показано разбиение временного ряда,полученное в результате работы алгоритма (нумерация классов произволь-ная). Из рисунка видно, что был выделен один основной тип динамики(класс 3), один тип динамики с периодом проявления 4-5 оборотов Солн-ца (класс 2), и два короткоживущих типа динамики с временем существо-вания около половины оборота Солнца (классы 1 и 5). Длительностипереходных периодов между различными типами динамики составили от1/5 до половины оборота Солнца.

238 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 239: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

РИС. 12. Анализ космофизических данных. Сверху вниз: анализиру-емый временной ряд (скорость солнечного ветра в логарифмическоммасштабе); усредненные амплитуды ответов нейронной сети; получен-ная сегментация временного ряда. Вертикальные линии — начальныеграницы нечетных сегментов

Заключение

Проведенные исследования показали, что предложенный метод решениязадач классификации путем построения ИНК обеспечивает высокую эф-фективность как при решении задачи с хорошо разделимыми классами,так и при решении сложной задачи с сильно перекрывающимися клас-сами. Перечислим отличительные особенности разработанного подхода:

• Каждый узел ИНК представляет собой обычный МСП, традиционнообучаемый с учителем. Предложенная модификация алгоритма тре-

УДК 001(06)+004.032.26 (06) Нейронные сети 239

Page 240: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

нировки фактически переводит обучение МСП в режим обучения безучителя.• Образование групп классов в узлах ИНК происходит одновременно

с тренировкой соответствующего классификатора, обеспечивая опти-мальный выбор признаков.• Алгоритм формирования групп классов наследует все хорошо извест-

ные преимущества МСП, в частности, возможность тренировки напримерах, что позволяет учесть естественным образом априорнуюинформацию о сходстве группируемых образов.• Структура ИНК не задается заранее. Рекурсивное применение алго-

ритма обеспечивает адаптивное наращивание иерархических струк-тур.• Параметры алгоритма позволяют управлять топологией получаемых

ИНК.• Применение этого подхода позволяет получить структуры с высоким

процентом распознавания, достаточно устойчивые к наличию шумав тестовых данных.• Модификация алгоритма позволяет его использовать для сегмента-

ции временных рядов как с переключающейся динамикой, так и сдрейфовым характером изменения динамики.

Литература

1. Dolenko S. A., Orlov Yu. V., Persiantsev I. G., Shugai J. S., Eremin E. K. Adaptivemethod of construction of a perceptron-based hierarchical structure of classifiers// The 4th Open Russian-German Workshop on Pattern Recognition and ImageAnalysis, Valdai, Russia, March 4–8, 1996, pp. 45–49.

2. Dolenko S. A., Orlov Yu. V., Persiantsev I. G., Shugai J. S., Eremin E. K. Theperceptron-based hierarchical structure of classifiers constructed by the adaptivemethod // Pattern Recognition and Image Analysis, 1997, Vol.7, No.1, pp.24-28.

3. Dolenko S. A., Orlov Yu. V., Persiantsev I. G., Shugai J. S., Eremin E. K. Self-organising construction of hierarchical structure of multi-layer perceptrons // Proc.5th Int. Conf. on Artificial Neural Networks, Churchill College, University ofCambridge, UK, July 7–9, 1997, p. 285–290.

4. Доленко C. А., Орлов Ю. В., Персианцев И. Г., Шугай Ю. С. Использование прин-ципов самоорганизации для построения иерархических нейросетевых класси-фикаторов // 3-я конференция «Распознавание образов и анализ изображений:

240 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 241: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

И. Г. ПЕРСИАНЦЕВ

Новые информационные технологии», 1–7 декабря 1997 г., Н. Новгород. Тезисыдокладов в 2 ч., ч. 1. с. 31–35.

5. Dolenko S. A., Orlov Yu. V., Persiantsev I. G., Shugai J. S. Use of self-organizationprinciples in construction of hierarchical neural network classifiers // Pattern

Recognition and Image Analysis, 1998, Vol. 8, No. 2, pp. 122–124.

6. Dolenko S. A., Orlov Yu. V., Persiantsev I. G., Shugai J. S. Construction of hierarchicalneural classifiers by self-organizing error back-propagation // Proc. Int.ICSC/IFACSymposium on Neural Computation, Sept 23–25 1998, Vienna, Austria. Ed.M. Heiss, ICSC Academic Press International Computer Science ConventionsCanada/Switzerland, 1998, pp. 113–116.

7. Rumelhart D. E., Hinton G. E., Williams R. J. Learning internal representationsby error propagation // In: Parallel Distributed Processing: Explorations in theMicrostructures of Cognition, Vol. 1: Foundations, MIT Press, 1986, pp. 318–362.

8. Hornik K., Stinchcombe M., White H. Multilayer feedforward networks are universalapproximators // Neural Networks, 1989, Vol. 2, No. 5, pp. 359–366.

9. ELENA — Enhanced Learning for Evolutive Neural Architecture, ESPRIT BasicResearch Project Number 6891, June 1995,URL: ftp://ftp.dice.ucl.ac.be/pub/neural-nets/ELENA/databases

10. Carnegie-Mellon University Repository of Neural Network Benchmarks.URL: http://www.boltz.cs.cmu.edu

11. Рабинер Л., Шафер Р. Цифровая обработка речевых сигналов. – М: Радио исвязь, 1981.

12. Traunmuller H. Analytical expressions for the tonotopic sensory scale // J. Acoust.

Soc. Am. 1990, Vol. 88, pp. 97–100.

13. Lee G. E., Tattersall G. D., Smyth S. G. Isolated word speech recognition using aneural network based source model // BT Technol. J., 1992, Vol. 10, No. 3, pp. 38–47.

14. Pawelzik K., Kohlmorgen J., Muller K.-R. Annealed competition of experts for asegmentation and classification of switching dynamics // Neural Computation, 1996,Vol. 8, No. 2, pp. 340–356.

15. Kehagias A., Petridis V. Time-series segmentation using predictive modular neuralnetworks // Neural Computation, 1997, Vol. 9, No. 8, pp. 1691–1709.

16. Watanabe E., Nakasako N., Mitani Y. A prediction method of non-stationarytime series data by using a modular structured neural network // IEICE Trans.

Fundamentals, 1997, Vol. E80-A, No. 6, pp. 971–976.

17. Kohlmorgen J., Muller K.-R., Rittweger J., Pawelzik K. Identification ofnonstationary dynamics in physiological recordings // Biological Cybernetics, 2000,Vol. 83, pp. 73–84.

УДК 001(06)+004.032.26 (06) Нейронные сети 241

Page 242: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

18. Dolenko S. A., Orlov Yu. V., Persiantsev I. G., Shugai Yu. S. Time series analysisusing hierarchical neural network classifiers // Proc. 5th International Conferenceon Computational Intelligence And Neuroscience, Atlantic City, NJ USA, Ed.P. P. Wang, Association for Intelligent Machinery, Inc., 2000, Vol. 1, pp. 908–911.

19. Dolenko S. A., Orlov Yu. V., Persiantsev I. G., Shugai Yu. S. Solar wind data analysisusing self-organizing hierarchical neural network classifiers // Lecture Notes in

Computer Science, Eds. J. Kittler and F. Roli. Springer-Verlag Berlin Heidelberg,2001, Vol. 2096, pp. 289–298.

20. Hornik K., Stinchcombe M., White H. Multilayer feedforward networks are universalapproximation // Neural Networks, 1990, Vol. 2, No. 5, pp. 359–366.

21. URL: http://www.first.gmd.de/persons/kohlmorgen.jens/physiodata.tar.gz

Игорь Георгиевич ПЕРСИАНЦЕВ, ведущий научный сотрудник Научно-исследовательского института ядерной физики имени Д. В. СкобельцынаМГУ имени М. В. Ломоносова, доктор физико-математических наук, про-фессор. Область научных интересов: физика плазмы, спектроскопия, га-зовые лазеры, адаптивные методы обработки данных физического экспе-римента, искусственные нейронные сети, генетические алгоритмы. Имеетболее 120 научных публикаций.

Page 243: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В. Д. КОШУРИнститут космических и информационных технологий,

Сибирский федеральный университет, г. КрасноярскE-mail: [email protected]

НЕЙРОИНТЕЛЛЕКТУАЛЬНЫЕ МАТЕРИАЛЫ, СИСТЕМЫ ИКОНСТРУКЦИИ

Аннотация

Представлены основные концептуальные идеи, которые лежат в основе раз-работки новых интеллектуальных материалов, систем и конструкций. Рас-смотрены примеры адаптивных материалов и нейроуправляемых систем,которые используются для трансформации упругих и акустических полей,подавления вибраций и шума, адаптивных конструкций космических антеннбольшого диаметра. Представлена модель нейрокомпьютерной диагности-ки для неразрушающего контроля ответственных элементов техническихсистем при их эксплуатации. Приведена классификационная таблица ин-теллектуальных материалов и систем, в основе которой лежит реализацияэнергетического и информационного обмена, осуществляемого на матери-альных носителях различного пространственного масштаба от метровогодо нанометрового диапазона. Отмечены новые перспективные направленияразработок.

V. D. KOSHURInstitute of Space and Information Technology,

Siberian Federal University, Krasnoyarsk, RussiaE-mail: [email protected]

NEUROINTELLIGENT MATERIALS, SYSTEMS AND STRUCTURES

Abstract

Some basic concepts are presented underling development of new intelligentmaterials, systems and constructions. Examples of adaptive materials and neu-ral control systems are considered which are used for transformation of elasticand acoustic fields, suppression of vibrations and noise, adaptive design of largediameter space reflectors. A model of neural computer diagnostics is suggestedto inspect nondestructively major elements of technical systems during their op-erations. The classification table for intelligent materials and systems is givenbasing on power and information exchange realizations which is carried out withmaterial carriers of various spatial scales from meter to nanometer range. Somenew prospective development directions are outlined.

УДК 001(06)+004.032.26 (06) Нейронные сети 243

Page 244: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Введение

История развития человеческого общества в сфере создания искусствен-ных объектов и технических систем свидетельствует о стремлении лю-дей создавать искусственные объекты, которые обеспечивали человеку бо-лее комфортные условия жизни. В первую очередь это было связано снеобходимостью облегчения физического труда и увеличения его произ-водительности. Созидательные способности человека были направлены насоздание новых искусственных систем, которые могли бы частично илиполностью заменить человека при выполнении его функциональных обя-занностей, усиливали его интеллектуальные возможности, создавая искус-ственную окружающую среду, которая могла бы сделать жизнь человекаболее безопасной и комфортной в плане сохранения здоровья, развлеченийи получения необходимой информации.

Переход от колеса, рычага и паруса к паровозам, пароходам и самолетамбыл тесно связан с созданием таких технических подсистем, которые обла-дают свойством саморегуляции подобно инерционному механизму Уатта.Развитие электроники, теории автоматического регулирования, кибернети-ческий подход и стремление копировать некоторые свойства живых орга-низмов, привели к понятиям адаптивного поведения искусственных объ-ектов и в дальнейшем к созданию систем с элементами искусственногоинтеллекта.

Реализация в технических системах некоторых уровней искусственногоинтеллекта может быть проведена на основе мехатроники [1]. Этот терминобъединяет понятия «механизм» и «электроника», так что с помощью чув-ствительных элементов (сенсоров), источников энергии, исполнительныхэлементов (актуаторов), искусственных нейронных сетей и микрокомпью-теров можно обеспечить требуемую активную реакцию технической си-стемы на изменяющиеся внешние воздействия, то есть оснастить машину«интеллектом». Реализация возможностей нейронных сетей и ЭВМ для це-лей управления позволяют создавать оригинальные алгоритмы адаптации,слежения, распознавания, обучения [2, 3]. Мехатронные и нейроинтеллек-туальные системы представляют собой нераздельное единство механиче-ских, электронных и нейросетевых узлов, в которых осуществляется обменэнергии и информации. Для моделирования таких систем используютсядифференциальные уравнения, основанные на законах сохранения массы,импульса, энергии, соответствующие численные методы, а также мягкиевычисления, которые включают генетические алгоритмы, искусственные

244 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 245: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

нейронные сети и нечеткую логику [4].Если говорить о перспективах развития интеллектуальных материалов,

систем и процессов, то яркими примерами, но фантастическими, могутслужить проект Эрика Дрекслера самовоспроизводящихся нано-роботов имыслящий океан, описанный Станиславом Лемом в романе «Солярис».

Примеры адаптивных материалов, систем и конструкций

Слоистые композиционные материалы

Применение композиционных материалов, таких как стекло-, угле-, боро-пластиков и т. п. при создании аэрокосмической техники привело к понима-нию того, что для более эффективного использования таких материалов ихструктура должна быть оптимально спроектирована, исходя из заданныхрежимов эксплуатации конкретных композиционных элементов, то естькомпозиционный материал должен проектироваться и создаваться под кон-струкцию, учитывая особенности ее эксплуатации [5–8]. Следующий есте-ственный шаг состоит в том, чтобы композиционный материал сделатьуправляемым активным элементом системы или конструкции. Активныйкомпозиционный материал такого типа представлен на рис. 1.

Пьезокерамические вставки, слои или другие структурные элементымогут выполнять роль сенсоров и/или актуаторов, их использование ос-новано на прямом и обратном пьезоэлектрическом эффекте. Возникающиепри деформировании электрические напряжения на обкладках пьезоэлек-трического слоя дают возможность наблюдать изменения процесса дефор-мирования, а управляемые воздействия электрическим полем на пьезоэлек-трические вставки позволяет активно воздействовать и изменять характерпроцесса деформирования. Блоки управления могут быть спроектированына основе традиционных схем автоматического регулирования, например ввиде ПИД-контроллеров, а также с использованием нейронных сетей раз-личной архитектуры, что является более перспективным при реализациисложных процессов управления [9–17].

На рис. 2 и рис. 3 показаны две схемы нейросетевого управления про-цессом динамического деформирования слоистой металлокерамической пла-стины, содержащей 13 чередующихся слоев из алюминия и пьезокерамики,под действием изменяющего внешнего давления F (t) = F0 sin(ωt) на ли-цевой поверхности пластины.

УДК 001(06)+004.032.26 (06) Нейронные сети 245

Page 246: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 247: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

РИС

Page 248: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 3. Схема включения нейросетевого блока управления по типуавтоматического регулирования с выходными сигналами в виде элек-трических напряжений для шести активных слоев пьезокерамики

щений по толщине композитной пластины, vs — скорость перемещенийтыльной поверхности пластины, us — перемещение тыльной поверхностипластины, uopts = f(t, ωopt) — заданная функция перемещения тыльнойповерхности пластины с требуемой частотой ωopt.

Минимизация функционала J1 по параметрам W нейронной сети со-ответствует максимальному уменьшению колебаний тыльной поверхностипластины. Минимизация функционала J2 обеспечивает последовательнуютрансформацию упругих колебаний (приходящих с лицевой на тыльнуюповерхность пластины) к заданной форме и частоте, а настраиваемая ней-ронная сеть реализует управление для достижения поставленной цели.

Значения функционалов J1, J2 определяются в результате численно-го интегрирования в интервале t ∈ [0, T ] системы обыкновенных диф-ференциальных уравнений движения узловых масс дискретных элементовкомпозитной пластины [10–11] с дополнительными внутренними связями,выраженными в дифференциальной и алгебраической форме. Минимиза-ция функционалов (1) и (2) по параметрам W трехслойной нейронной сетипроводилась различными алгоритмами первого и нулевого порядка. Наи-более эффективными для данных задач оказались алгоритм Хука-Дживса иалгоритм случайного спуска с комбинированным обучением. Для найден-

248 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 249: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

РИС. 4. Изменение перемещений us(t) (кривая 1) при динамическомдеформировании композитной пластины в пассивном режиме и u∗

s(t)(кривая 2) для найденного нейросетевого управления (горизонтальнаяось — время t в микросекундах)

РИС. 5. Изменение скоростей vs(t) (кривая 1) при динамическом де-формировании композитной пластины в пассивном режиме и v∗

s (t)(кривая 2) для найденного нейросетевого управления (горизонталь-ная ось — время t в микросекундах)

УДК 001(06)+004.032.26 (06) Нейронные сети 249

Page 250: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 6. Графики заданного перемещения uopts = f(t, ωopt) (кривая

1) для ωopt = ω/3 и перемещения u∗∗

s (t) (кривая 2) для найденногонейросетевого управления при J2 → min (горизонтальная ось — времяt в микросекундах)

ных оптимальных параметров W∗ и рассмотренных вариантов нейросе-

тевого управления удалось осуществить уменьшение амплитуд колебанийтыльной поверхности на один десятичный порядок.

На рис. 4 приведены графики перемещений us(t) — при деформирова-нии пластины без включения управления (кривая 1), когда все пьезокерами-ческие слои пластины пассивные и u∗s(t) — для найденного нейросетевогоуправления (кривая 2) при min J1 = J1(W

∗).На рис. 5 представлены графики изменения скорости перемещения vs(t)

(кривая 1) для пассивного режима деформирования и скорости v∗s (t) (кри-вая 2) с существенным уменьшением амплитуд колебаний тыльной поверх-ности композитной пластины для найденного нейросетевого управленияпри min J1 = J1(W

∗).На рис. 6 показаны совмещенные графики для заданных перемещений

uopts = f(t, ωopt) в функционале качества J2 и перемещения u∗∗s (t), полу-ченного для найденного нейросетевого управления при min J2 = J2(W

∗∗).За счет настройки 30 параметров трехслойной нейронной сети значениефункционала J2(W) удалось уменьшить только в три раза, при этом зна-чение J2(W

∗∗) осталось еще недостаточно близким к нулю. Поэтому рас-хождение между кривыми на рис. 6 достаточно существенное, но при этом

250 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 251: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

1020

3040

5060

7080

90100

110120

1305

2.50

2.5

5

EEsve

РИС. 7. Изменение напряженности электрического поля в трех слояхкерамики при найденном нейросетевом управлении J1 → min

10

20

30

40

50

60

70

8090

100

110120

130

0.2

0.10

0.10.2

VVpas Ð ИС . 8 . Распреде ление скорос тей перемещений v ( z ; t ) композитной

плас тины в пассивном режиме де формирования

УДК 0 0 1(0 6)+0 0 4.0 3 2.26 (0 6) Ней рон н ые с ети251

Page 252: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

1020

3040

5060

7080

90100

110120

1300.2

0.10

0.1

0.2

VVsve

РИС. 9. Распределение скоростей перемещений v(z, t) композитнойпластины для найденного нейросетевого управления при J1 → min

средняя частотная характеристика u∗∗s (t) близка к заданному значениюωopt.

Чтобы представить физический процесс управления электрическиминапряжениями для схемы рис. 1 при минимизации J1, т. е. уменьшенииамплитуд колебаний на тыльной поверхности металлокерамической пла-стины, на рис. 7 в виде поверхности EEsve = E(z, t) показано изменениенапряженности электрического поля в трех слоях керамики для найденногонейросетевого управления.

Общая волновая картина деформирования металлокерамической пла-стины приведена на рис. 8 и 9.

На рис. 8 в виде поверхности V Vpas = v(z, t) показано изменение рас-пределения скоростей по толщине пластины вдоль координаты z (130 дис-кретных элементов, по 10 в каждом слое) и времени t в пассивном режимедеформирования.

На рис. 9 в виде поверхности V Vsve = v(z, t) показано изменение рас-пределения скоростей по толщине пластины и времени t для найденногонейросетевого управления электрическими напряжениями в трех четныхпьезоэлектрических слоях. Ближайшая граница поверхностей соответству-ет тыльной стороне пластины, где амплитуды скоростей перемещений, бла-годаря найденному управлению, снижены на порядок.

Анализ результатов проведенных вычислительных экспериментов с най-

252 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 253: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

денным нейросетевым управлением для подавления различных частот внеш-него воздействия из некоторого диапазона показал, что достаточной уни-версальностью или широкой адаптивностью рассмотренные виды управ-ления, к сожалению, не обладают. В частности, синоптические карты ве-сов нейронных сетей, полученных для подавления амплитуд колебаний натыльной поверхности пластины, могут сильно отличатся для различныхчастот внешних воздействий. По этой причине были проведены вычис-лительные эксперименты по поиску и настройке в определенном смыслеуниверсального нейросетевого управления для заданного интервала частотΩ = [0.5ω, 2.0ω], где ω = 5π · 10−6 1/с. При этом рассматривалась миними-зация функционала вида:

Jω1 (W) =1

1.5ωT

∫∫

Ω×[0,T ]

(vs)2dt dω

1/2

. (3)

Для решения задачи Jω1 → min требуются большие вычислительныезатраты по сравнению с рассмотренной задачей J1 → min при фиксирован-ной круговой частотой ω. При минимизации Jω1 (W) для универсальногонейросетевого управления было достигнуто снижение амплитуды колеба-ний на тыльной поверхности в 2–3 раза, но не на порядок, как это возможнодля каждой частоты в отдельности.

В дальнейшем планируется найти эффективное адаптивное управлениеза счет введения двухступенчатого управления, содержащего блок распо-знавания частоты с последующим переключением на настроенный блокуправления одной из базовых частот, конечный набор которых с требу-емой эффективностью по качеству управления перекрывает определен-ный интервал частот внешних воздействий. Данный способ управленияоснован на покрытии интервала Ω конечным набором малых окрестностей(ωi − ε, ωi + ε), где ωi для i = 1, 2, . . . , n — найденный набор базовых ча-стот, ε — допустимая погрешность в определении частоты, согласованная слокально адаптивными свойствами найденных нейросетевых управленийдля базовых частот ωi.

Найденные с помощью компьютерного моделирования варианты актив-ных материалов в виде композитных пластин с нейросетевым управлениемуказывают на возможность создания достаточно тонких слоистых преграддля гашения упругих волн не за счет демпфирования и пассивного отра-жения на границах слоев с резко изменяющимися свойствами, а за счетпоследовательной трансформации упругих волн с помощью управляемого

УДК 001(06)+004.032.26 (06) Нейронные сети 253

Page 254: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

воздействия электрическими полями на активные структурные включенияиз пьезоэлектрических материалов.

Ввиду способности управляющих и вычислительных блоков, с исполь-зованием нейрочипов, осуществлять высокое быстродействие при преобра-зовании информации, использование нейросетевых распознающих и управ-ляющих блоков как составляющих элементов комплексной системы, объ-единяющей механическую, электронную и нейросетевую подсистемы и на-зываемых Матричными Электронными Материалами (МЭМ) [9] являетсяперспективным для управления деформационными процессами в режимереального времени.

Активные композиционные панели и подавление вибраций [16,17]

На рис. 10 схематично представлен переход от пассивных материалов, си-стем и конструкций к активным управляемым системам. Третий интеллек-туальный уровень характеризуется тем, что сенсорные, актуаторные, а вдальнейшем и электронные блоки управления являются нераздельной ча-стью таких новых конструкций. Если говорить образно, то искусственныйинтеллект и исполняющие элементы погружаются в создаваемые системы,пронизывая и переплетаясь с другими элементами, так что в совокупно-сти они создают новый искусственный объект, в котором, следуя цели со-здателя, осуществляется направленный энергоинформационный обмен прицелесообразном функционировании.

На рис. 11 показано применение активных композиционных материаловдля подавления вибраций в космических аппаратах.

На рис. 12 показано статическое деформирование алюминиевой пане-ли при воздействии распределенными пьезоэлектрическими элементами сразницей потенциалов в 100 В. Этот эффект может быть использован дляуправления прогибом панелей и активного подавления вибраций.

Адаптивные конструкции космических телескопов и космическихантенн [18,19]

На рис. 13 и 14 показан общий вид адаптивной конструкции космическогоинтерферометра и фрагмент несущей стержневой фермы с актуаторнымипьезоэлектрическими элементами в стержневых элементах конструкции.Такое инженерное решение позволяет точно позиционировать конструкцию

254 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 255: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

РИС. 10. Схема перехода от пассивных к активным и интеллектуаль-ным конструкциям

РИС. 11. Подавление вибраций в космических аппаратах

УДК 001(06)+004.032.26 (06) Нейронные сети 255

Page 256: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 12. Деформирование панели с пьезоэлектрическими элементами

и управлять уровнем вибрации.На рис. 15–17 показаны конструктивные особенности адаптивных кос-

мических антенн и технология их изготовления. Управление активнымиэлементами антенн позволяет подстраивать форму поверхности рефлекто-ра антенны при нежелательных искажениях, которые могут образоватьсяиз-за неравномерного температурного деформирования антенн большогодиаметра при солнечном облучении и переходе антенны в теневую областьпланеты.

Управление акустическими полями и подавление шума

В качестве примеров управления поведением среды, на рис.18–21 показа-ны варианты активного подавления шума за счёт введения дополнительных

256 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 257: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

РИС. 13. Адаптивная конструкция космического телескопа

РИС. 14. Фрагмент несущей стержневой фермы телескопа с активнымиэлементами

УДК 001(06)+004.032.26 (06) Нейронные сети 257

Page 258: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 15. Рефлектор космической антенны с активными элементами

РИС. 16. Слои активной космической антенны

258 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 259: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

РИС. 17. Технология изготовления рефлекторов космических антенн

акустических источников в салоне автомобиля и понижения акустическо-го давления в заданной области ограниченного двумерного пространства[20, 21]. На рис. 20 и 21 показаны последовательные этапы изменения аку-стического давления в расчетной области при действии пассивного источ-ника и при действии управляемых нейронной сетью активных акустиче-ских источников. В контролируемой области S это позволяет уменьшитьсреднее акустическое давление в несколько раз.

Блоки адаптивного управления, на основе нейронных сетей при реали-зации в виде электронных схем обладают высоким быстродействием. Этопозволяет вести управление в режиме реального времени, включая микро-и миллисекундный диапазон.

Нейрокомпьютерная диагностика и неразрушающийконтроль

Разработка методов неразрушающего контроля и диагностики рабочего со-стояния ответственных элементов технических устройств является актуаль-ной задачей для энергетики, машиностроения, транспорта, авиационной икосмической техники. Снабжение ответственных элементов конструкцийразличными датчиками, которые в процессе эксплуатации выдают инфор-мацию но, как правило, косвенную о рабочем состоянии тестируемогоэлемента, а так же диагностические стенды в полной мере не решают

УДК 001(06)+004.032.26 (06) Нейронные сети 259

Page 260: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 18. Подавление шума в салоне автомобиля

РИС. 19. Двумерная область D и зона контроля акустического давле-ния S; E — пассивный акустический источник, F — активный аку-стический источник

260 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 261: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

РИС. 20. Распределение давления при действии пассивного акустиче-ского источника: (а) t = T/4, (б) t = T/2, (в) t = T

УДК 001(06)+004.032.26 (06) Нейронные сети 261

Page 262: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 21. Распределение давления при действии пассивного и двухактивных источников: (а) t = T/4, (б) t = T/2, (в) t = T

262 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 263: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

проблему контроля технической системы в режиме on-line. Одним из при-меров движения в сторону более полного и адекватного представления отекущем рабочем состоянии и надежности является система Smart Disk подиагностике работоспособности жесткого диска при записи информациина компьютере.

В рамках рассматриваемой концепции нейроинтеллектуальных матери-алов, систем и конструкций можно предложить следующую новую схемунейрокомпьютерной диагностики. В ответственный элемент конструкции,например, лопатку турбины, корпус цилиндра двигателя или поршня приизготовлении внедряется система распределенных сенсорных микро эле-ментов, так чтобы прочностные свойства детали не сильно пострадали.Затем строится детальная компьютерная модель конструкционного элемен-та с учетом изменения его структуры, т. е. специальным образом распре-деленных сенсорных включений, например в виде пьезо- или ферромаг-нитных микродатчиков. На базе компьютерной модели проводится сериямногопараметрических расчетов по определению изменения напряженно-деформируемого состояния рассматриваемого конструкционного элементас записью показаний сенсорных элементов. Это дает возможность под-готовить базу данных для обучения специализированной нейронной се-ти, которая должна эмулировать работу конструкционного элемента. Приэтом изменяющиеся параметры сенсорных элементов и информация обизменяющейся нагрузке являются входными параметрами нейронной се-ти, а выходными могут служить соответствующие данные об изменениинапряженно-деформируемого состояния моделируемого конструкционногоэлемента, например, в виде концентрации напряжений в опасных зонахвозможного разрушения. После тестирования, обученная нейронная сетьслужит информационным образом конструкционного элемента. После ееэлектронной реализации она присоединяется к конструкционному элемен-ту, так что на ее вход подаются реальные показания встроенных сенсор-ных элементов и параметры изменяющейся внешней нагрузки, а выход-ные параметры нейронной сети о текущем напряженно-деформируемомсостоянии и концентрации напряжений в режиме on-line могут передавать-ся супервизорной системе наблюдения и/или контролироваться человеком.Главный смысл нейрокомпьютерной диагностики заключается в том, чтоза счет свертки информации, полученной после детального и длительногокомпьютерного моделирования, эмулирующие нейронные сети способныпрактически мгновенно давать информацию о внутреннем состоянии кон-тролируемых элементов и технической системы в целом.

УДК 001(06)+004.032.26 (06) Нейронные сети 263

Page 264: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Page 265: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

0 1 2 3 4 5 6 7

E-0 L(0,0) L(0,7)

E-1

E-2

E-3

E-4

E-5

E-6

E-7

E-8

E-9 L(9,0) L(9,7)

(Å)

РИС. 23. Классификационная таблица интеллектуальных материалов,систем и конструкций

УДК 001(06)+004.032.26 (06) Нейронные сети 265

Page 266: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Масштаб материальных элементов в таблице обозначен: E-k = 1 ·10−k м, k = 1, 2, . . . , 9 и девятый уровень соответствует нанотехнологи-ям [22–25]. Уровни системного интеллекта условно представлены цифра-ми от 0, 1, 2, . . . , 7 по аналогии со сменой поколений ЭВМ при развитиивычислительной техники.

Рассмотрим некоторые характерные примеры заполнения клеток L(i, j)классификационной таблицы:

L(0-2,0): механизмы с простейшей само регулировкой: механизм Уатта,паровоз Ползунова, поплавковая камера, карбюратор и т. п.

L(0-3,1): жестко программируемые механизмы и приборы на исполне-ние определенных действий: механические игрушки, часы, шарман-ка, арифмометр, механическое пианино, радио, проигрыватель, маг-нитофон, манипуляторы и различные роботы первого поколения.

L(0-4, 2): роботизированные системы второго поколения с элементамиподстройки и саморегулирования: следящие системы, автопилот, про-стейшие системы анализа ситуаций и принятия решений в виде за-ранее предписанных действий.

L(3-4, 0-3): области таблицы, соответствующие структурным композит-ным материалам с адаптивными свойствами, мехатронные системы сразличным уровнем интеллектуальной реакцией на внешние воздей-ствия.

L(4-6,2-4): ультрадисперсные порошковые материалы и пленки с адап-тивными свойствами.

L(3-6,4-6): адаптивные структурные материалы и дисперсные системыс распределенным и супервизорным управлением и разветвленнойсаморегуляцией — новые прототипы Smart Materials.

L(4-7,5-6): среды и вещества с распределенным энергетическим и ин-формационным обменом, обладающие свойствами само организации— Intelligent Materials.

L(8-9,1-6): наносистемы будущего поколения, с распределенным искус-ственным интеллектом, который обеспечивается за счет управленияфизическими полями взаимодействий.

266 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 267: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

L(9,7): наносистемы, нанороботы фантастического проекта Эрика Дрексле-ра.

Другим ячейкам таблицы также может быть дана некоторая интерпре-тация новых проектных решений. При этом следует отметить объективносложившуюся тенденцию имеющихся и разрабатываемых перспективныхпроектов — группироваться вдоль главной диагонали двумерной класси-фикационной таблицы, что соответствует «сращиванию» уменьшающихсяпо пространственным размерам частицам различных веществ и носителейэнергии с информационными микроэлементами, представляя возможностьв дальнейшем осуществить управляемый и самоорганизующийся энерго-информационный обмен.

Роль нейросетевых связей распределенных по пространству структур-ного материала или многокомпонентной среды с микросенсорами и акту-аторами при нейросетевом адаптивном управлении существенно повыша-ется при реализации искусственного системного интеллекта для уровней3, 4 и 5. Какие новые идеи потребуются при проектировании и реализацииперехода к интеллектуальным материалам и системам 6-го и 7-го уровня —пока не представляется вполне ясным.

Следует отметить, что сложные комплексные адаптивные системы, ко-торые содержат подсистемы с разными масштабами материальных носи-телей и различного уровня интеллекта, могут быть построены путем объ-единения ячеек таблицы через «тоннель связей» и выходом из плоскостидвумерной таблицы в третье измерение по энергетическим параметрам.

Заключение

В этой лекции мне хотелось показать очень перспективную, наукоемкуюобласть научных исследований и новейших инженерных разработок ин-теллектуальных материалов, систем и конструкций, расчёт эффективныхпараметров которых базируется на компьютерном моделировании и мно-гоцелевой оптимизации, в основе которых лежат:

• теория искусственных нейронных сетей;• теория адаптивного управления;• механика и физика сплошных сред и композиционных материалов;• специализированные численные методы решения систем дифферен-

циальных уравнений и методов оптимизации.

УДК 001(06)+004.032.26 (06) Нейронные сети 267

Page 268: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

В силу того, что лекция, главным образом, носит ознакомительныйи обзорный характер, сложных математических формул и описание гро-моздких систем дифференциальных уравнений и специальных методов ихрешения в тексте удалось избежать, акцентируя главное внимание концеп-туальному и качественному описанию результатов. Необходимые детали иматематические подробности могут быть восстановлены по цитируемымработам.

Литература

1. Исии Т., Симояма И., Иноуэ Х., Хиросе М., Накадзима Н. Мехатроника: Пер. сяпон. – М.: Мир, 1988. – 318 с.

2. Linkens D. A., Nyongesa H. O. Learning system in intelligent control: an appraisal offuzzy, neural and genetic algorithm control applications // IEE Proc. Control Theory

and Applications. 1996, Vol. 143, No. 4, pp. 367–386. [Рус. перевод: Обучающи-еся системы в интеллектуальном управлении: сопоставление подходов, осно-ванных на размытой логике, искусственных нейронных сетях и генетическихалгоритмах. М.: ВИНИТИ. Экспресс-информация: Астронавтика и ракетодина-мика, 1997, Вып. 8, реф. 15, с. 2–36; 1997, Вып. 9, реф. 16, с. 2–24]

3. Noor A. K., Jorgensen C. C. A hard look of soft computing // Aerospace America.1996, Vol. 34, No. 9, pp. 34–39. [Рус. перевод: Мягкие вычисления и некото-рые их применения в аэрокосмических системах. – М.: ВИНИТИ. Экспресс-информация: Астронавтика и ракетодинамика, 1997, Вып. 15, реф. 27, с. 2–14]

4. Кошур В. Д. Вычислительные технологии на основе мягких вычислений // Вы-

числительные технологии, Том 10, Специальный выпуск, 2005. с. 78–83.

5. Кошур В. Д., Немировский Ю. В. Континуальные и дискретные модели динами-ческого деформирования элементов конструкций. – Новосибирск: Наука. Си-бирское отделение, 1990. – 198 с.

6. Болотин В. В., Новичков Ю. Н. Механика многослойных конструкций. – М.:Машиностроение, 1980. – 375 с.

7. Алфутов Н. А., Зиновьев П. А., Попов В. Г. Расчет многослойных пластин иоболочек из композиционных материалов. – М.: Машиностроение, 1984. – 264 с.

8. Кравчук А. С., Майборода В. П., Уржумцев Ю. С. Механика полимерных и ком-позиционных материалов: Экспериментальные и численные методы. – М.: На-ука, 1985. – 304 с.

9. Кошур В. Д. Моделирование процессов управления трансформацией упругихволн в слоистых металлокерамических композитах, концепция матричных элек-тронных материалов. // Доклады Академии наук, РАН, 1998, том 363, 2,с. 181–183. Представлена акад. Ю. И. Шокиным.

268 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 269: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

В.Д.КОШУР

10. Koshur V. D. Active and passive neural network control of shock wavestransformations in laminated metal-ceramic composites: Concept of the MatrixElectronic Materials (MEM) // Modelling and Control of Adaptive Structures /Ed. by U. Gabbert, Fortschr.-Ber. VDI Reihe 11, Nr. 268, Dusseldorf, VDI Verlag1998, pp. 361–366.

11. Кошур В. Д. Применение нейронных сетей для управления трансформацией де-формационных волн в слоистых пьезоэлектрических композитах // Труды Все-российской научно-технической конференции «Нейроинформатика-99», Часть2, Москва, МИФИ, 1999, с. 236–244.

12. Кошур В. Д. Проектирование и компьютерное моделирование интеллек-туальных матричных материалов на основе двухуровнего нейросетево-го управления // Труды Всероссийской научно-технической конференции«Нейроинформатика-2000», Часть 1, Москва, МИФИ, 2000, с. 249–254.

13. Koshur V. D. Simulation of smart composite materials of the type of MEM byusing neural network control. Proceeding of the IUTA // Proceedings of the IUTAMSymposium Smart Structures and Structronic Systems, Magdeburg, Germany, 26–29September 2000 / Ed. by U. Gabbert and H. S. Tzou, Kluwer Academic Publishers,Boston-London, 2001. – pp. 231–238.

14. Кошур В. Д. Компьютерное моделирование интеллектуальных композитных ма-териалов // Вычислительные технологии, 2001, Том 6, Часть 2, c. 218–225. Спец.выпуск — Труды международной конференции “Recent Developments in AppliedMathematics and Mechanics: Theory, Experiment and Practice” (RDAMM-2001),посвященной 80-летию акад. Н. Н. Яненко, Академгородок, Новосибирск, Рос-сия, 24–29 июня 2001.

15. Koshur V. D. Modelling of laminated metal-ceramic composites with neural networkcontrol of elastic waves transformations // Neural Network World, InternationalJournal on Non-Standard Computing and Artificial Intelligence, Vol. 12, No. 4, 2002,pp. 349–360.

16. Hanselka H. Realization of smart structure by using fiber composite materials// Proceeding of the Second Scientific Conference Smart Mechanical Systems —Adaptronics, University of Magdeburg, 18–19 March 1997, Published by Universityof Magdeburg, 1997, pp. 1–10.

17. Gabber U. Modeling and Automatic Design of Piezoelectric Controlled SmartStructures. // IUTAM Symposium on Smart Structures and Structronic Systems.Tutorial Program. 25 September, 2000. University of Magdeburg, Germany, 2000. –55 pp.

18. Dongi F. Adaptive structures in high precision satellites // Modelling and Control of

Adaptive Mechanical Structures. Nr. 268, Dusseldorf: VDI Verlag 1998, pp. 429–438.

УДК 001(06)+004.032.26 (06) Нейронные сети 269

Page 270: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

19. Melz T., Flovel M., Krajenski V., Antonia de la Torre M., Hanselka H., Moria

Pintado J. Smart antenna reflector manufactured in filament winding technology //Modelling and Control of Adaptive Mechanical Structures. Nr. 268, Dusseldorf: VDIVerlag 1998, pp. 449–458.

20. Кошур В. Д., Фадеева М. С. Нейроуправление параметрами активного источни-ка для подавления акустических волн в заданной области // Краевые задачи и

математическое моделирование, 2008. Том 1. с. 52–59.

21. Кошур В. Д., Фадеева М. С. Минимизация звукового давления по параметрамактивных источников на основе гибридного генетического алгоритма // Аку-

стический журнал, 2007. Том 53. 6. – с. 839–842.

22. Нанотехнология.URL: http://www.nanometer.ru

23. Хартман У. Очарование нанотехнологий. – М: Бином, 2008.

24. Головин Ю. И. Введение в нанотехнику. – М: Машиностроение, 2007.

25. Пул Ч., Оуэнс Ф. Нанотехнологии. – М: Техносфера, 2008.

Владимир Дмитриевич КОШУР, доктор физико-математических наук,профессор, руководитель научно-учебной лаборатории Вычислительногоэксперимента кафедры Вычислительной техники в Институте космическихи информационных технологий СФУ (г. Красноярск). Область научных ин-тересов: компьютерное моделирование задач механики сплошных сред икомпозиционных материалов; адаптивное управление и оптимизация си-стем и процессов; численные методы; параллельные и мягкие вычисления;искусственные нейронные сети, искусственный интеллект. Автор более 150публикаций и двух монографий.

Page 271: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю. И. НЕЧАЕВГосударственный морской технический университет,

Институт высокопроизводительных вычисленийи информационных систем, г. Санкт-Петербург

E-mail: [email protected]

ПРОБЛЕМЫ МОДЕЛИРОВАНИЯ ДИНАМИКИ СЛОЖНЫХСИСТЕМ ПРИ РЕАЛИЗАЦИИ НЕЙРОСЕТЕВЫХ ТЕХНОЛОГИЙ

АннотацияОбсуждаются вопросы повышения эффективности моделирования поведе-ния нелинейного динамического объекта при функционировании бортовойинтеллектуальной системы (ИС) в сложных динамических средах. Основноевнимание уделяется использованию нейронных сетей как конкурирующихвычислительных технологий при анализе и интерпретации информации.Сформулирована постановка задачи и концепция обеспечения эффектив-ности моделирования динамики объекта как существенно нелинейной си-стемы. Разработана модель представления волнения в виде климатическогоспектра сложной пространственной структуры и сформулированы сцена-рии развития шторма. Проведено компьютерное моделирование динамикивзаимодействия нелинейного объекта при различном уровне внешних воз-мущений.

Yu. NECHAEVSaint-Petersburg State Marine Technical University,

Institute for High-Performance Computing and Information Systems,Saint-Petersburg

E-mail: [email protected]

PROBLEMS OF MODELING OF COMPLEX DYNAMICS SYSTEMSFOR REALIZATION NEURAL NETWORKS TECHNOLOGY

AbstractAn efficiency increasing is discussed to simulate a behavior of nonlinear dynamicobject while functioning onboard intelligent system (IS) in complex dynamicenvironments. Major attention is focused on using of neural networks representone of competing computational technologies meant for information analysisand interpretation. An appropriate problem statement is formulated as well as anefficiency support concept to simulate object dynamics as essentially nonlinearsystem. A model of sea roughness is develop which represents it as a climaticspectrum of complex spatial structure. Some scenarios of storm progress withtime are also generated. An appropriate computer simulation are carried outto demonstrate dynamics of interaction as applies to various level of externaldisturbances.

УДК 001(06)+004.032.26 (06) Нейронные сети 271

Page 272: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Введение

Развитие науки и технолoгий в настоящее время сопровождается созданиемтехнических средств интеллектуальной поддержки, отличающаяся чрезвы-чайной сложностью, расширением круга решаемых задач и диапазономэксплуатационного использования. В этих приложениях все чаще находятприменение компьютерные технологии, основанные на использовании ме-тодов искусственного интеллекта (ИИ). Такие технологии ориентированына цепочку «моделирование–прогнозирование–принятие решений» и свя-заны с разработкой сложных интегрированных интеллектуальных систем(ИС) (рис. 1). В основу задач интеллектуальной поддержки положен инфор-мационный подход, логический базис которого заключается в выявлениии анализе информационных аспектов, имеющих принципиальное значениедля понимания глубинной сущности, тенденций и закономерностей ис-следуемой ситуации [1–50]. Анализ «информационного среза» изучаемыхситуаций позволяет сформулировать основные принципы, определяющие«скрытые» информационные процессы. В настоящее время активно разви-ваются качественно новые составляющие интеллектуальных технологий,включающие формальный аппарат математики, базирующийся на неалго-ритмическом процессе управления, обладающем естественной параллель-ностью и недетерминизмом [9, 28, 29].

РИС. 1. Архитектура интегрированной бортовой ИС

272 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 273: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

Появление ИС с динамической базой знаний потребовало пересмотраобщих принципов организации и формализации знаний, а также програм-мно-аппаратного обеспечения функционирования таких систем. Требова-ния самообучения и самоорганизации в непрерывно изменяющейся нечет-кой среде приводят к переосмысливанию содержания и алгоритмическогонаполнения адаптивной компоненты базы знаний и повышения роли ма-тематического моделирования при оценке и прогнозе поведения судна каксложного динамического объекта (ДО). Основной объем текущей инфор-мации здесь формируется не за счет формализации знаний экспертов, а отдатчиков измерительной системы. Возникли проблемы интеграции знанийи анализа альтернатив, особенно в сложных бортовых интеллектуальныхкомплексах, включающих ИС различного назначения и функционирующихв мультипроцессорной вычислительной среде с использованием нейроне-четких систем управления и принятия решений [28, 29]. Встраивание в ап-парат знаний процесса автоматического решения не только вычислитель-ных, но и логико-комбинаторных задач позволяет продвинуться в реше-нии одной из наиболее сложных проблем «инженерии знаний» — созданиясредств представления и обработки знаний [23–26].

Целью настоящей работы является рассмотрение некоторых аспектовмоделирования процессов взаимодействия ДО с внешней средой на при-мерах использования нелинейных моделей, обладающих способностями ксамоорганизации и допускающих режимы детерминированного хаотиче-ского поведения фазовых траекторий. Используемые нелинейные моделиописывают сложную динамику, включая равновесные режимы (предельныециклы), а также широкий спектр режимов детерминированного хаоса. Припрактическом использовании таких моделей при функционировании бор-товых ИС обеспечения безопасности мореплавания и посадки летательныхаппаратов морского базирования важное значение имеет надежная оценкаситуации и прогнозирование ее развития в условиях непрерывного изме-нения динамики объекта и внешней среды. Особый практический интереспредставляет построение нелинейных математических моделей, способ-ных изменять свою структуру при изменении поведения ДО на волнении.При синтезе таких алгоритмов используют различные подходы — детерми-нистский, стохастический и подход на основе принципов самоорганизации[9, 27–29]. Первые два подхода предполагают наличие в исходных данныхполного информационного базиса, т. е. всех определяющих параметров ифакторов, которые необходимо учитывать при анализе ситуации.

УДК 001(06)+004.032.26 (06) Нейронные сети 273

Page 274: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Концепция моделирования динамики внешней среды вбортовых ИС

Моделирование динамики внешней среды — одна из сложных задач,решаемых при разработке встроенных процедур и алгоритмов взаимодей-ствия судна с внешней средой при построении базы знаний бортовой ИС.Современный подход к решению этой задачи требует использования но-вых представлений о динамике ветроволновых полей на основе концепцииклиматического спектра морского волнения, официально принятой на 18Ассамблеe Межправительственной Морской Организации (IntergovernmentMarine Organization — IMO) в 1993 году вместе с понятием «волновойклимат» [33]. С помощью этих понятий открываются возможности болеедетального, по сравнению с существующей практикой, описания особенно-стей волновой погоды в конкретных районах океана. Под климатическимипонимаются спектры волнения, полученные в результате осреднения орди-нат измеренных спектров волнения для различных интервалов высот.

Морское волнение относится к геофизическим процессам мелкомас-штабного диапазона изменчивости с характерными временными и про-странственными масштабами. Волнение рассматривается как вероятност-ный процесс, зависящий от набора факторов (условий волнообразования).Изменения связаны с прохождением барических образований (синоптиче-ская изменчивость), годовой ритмикой (сезонная изменчивость) и долгопе-риодными вариациями циркуляционных процессов (межгодовая изменчи-вость).

Получение информации об экстремальных гидрометеорологических яв-лениях в рамках понятия о климатическом спектре основано на совместноммоделировании ветра, волнения и течений на основе следующих допуще-ний [33]:• Основным источником данных об океанографических процессах яв-

ляется результаты расчетов по гидродинамическим моделям дина-мики океана. Такой подход позволяет, используя данные реанализаметеорологических полей как входные данные, получать информа-ционные массивы океанографических характеристик непрерывнойпродолжительностью в несколько десятков лет.• Для статистического оценивания экстремальных характеристик, воз-

можных 1 раз в T лет, используется система стохастических моделей,описывающих совместную многомасштабную (синоптическую, се-зонную, межгодовую) изменчивость пространственно-временных по-

274 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 275: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

лей океанографических характеристик. Это позволяет методом Мон-те-Карло воспроизвести ансамбль их реализаций, экстраполируя зна-чения экстремумов на заданный временной интервал.• Экстремальность гидрометеорологического явления по отношению

к конкретному объекту определяется интегральной совокупностьювсех факторов путем рассмотрения функций риска, специфичных дляопределенных классов морских объектов и сооружений.

В настоящее время доступность глобальных (NCEP/NCAR, ERA-40) ирегиональных (SMHI, JRA25, NMI и др.) массивов реанализа метеорологи-ческих полей, эволюция гидродинамических моделей и развитие высоко-производительных вычислительных технологий сделали возможной прак-тическую реализацию данного подхода в полном объеме.

Концепция моделирования предусматривает последовательное решениетрех задач, объединенных в вычислительную цепочку. Каждая задача до-полнительно распадается на систему взаимосвязанных модулей (см. рис. 2).

1. Подготовка массива метеорологической информации. В качествевходных данных для расчета океанографических характеристик (ветровоговолнения, течений и уровня моря) могут быть использованы поля атмо-сферного давления и скорости приводного ветра на основе данных реана-лиза. Процедура усвоения может проводиться как для каждой метеорологи-ческой величины независимо, так и путем пересчета одних величин черездругие.

2. Формирование массива полей океанографических характеристикна основе гидродинамических моделей. Использование массива метео-рологической информации как входных данных позволяет выполнить сов-местное гидродинамическое моделирование волнения, течений и уровняморя, что обусловлено необходимостью учета фактической глубины аква-тории по разгону волн. В том случае, когда штормовые колебания уровняморя обычно сопровождаются развитым ветровым волнением, этот эффектможет привести к появлению существенно больших волн, чем предельновозможные при среднем многолетнем положении уровня моря.

Гидродинамическая модель волнения в спектральной форме представ-ляется как уравнение баланса волновой энергии:

∂N

∂t+∂N

∂ϕϕ+

∂N

∂θθ +

∂N

∂kk +

∂N

∂ββ +

∂N

∂ωω = G. (1)

Здесь N — спектральная плотность волнового действия; она являетсяфункцией от широты ϕ, долготы θ, волнового числа k и угла β между

УДК 001(06)+004.032.26 (06) Нейронные сети 275

Page 276: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 2. Комплексная технология моделирования ветра, волнения, те-чений и уровня моря

направлением волнового вектора и параллелью, а также от частоты ω ивремени t.

Это уравнение связывает между собой явления притока энергии ответра, диссипации и ее перераспределения и нелинейного взаимодействиямежду частотными составляющими процесса волнения. Чаще всего функ-ция источника G записывается в виде суммы трех компонент G = Gin +Gnl+Gds (поступления энергии от ветра к волнам, слабонелинейного взаи-модействия в спектре ветрового волнения и диссипации волновой энергии,соответственно).

Для расчетов уровня моря и течений в общем случае используетсятрехмерная гидродинамическая бароклинная модель со свободной поверх-ностью. Исходная система уравнений в декартовой системе координат вприближении гидростатики и плоскости записывается в виде:

∂u

∂x+∂v

∂y+∂w

∂z= 0, (2)

∂u

∂t+

∂x(uu) +

∂y(vu) +

∂z(wu)− fv = (3)

276 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 277: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 278: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

разных классов. Для воспроизведения океанографических полей в мелко-масштабном (секунды-часы) диапазоне изменчивости применена модель вформе динамической системы с учетом управляющих факторов η(~v):

ζ~v =

~N∑

~j=~0

Φ~jζ~v−~j +

~p∑

~k=~0

Θ~kε~v−~k +

~M∑

~i=1

Ξ~iη~v−~i. (9)

Здесь Φ~j , Θ~j — матричные коэффициенты авторегрессии и скользящегосреднего. Зависимость между η и ζ задается значениями весовой функции(функции отклика) Ξ~i.

Для воспроизведения синоптической изменчивости (перемежаемостиштормов и окон погоды) использовано импульсное представление про-странственно-временного поля в форме:

ζ(~r, t) =∑

j

ajWj(t, ~r) =∑

j

ajW(k)j (~r,Ξj), Ξj = Ξj(t), (10)

где W (k)j (•) — пространственно-временные (временные) импульсы (выбро-

сы выше и ниже уровня Z), движущиеся вдоль определенной траектории~r = ~r(t), возникающие и исчезающие случайным образом. Коэффициентыak суть интенсивности импульсов. Форма импульса, управляемая парамет-ром k, определяется задачей исследования; для описания экстремальныхявлений допустимо аппроксимироватьWj(•) по t треугольным импульсом.

Описание сезонной и межгодовой изменчивости требует применениядругого класса моделей на основе ортогональных разложений по канони-ческому базису (естественные ортогональные функции):

ζ(~r, t) = m(~r, t) +

s∑

k=1

ak(t)φk(~r, t) + ε(~r, t). (11)

Скалярные коэффициенты разложения ak = ak(t) суть общие факторы,управляющие изменчивостью основных конфигураций поля, а ε – специ-фический фактор, характеризующий случайные вариации значений поляв каждой точке ~r в момент времени t. Модель (11) обобщается для опи-сания регрессионной взаимосвязи исходного поля ζ(~r, t) с несколькимиуправляющими факторами — в форме линейной динамической системы (9)относительно коэффициентов их разложения по каноническим базисам.Применение комплекса стохастических моделей (9)–(11) лежит в основе

278 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 279: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

метода оценивания экстремальных явлений BOLIVAR, позволяющего по-лучить оценки сочетаний гидрометеорологических характеристик, возмож-ных 1 раз в T лет.

В работе [33] приведены примеры типизации частотных и частотно-направленных спектров волнения на основе предложенной процедуры клас-сификации, основанной на методах многомерного статистического анализа.На рис. 3 приведен пример классификации частотно-направленных спек-тров для Баренцева моря.

РИС. 3. Типовые нормированные спектры морского волнения

Здесь выделено 6 классов морского волнения: A — зыбь; B — ветровоеволнение; C — смешанное волнение с разделением систем и преобладани-ем зыби; D — смешанное волнение с разделением систем и преобладаниемветрового волнения; E — смешанное волнение без разделения систем спреобладанием зыби; F — смешанное волнение без разделения систем спреобладанием ветрового волнения. Градуировка на графиках спектраль-ной плотности S(ω)/Smax по вертикальной оси; ω, c−1 по горизонтальной

УДК 001(06)+004.032.26 (06) Нейронные сети 279

Page 280: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

оси.Пространственная картина некоторых конфигураций климатических спек-

тров приведена на рис. 4 в виде сложной динамической структуры.

РИС. 4. Пример многопикового направленного волнового спектра: на-чальный пример и последовательные шаги метода

Следует отметить, что стандартные расчеты, выполняемые при оцен-ке динамики сложных объектов на реальном морском волнении без учетапонятия о климатическом спектре могут приводить к существенному от-личию результатов и нередким ошибкам в опасную сторону по сравнениюс данными, полученными при использовании различных модификаций од-нопикового спектра, принятого в практике проектирования морских соору-жений. Поэтому при разработке бортовых ИС, предназначенных для кон-

280 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 281: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

троля поведения ДО под воздействием реальных динамических нагрузок вэкстремальных ситуациях, игнорирование представления о климатическомспектре недопустимо, поскольку ошибки в опасную сторону могут при-вести к катастрофическом последствиям. Анализ климатических спектровморского волнения с использованием нейросетевых технологий открыва-ет большие возможности реализации алгоритмов обработки информации одинамике внешней среды при функционировании бортовых ИС в режимереального времени [26].

Исходные данные о текущей ситуации при функционировании ИC по-лучают путем обработки информации, получаемой от датчиков измери-тельного комплекса (рис. 1). Обработка этой информации реализуется врежиме реального времени и позволяет «настроить» ИС на решение задачинтерпретации текущей ситуации. Алгоритмы анализа и прогноза ситу-ации базируются на изобретениях автора, позволяющих восстанавливатьтекущие характеристики волнения и параметры ДО (метацентрическуювысоту и аппликату центра тяжести), а также построить фактические зна-чения функций принадлежности, определяющие логику функционированиядинамической базы знаний (оценку опасности ситуации и прогноз ее раз-вития) на основе фактических данных о состоянии внешней среды и ДО.В этих приложениях находит широкое применение принцип конкуренции,определяющий парадигму обработки информации в мультипроцессорнойвычислительной среде с использованием методов классической математикии нейросетевых технологий.

Моделирование динамики объекта как нелинейнойдиссипативной системы

Динамика нелинейных систем — одна из быстро развивающихся областейпрактических приложений методов и моделей в задачах управления и при-нятия решений. Математические модели, характеризующие нелинейнуюдинамику, обладают специфическими свойствами — единой структурой иобщим признаком нелинейности. Слабая нелинейность — уже давно заво-еванный наукой рубеж. Здесь существуют общие методы решения и раз-работаны эффективные алгоритмы для практических приложений. Методырешения задач с более сильными проявлениями нелинейности основаны насложных математических построениях и использовании современных вы-числительных средств [9]. Анализ нелинейностей позволяет вскрыть осо-

УДК 001(06)+004.032.26 (06) Нейронные сети 281

Page 282: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

бенности задачи, где заложены возможности нетривиальных решений, ипостроить общую теорию, описывающую поведение нелинейных систем.Наличие колебательных режимов большой амплитуды включает в действиеновую физическую связь, «дремавшую» в случае слабых возмущений. Неслучайно эта проблема занимает сейчас умы многих исследователей в раз-личных сферах научной деятельности, в том числе и при решении проблемдинамики корабля и посадки летательных аппаратов морского базирования[9, 29].

Нелинейные модели динамики объекта на волнении характеризуютсярядом особенностей. Учет этих особенностей приводит к необходимостипоиска эффективных алгоритмов реализации модели взаимодействия [3, 8]:

• наличие неопределенности в описании внешних сил (ветро-волновыевозмущения), из-за которой возникают трудности с формированиемначальных условий задачи;• необходимость учета сложной пространственной нелинейной функ-

ции, описывающей восстанавливающий момент на волнении, кор-ректность определения которой связана с учетом интерференцион-ной компоненты, методов расчета которой (вследствие чрезвычайнойсложности нелинейной задачи гидродинамики) до настоящего време-ни не предложено;• трудности математического описания некоторых задач остойчивости,

формализация которых может быть достигнута только на основе ги-потез и обобщающих предположений.

Указанные особенности определили новую парадигму, определяющуюразличные подходы к решению задач динамики объекта на волнении:

• детерминистический подход, при реализации которого динамика си-стемы полностью определяется формулировкой начальных условийисследуемой математической модели;• стохастический подход, при котором начальные условия задачи не

определены, трудно формализуемы и не могут быть корректно сфор-мулированы вследствие стохастичности исследуемого процесса вза-имодействия.

При решении задач первого направления формулировка модели взаи-модействия основывается на достаточно простых расчетных схемах ветро-волновых возмущений. В частности, воздействие ветра представляется ввиде отработанных расчетных схем, которые нашли применение в практике

282 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 283: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

нормирования, а волнение аппроксимируется гармоническими функциями,либо в виде трохоиды [8, 22]. При исследовании стохастических системнаиболее эффектный путь состоит в формулировкe начальных условий «надругом конце» задачи и интегрировании системы дифференциальных урав-нений в обратном времени c использованием метода функционала действия[9, 13].

Рассмотрим морской ДО как динамическую систему с шестью степе-нями свободы. Поведение ДО можно описать системой нелинейных диф-ференциальных уравнений [13, 22]:

Fi[xi, xi, xi, t,Xi1, . . . , Xim, Yi1, . . . , Yin] = 0, (12)

где Fi(•) — нелинейные функции; xi — линейные и угловые перемещения;Xi1, . . . , Xim — параметры, характеризующие судно как динамическую си-стему (инерционные, демпфирующие и восстанавливающие компоненты);Yi1, . . . , Yin — возмущающие силы и моменты; i = 1, 2, . . . , 6.

Реализация системы (12) на современных быстродействующих компью-терах не представляет принципиальных затруднений. Однако в практиче-ских задачах динамики принято рассматривать вполне определенные поло-жения ДО на волнении (носом на волну, лагом к волне, на попутном вол-нении). Учитывая симметрию корпуса относительно диаметральной плос-кости, а также незначительную асимметрию относительно миделя, можноупростить исходную систему (12), иногда использовать и отдельные урав-нения, пригодные в каждом конкретном случае ориентации ДО относи-тельно генерального направления бега волн.

Наиболее сложной функцией в системе (12) является восстанавливаю-щая компонента, входящая в дифференциальное уравнение бортовой кач-ки. Восстанавливающая компонента отличается существенной нелинейно-стью, сложностью и многозначностью. Непрерывно изменяясь во времении пространстве, эта функция в значительной степени определяет результатинтегрирования системы (12) при изучении физических картин взаимодей-ствия ДО с внешней средой. Математическое описание нелинейной про-странственной функции восстанавливающего момента на волнении осно-вано на обработки систематических испытаний моделей различных типовсудов и представляется формулой [22].

MW = M(θ, ϕ, t) = D[l(θ, ϕ) + ∆l(θ, ϕ) cos(σkt− ε)]; (13)

l(θ, ϕ) = 0, 5[l(θ, ϕ)max + l(θ, ϕ)min],

УДК 001(06)+004.032.26 (06) Нейронные сети 283

Page 284: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

∆l(θ, ϕ) = 0, 5[∆l(θ, ϕ)max + ∆l(θ, ϕ)min];

MW = ϕ(θ, ϕk, t) = Dl(θ, ϕ, t),

где ∆l(θ, ϕ)max и ∆l(θ, ϕ)min — экстремальные значения приращений плечостойчивости, соответствующие положению судна на подошве и вершиневолны при различных курсовых углах ϕ; l(θ, ϕ, t) — плечо восстанавливаю-щего момента, определяемого для различных моментов времени, ε — фаза:ε = 0 и 2π — ДО на подошве волны; ε = π/2 — на переднем склоне; ε = π— на вершине волны; ε = 3/2π — на заднем склоне.

Типичными математическими моделями, используемыми при разработ-ке динамической модели знаний в бортовых ИС реального времени, явля-ются [8, 13, 30]:

• Математическая модель, описывающая поведение ДО в экстремаль-ных ситуациях с помощью системы дифференциальных уравненийбортовой, вертикальной и килевой качки:

(Jx + µθθ)θ′′ +MR(θ′) +M(θ, ϕk, t) = Mx(t);

(D/g + µ33)ζ′′G + vζζ

′G + gSζG + µ33x1ψ

′′ + (vζψ − v0µ33)ψ′+

+(gSl− v0vζ)ψ = −r0(ga0 − σ2a′′0 − σb′0) cosσt−−r0(gb0 − σ2b′′0 + σa′0) sinσt;(Jy + µ55)ψ

′′ + [vζ + (v20/σ

2)vζ ]ψ′′ + (DHψ − v2

0µ33)ψ++µ33x1ζ

′′G + (vζψ + v0µ33)ζ

′G + (gSl+ v0vζ)ζg =

= −r0(ga1 − σ2a′′1 − σb′1) cos σt−−r0(gb1 − σ2b′′1 + σa′1) sinσt,

(14)где (Jx+µθθ)θ

′′,MR(θ′),M(θ, ϕk, t),Mx(t) — инерционная, демпфи-рующая, восстанавливающая и возмущающая компоненты; осталь-ные обозначения соответствуют принятым в работax [8, 13, 30].

• Математическая модель, описывающая поведение ДО в условиях по-тери управляемости и внезапного разворота на попутном волнении(режим «брочинг») с помощью системы дифференциальных урав-нений продольно-горизонтальной, поперечно-горизонтальной, борто-

284 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 285: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК
Page 286: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Нейроаппроксимация и нейропрогноз при контролеэкстремальных ситуаций в сложных динамических средах

Исследования и разработки в области ИИ позволяют рассматривать бор-товую ИС как сложную, целостную открытую систему, представляющуюсобой совокупность динамических структур, согласованно выполняющихфункции, обеспечивающие целенаправленное поведение системы в раз-личных условиях эксплуатации. Одной из центральных задач анализа иобобщения результатов исследований является построение интегрирован-ных ИС, использующих методы и модели нечеткого и нейросетевого логи-ческого базиса. Это позволяет более гибко и адекватно описывать феноменповедения судна как сложного ДО в условиях неопределенности и непол-ноты исходной информации.

Нейроаппроксимация в задачах контроля динамики сложногообъекта

Рассмотрим задачу структурного и параметрического синтеза нейронныхсетей для конкретных приложений в бортовых ИС. Процедуры конструи-рования связаны с решением задач, позволяющих определить топологиюсети (общее число нейронов в сети и число нейронов по слоям) и функ-ции активации, способы задания коэффициентов синoптических связей иоценки работоспособности сформированных нейросетевых моделей. Ис-ходной информацией при конструировании нейронной сети являются век-торы входного и выходного сигналов, формулировка задачи и точности еерешения.

Основным этапом нейросетевого моделирования является постановкаи решение задачи аппроксимации на основе нейросетевого логическогобазиса [12, 32] в рамках которого осуществляются:

• описание исходных данных и желаемого выходного сигнала, опреде-ление вектора сигнала ошибки, формирование функционала оптими-зации через сигналы в системе и выбор метода поиска экстремумаэтого функционала;• аналитическое определение преобразования информации в нейрон-

ной сети и выбор конкретной ее структуры, нахождение аналитиче-ского выражения для градиента функционала оптимизации постав-ленной задачи и выбор начальных условий при настройке сети;

286 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 287: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

• выбор типовых входных сигналов для тестирования процесса реше-ния задачи и разработка плана эксперимента.

Обобщенная схема, характеризующая этапы разработки ИНС представ-лена на рис. 5.

При проектировании ИНС возникает задача выбора оптимальной струк-туры сети. Под оптимальной структурой понимается такая топология сети(числа скрытых слоев и нейронов в слоях), при которой обеспечиваетсямаксимум ее обобщающих способностей, т. е. минимум ошибки обобще-ния (generalization error). Это особенно важно в случае недостаточной ис-ходной информации, особенно отсутствия независимой тестовой выборкиэкспериментальных данных.

При решении задачи структурного и параметрического синтеза широкоиспользуется парадигма «кривых обучения» (learning curves), представля-ющих собой зависимости ошибок обучения и обобщения от размеров ИНСи обучающей выборки. Оптимуму размера сети соответствуют локальныеминимумы или моменты выхода графиков на асимптоты.

РИС. 5. Поток информации при формировании и обучении нейроннойсети

Другим классом кривых обучения являются зависимости «внутренних»свойств нейросети от ее размера, сопоставляемые затем с динамикой ошиб-ки обобщения. Вариантами этого класса являются:

УДК 001(06)+004.032.26 (06) Нейронные сети 287

Page 288: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

• анализ внутреннего представления (internal representation) задачи,• теоретическая связь ошибки обучения и максимума суммы модулей

весов синапсов, приходящих на нейрон сети,• критерий, позволяющий оценить разницу между ошибками обучения

и обобщения.

Указанные критерии во многих случаях позволяют обходиться без неза-висимой тестовой выборки.

Таким образом, алгоритм обучения нейронной сети представляется по-следовательностью взаимозависимых этапов. Каждый этап состоит из со-вокупности выполняемых параллельно независимых операций.

Вычисление выходов нейронов на основе обучающего примера имеетвид [12, 32]:

• для скрытого слоя

y(1)j (t) = ϕ

(i∑

l=1

w(1)ij (t)xi(t) + b

(1)j

); (17)

• для выходного слоя

y(2)j (t) = ϕ

(i∑

l=1

w(2)ij (t)y

(1)i (t) + b

(1)k

), (18)

где w(1)ij — синаптический вес связи i-го входа с j-м нейроном; X =

[x1, . . . , xi] — вектор входных сигналов; b(1)j — порог j-го нейрона

скрытого слоя; w(2)jk — синоптический вес связи j-го выхода нейрона

скрытого слоя с k-м нейроном выходного слоя; b(2)k — порог k-гонейрона выходного слоя; ϕ(•) — функция активации нейрона.

При реализации параллельных вычислений на многопроцессорном бор-товом вычислительном комплексе эти соотношения можно представить вматричном виде как умножение матрицы весовых коэффициентов W (1)

скрытого слоя на вектор входа X матрицы весовых коэффициентов W (2)

выходного слоя на вектор Y (1) (выход скрытого слоя) [2]:

Y (1) = ϕ(W (1)TX +B(1)) =

288 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 289: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

= ϕ

w(1)11 w

(1)21 . . . w

(1)i1

w(1)12 w

(1)22 . . . w

(1)i2

. . .

w(1)1j w

(1)2j . . . w

(1)ij

×

x1

x2

. . .xi

+

b(1)1

b(1)2

. . .

b(1)j

(19)

Y (2) = ϕ(W (2)TY (1) +B(2)) =

= ϕ

w(2)11 w

(2)21 . . . w

(2)i1

w(2)12 w

(2)22 . . . w

(2)i2

. . .

w(2)1k w

(2)2k . . . w

(2)ik

×

y(1)1

y(1)2

. . .

y(1)j

+

b(2)1

b(2)2

. . .

b(2)k

(20)

Ошибка реакции сети вычисляется по формулам:

• для выходного слояδ(2)k (t) = ek(t); (21)

• для скрытого слоя

δ(1)j (t) =

k∑

l=1

δ(2)l w

(2)ij (t)y

(1)j (t). (22)

Для всех слоев сети настройка весовых коэффициентов осуществляетсяв соответствии с формулой:

w(L)ij (t+ 1) = αw

(L)ij (t) + ηδ

(L)j (t)y

(L)j (t), (23)

где α — постоянная момента; η — параметр скорости обучения; δ(L)j —

локальный градиент j-го нейрона; L — количество слоев.Этот общий алгоритм параллельной обработки информации может быть

использован при обучении многослойного персептрона в составе интегри-рованной нейронной сети анализа и интерпретации экстремальных ситу-аций, а также для универсального алгоритма обучения, реализуемого сиспользованием методов регуляризации.

Структура нейросетевого ансамбля для построения классификатора эта-лонных моделей климатических спектров морского волнения представленана рис. 6. Ансамбль состоит из группы RBF сетей, воспринимающих ин-формацию от измерительной системы. Каждая сеть имеет m входов, на

УДК 001(06)+004.032.26 (06) Нейронные сети 289

Page 290: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

которые подается вектор измерений X1, . . . , Xm (вектор состояния) и двапараметра на выходе (1 — нормальное состояние, 0 — отказ). Если на вы-ходе сети обнаружен отказ, то это свидетельствует о том, что поданный нанейросетевой ансамбль сигнал не соответствует ни одному из принятыхэталонов. В этом случае необходимо перейти к более сложной структуренейросетевого ансамбля, представляющего собой интегрированный нейро-сетевой комплекс.

РИС. 6. Нейросетевой ансамбль, реализующий модели климатическихспектров морского волнения

Отработка задачи идентификации при построении ансамбля нейронныхсетей осуществлялась в процессе решения задачи нейросетевого модели-рования. При этом учитывались особенности типичных задач обработкиинформации при построении климатических спектров морского волнения,которые нашли применение в традиционных алгоритмах спектральногопреобразования в приспособленном базисе. Исследование проводилось сиспользованием данных практических наблюдений, приведенных в рабо-те [33]. Для решения задачи были применены нейронные сети прямогораспространения, обучаемые с помощью алгоритма обратного распростра-нения ошибки. На вход нейронной сети подавались 64 значения частотного

290 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 291: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

спектра (в кв.м·с), соответствующие частотам, начиная с 1/128 Гц до 1/2Гц (т. е. с шагом 1/128 Гц).

Одна из типичных архитектур исследуемых нейронных сетей представ-лена на рис. 7.

РИС. 7. Многослойная нейронная сеть, используемая при отработкезадачи классификации

Нейронная сеть содержалa по 6 выходных нейронов, каждый из кото-рых соответствовал определенному классу климатического спектра. Номервыходного нейрона с максимальным значение выхода показывает номерклиматического спектра. Количество нейронов в скрытом слое изменялосьв диапазоне от 10 до 100 нейронов.

Обучение производилось до достижения ошибки в 0.0001 на обучаю-щем множестве, но не более 5000 эпох. Всего было обучено 2000 сетей,из которых были отобраны 15 сетей, дающих минимальную ошибку напроверяющей выборке. Графики процесса обучения показаны на рис. 8.

Так как значения выходов нейронных сетей используются в качествевероятности принадлежности данного спектра к одному из шести клас-сов, было проведено дополнительное испытание нейронных сетей, длявыявления качества идентификации класса спектра. Для этого каждой изотобранных нейронных сетей были предъявлены все спектры волнения.Полученные данные использованы при построении процедуры идентифи-кации параметров волнения в задаче анализа и прогноза поведения ДО при

УДК 001(06)+004.032.26 (06) Нейронные сети 291

Page 292: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 8. Кривые процесса обучения нейронных сетей

различном уровне внешних возмущений (рис. 9).Результаты идентификации позволяют разрабатывать сценарии волно-

вой погоды при оценке безопасности эксплуатации ДО в заданном районемирового океана. При построении сценариев используются различные фор-мы представления информации о климатических спектрах морского волне-ния. Одна из наиболее распространенных форм представления — изолинии,характеризующие модуль погоды, сформированный в бортовой ИС анализаи прогноза динамики ветроволновых возмущений [33].

Структура интегрированного нейросетевого комплекса отрабатываласьв процессе моделирования задач идентификации экстремальных ситуаций.На рис. 10 представлена модель такой сети, базирующаяся на нейронномансамбле: «радиально-базисная сеть–персептрон–сеть Кохонена» [26]. Раз-работанная архитектура особенно перспективна в задачах обработки слож-ных сигналов большой размерности и обеспечивает разложение исследу-емых параметров на отдельные составляющие с общей параметрической«привязкой». Эффективное решение общей задачи преобразования инфор-мации достигается за счет разделения функций нейросетевого ансамбля.Причем, первый входной слой представлен набором RBF-сетей, обеспе-чивающих фильтрацию данных, второй промежуточный слой — персеп-трон, выполняющий функцию концентратора, и наконец, выходной слой —самоорганизующаяся сеть Кохонена, реализующий задачу классификации

292 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 293: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

РИС. 9. Результаты идентификации

данных [11].Архитектура RBF-сети в рамках интегрированного комплекса сохраня-

ется такой же, как и в нейросетевом ансамбле. Перcептрон в представлен-ном на рис. 10 нейросетевом комплексе объединяет входы сети с двумяпоследующими выходами в каждой из RBF-сетей. Поле контрастированиясодержит архитектуру, состоящую из ряда входов персептрона, первоговходного слоя из m нейронов, второго скрытого слоя из n нейронов, тре-тьего скрытого слоя из p нейронов, четвертого скрытого слоя из 4 нейронов

УДК 001(06)+004.032.26 (06) Нейронные сети 293

Page 294: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 10. Структура интегрированного нейросетевого комплекса, реа-лизующего оператор преобразования сложных сигналов при контролеэкстремальных ситуаций

и пятого выходного слоя, состоящего из 2 нейронов. Персептрон усиливаеткачество распознавания, «уточняя» весовые коэффициенты [26, 32].

Приведем уравнения, обеспечивающие работу персептрона для различ-ных слоев сети:

• для входного слоя (k = 1) U1 = X (входной вектор);• для первого скрытого слоя (k = 1)

U2j = f

(n2∑

i=1

w1ijU

1i

), i, j = 1, . . . , n2; (24)

• для пятого выходного слоя (k = 5)

Yi = U qi = f

( nq∑

i=1

wqijUqi

), i, j = 1, . . . , nq. (25)

Результаты нейросетевого моделирования показали, что персептрон обес-печивает высокую степень распознавания предъявленных информацион-ных образов в виде результатов измерений для сложных сигналов, харак-

294 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 295: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

терных при анализе и интерпретации экстремальных ситуаций в бортовыхИС.

Нейропрогноз поведения сложного объекта в бортовых ИС

В процессе анализа динамики взаимодействия судна с внешней средой воз-никают ситуации, требующие предварительного анализа сигнала, порожда-емого системой и представленного заданной временной последовательно-стью. Эта последовательность несет в себе достаточно представительнуюинформацию о рассматриваемой динамической системе. В соответствии стеоремой Такенса [48] можно по эволюции переменой составить общеепредставление о динамике системы путем реконструкции аттрактора.Восстановление аттрактора динамической системы на основе зависимостиx = x(t) осуществляется за счет использования метода временной задерж-ки координат. Для этого временной ряд отображается на плоскость в видемножества точек таким образом, чтобы каждому исходному значению x(ti)соответствовала точка на плоскости, одна из координат которой будет равнаx(ti), а другая — x(ti+ τ), где τ — величина, называемая лагом. Временнойряд можно отобразить в трехмерном пространстве. В этом случае коор-динаты точки по одной оси будут равны x(ti), по другой — x(ti + τ), апо третьей — x(ti + 2τ). Таким образом, при отображении исходной по-следовательности в пространство размерности каждая точка x(ti) будетотображаться в точку этого пространства с координатами:

x(ti), x(ti + τ), . . . , x(ti + (n− 1)τ) (26)

Согласно теореме Такенса [48], можно подобрать такие параметры ре-конструкции n и τ , в результате чего множество точек по своим метри-ческим свойствам будет воспроизводить аттрактор исследуемой системы.Пространство, задаваемое для восстановления исходного аттрактора, на-зывается пространством вложения (пространством лага), а множество то-чек, моделирующее исходной аттрактор — восстановленным аттракто-

ром. Такое построение позволяет связать с анализируемым рядом опре-деленной наглядный образ (ситуацию) в пространстве размерности m.Рассматривая реконструированный аттрактор при определенном значенииm(m = 2,m = 3) можно интерпретировать этот образ как проекцию фазо-

вого пространства системы в реконструированное пространство размер-ности m. В большинстве случаев, связанных с поведением ДО в cложных

УДК 001(06)+004.032.26 (06) Нейронные сети 295

Page 296: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

условиях генерируемый динамической системой сигнал имеет невысокуюразмерность фазового пространства, и наблюдаемая картина имеет харак-терно выраженную структуру.

Для построения отображений на аттракторе исследуемой системы на-ряду с методами классической математики используются нейросетевыетехнологии. Проверка эффективности реконструированных моделей осу-ществляется с помощью временных рядов, генерируемых датчиками изме-рительной информации по данным натурных испытаний. Проблемы, воз-никающее при практическом применении реконструкции аттрактора связа-ны с ограниченностью временного ряда, хранением и скоростью обработкиинформации, а также со стационарностью исследуемого объекта [7, 16, 20].

Развитие учения о нелинейной динамике позволяет рассматривать про-цессы по наблюдаемым измерениям в виде свойств и траекторий восста-новленного аттрактора системы (как функцию ее состояния), породившейданный процесс [7, 16]. В рамках этого подхода задача прогнозированияинтерпретируется как поиск отображения окрестности текущей точки вос-становленного аттрактора на координаты точки в рассматриваемый моментвремени. Последовательность обработки информации при прогнозирова-нии сложных ситуаций в бортовых ИС состоят в решении двух важныхзадач. Первая из них связана с выявлением «скрытых» знаний и анализомструктуры измерений с помощью теоремы Такенса. Вторая представляетсобой анализ альтернативных решений, построенных на основе стандарт-ных алгоритмов и ИНС. Построение алгоритма выбора предпочтительногорешения в рамках принципа конкуренции ведется на основе информации,поступающей от датчиков измерительной системы. Эта информация пред-варительно обрабатывается и представляет собой реконструированный наоснове теоремы Такенса временной ряд с учетом исследования показателяЛяпунова при анализе структуры измерений.

Согласно теореме Такенса фазовый портрет, восстановленный в виде:

Z(t) = Λ(y(t)) = (y(t), y(t− τ), . . . , y(t− (m− 1)τ)) = (z1(t), . . . , zm(t))(27)

топологически эквивалентен аттрактору исходной динамической системы.Параметр задержки τ определяется временем пересечения траектория-

ми системы сечения Пуанкаре. Таким образом, для реконструкции аттрак-тора неизвестной динамической системы по заданному временному рядунеобходимо определить параметры реконструкции m и τ . Методы оценкиэтих параметров описаны в работах [3, 14].

296 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 297: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

На основе данных о параметрах x1t, . . . , xtnt проводится анализ ситуа-ции и строятся алгоритмы обработки измерительной информации, наилуч-шим образом отображающие тенденции в изменении компонент информа-ционного вектора. В процессе обработки информации выделяются нестан-дартные (нештатные и экстремальные) ситуации, осуществляется оценка ипрогноз из развития на основе конкурирующих вычислительных техноло-гий [24] в рамках концепции мягких вычислений [50]. Для улучшения каче-ства используемой информации при интерпретации последовательностейсигналов использованы методы их обработки на основе теоремы Такенса[48].

Алгоритм восстановления аттрактора и нелинейного прогноза можетбыть представлен в виде следующих этапов [20]:

Этап 1. Реконструкция топологической модели динамической системы,продуцирующей временной ряд. Такая модель представляет собой вложе-ние ряда в Rm, натянутое на m-мерные векторы, составленные из отсчетоввременного ряда, взятых с постоянным дискретным шагом (лагом). Усло-вие m ≥ 2d+ 1 гарантирует, что полученная реконструкция будет копиейистинного d-мерного аттрактора системы. Реконструкция приводит к одно-родной схеме нелинейного авторегрессионного прогноза

xi+1 = F (xi, xi+τ , . . . , xi+(m−1)τ ). (28)

Этап 2. Аппроксимация функции F , реализуемой с помощью нейрон-ной сети. Решающую роль в таком подходе играет правильный выбор па-раметров вложения ряда — размерности и лага.

Стандартная процедура Ф. Такенса [48] (равномерное вложение) до-статочно хорошо восстанавливает топологию аттрактора систем, имеющиходин характерный масштаб времени. Однако исследуемая система характе-ризуется «быстрой» и «медленной» динамикой. В таком случае рассматри-вают два масштаба времени, поскольку лаг, выбранный по первому нулюавтокорреляционной функции быстрой моды, не сможет контролироватьнезависимость отсчетов в задачах многоциклической динамики. В работе[20] предложен вариант неоднородного вложения, адаптированный к такимзадачам.

Выбор параметров реконструкции. Качество реконструкции зависитот выбора параметров m и τ . Для простейших случаев предложены спо-собы выбора оптимальной размерности вложения и величины временнойзадержки τ [16]. Основная идея реконструкции состоит в том, что удовле-

УДК 001(06)+004.032.26 (06) Нейронные сети 297

Page 298: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

творительная реконструкция не должна содержать самопересечений. По-этому производят поиск так называемых «близких соседей», представляю-щих собой пары векторов, которые оказались близкими в реконструкции,но их прообразы находились далеко. При этом учитывается, что истинныеближайшие соседи остаются близкими при увеличении размерности ре-конструкции, а ложные — с ростом параметра отдаляются друг от друга.С увеличением m для достижения нужной размерности при правильнойреконструкции количество ложных соседей уменьшается.

Для определения оптимального значения временного лага используютдва подхода. Первый подход основан на идее о том, что если образующиевектор компоненты независимы друг от друга, то «реконструированные»вектора будут нести в себе «наибольшее количество информации» о систе-ме. Простейший способ добиться такой «линейной» независимости — этовыбор τ близкого к первому нулю автокорреляционной функции для ис-следуемого ряда. Во втором подходе, основанном на теории информации,используется первый минимум взаимной информации для x(t) и x(t + τ).По временному ряду строятся гистограммы, аппроксимирующие распреде-ления xi и xi+1, а также совместное распределение xi и xi+1. На основегистограмм рассчитываются энтропии и взаимная информация:

S = −∑

i,j

Pij(τ) log2 Pij(τ)/PiPj , (29)

где Pi — вероятность нахождения точки в i-м интервале, а Pij(τ) — сов-местная вероятность попадания xi в i-й интервал и xi+1 в j-й интервал.

В связи со сложностью задачи многорежимного управления [10, 34]при прогнозе динамики ДО рассматривают одношаговый и многошаговыйнейропрогноз. Одношаговый прогноз осуществляется только на один шагвперед и используется для краткосрочных прогнозов. Результатом прогнозаявляется не только конкретное значение, но и класс, к которому принадле-жит переменная (рис. 11). Формирование классов проводится в зависимо-сти от целей прогнозирования. Общий подход состоит в тем, что областьпрогнозируемой переменной разбивается на классы в соответствии с за-данной точностью прогноза.

Многошаговый прогноз используется для реализации долгосрочногопрогноза возникновения экстремальных ситуаций. Процесс построенияпрогнозирующей модели предусматривает предварительное определениеколичества используемых элементов временного ряда y и ошибок прогно-

298 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 299: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

РИС. 11. Нейронная сеть, реализующая одношаговый прогноз

зирования e. Эти операции завешаются схемой построения ИНС, включа-ющей решение задач структурного и параметрического синтеза.

После выполнения процедур реконструкции временного ряда начина-ет работать программа нейросетевого моделирования. Применительно кзадачам нейропрогноза эта программа позволяет проводить обучение трех-слойной нейронной сети обратного распространения с любым количествомнейронов, в том числи нейронов выходного слоя. При инициализации ИНСв качестве параметров указывается число входных нейронов, число выход-ных нейронов и число нейронов скрытого слоя. При моделировании изобщего набора исходных данных формируется обучающая выборка, раз-мер которой зависит от количества нейронов входного слоя и количестванейронов выходного слоя. Эта обучающая выборка передается в функциюобучения нейронной сети TrainNetwork, в параметры которой также входятдлина обучающей выборки и максимальная погрешность обучения.

В процессе обучения на первом шаге производится просмотр всей обу-чающей выборки на предмет нахождения входных данных, приводящихк наибольшей ошибке обучения. Затем обучение производится на основеэтих входных данных: вычисляются чувствительность выходного и скры-

УДК 001(06)+004.032.26 (06) Нейронные сети 299

Page 300: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

того слоев, обновляются веса и смещение выходного и скрытого слоев всоответствии с алгоритмом обратного распространения ошибки.

На рис. 12 представлен пример прогноза смешанной динамики. Обуча-ющая выборка насчитывает 230 точек и выделена темным цветом. Резуль-тат прогноза насчитывает 45 точек и выделен светлым цветом. Количествовходных нейронов равно 80, количество выходных — 15, скрытый слойсодержит 150 нейронов. Нижний график иллюстрирует изменение ошибкиобучения.

РИС. 12. Результаты нейропрогноза на 12-м (А) и 50-м (В) цикле обу-чения

Для улучшения визуального контроля над процессом обучения резуль-таты прогноза выводятся пользователю после каждом цикле обучения,что позволяет быстро подобрать структуру нейронной сети: количествовходных нейронов, количество выходных нейронов и количество нейроновскрытого слоя, а также определить размер обучающей выборки. Таймер,вызывающий процедуру обучения нейронной сети, осуществляет вывод

300 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 301: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

прогноза ИНС с текущими параметрами на экран. Для этого производитсясоздание новой нейронной сети как копии обученной и вызов процедурыCalcOutput, в качестве параметров которой подаются значения нейроноввходного слоя и переменная для хранения значений выходного слоя. Ре-зультат прогноза выводятся на экран, а копия нейронной сети удаляется.

При контроле поведения сложных ситуаций в бортовых ИС исполь-зуются нейронечеткие сети. Пример структуры такой сети, реализующейконтроль динамики полетной палубы при посадке летательного аппарата(ЛА), приведен в работе [29]. Такая структура построена на основе широко-распространенной архитектуры нейронечеткой системы ANSYS (рис. 13).

РИС. 13. Нейронечеткая модель, обеспечивающая прогнозирование по-ведение ДО на волнении при контроле посадки ЛА

Нелинейные эффекты и сценарии развития хаоса вдиссипативных динамических средах

При разработке моделей нейроаппроксимации и нейропрогноза в бортовыхИС важное значении е приобретает исследование физических закономер-

УДК 001(06)+004.032.26 (06) Нейронные сети 301

Page 302: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ностей процессов и явлений, отображающих результат взаимодействия ДОс внешней средой в различных условиях эксплуатации. Ниже продемон-стрированы основные особенности поведения нелинейных диссипативныхсистем, установленные в процессе анализа и интерпретации информации,получаемой в результате функционирования встроенной процедуры, обес-печивающей моделирование экстремальных ситуаций на основе информа-ции, получаемой с датчиков измерительной системы.

Динамический хаос в нелинейных диссипативных системах

Задачи анализа и интерпретации информации при функционирования ИСво многих случаях решаются на основе математических моделей, описыва-емых нелинейными дифференциальными уравнениями. В ранних работахпо нелинейной динамике было принято рассматривать детерминированные(регулярные) и вероятностные (стохастические) процессы, описываемыесоответствующими нелинейными дифференциальными уравнениями. Та-кая классификация основывалась на традиционном подходе классическоймеханики. Однако в последующие годы было обнаружено, что в нелиней-ной детерминированной системе могут возникать хаотические движения,характеризующиеся тем, что первоначально близкие траектории в огра-ниченной области фазового пространства могут быстро расходиться. Этосвойство нелинейных систем получило название детерминированного хао-са [47]. Нелинейная система может порождать различные виды колебаний:периодические и квазипериодические, субгармонические и хаотические.

В процессе развития динамики нелинейной системы формируются про-стые (обычные) и странные (стохастические) аттракторы. С простыми ат-тракторами мы часто встречаемся при анализе нелинейных диссипативныхсистем. Геометрическая интерпретация простого аттрактора диссипатив-ной системы на фазовой плоскости представляет собой либо неподвижнуюточку (фокус), к которой устремляются фазовые траектории, либо предель-ный цикл, обладающий таким свойством, что все близкие фазовые тра-ектории представляют собой спирали, неограниченно приближающиеся кзамкнутой кривой в фазовом пространстве (рис. 14).

Типичный сценарий возникновения и развития режима интенсивнойкачки большой амплитуды можно наблюдать при исследовании парамет-рических колебаний. Закономерности этого режима качки связаны с осо-бенностями пакета волн зыби, при воздействии которого формируется пре-дельный цикл, характеризующийся стабилизацией амплитуды колебаний

302 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 303: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

вследствие влияния нелинейности (рис. 14А).

РИС. 14. Формирование предельного цикла при воздействии группыволн

Этот цикл возникает на участке, где последовательность резонансныхволн в пакете превышает определенное значение (hw)CR, обеспечивающееколебательный режим с практически постоянной амплитудой θmax. Однаков связи с последующим постепенным уменьшением высот волн в пакетенарушаются условия устойчивости и цикл исчезает (рис. 14В).

Более сложный сценарий — столкновение с неустойчивым циклом (см.рис. 15). Такая ситуация на практике встречается значительно реже и ха-рактеризуется последовательным прохождением пакетов волн, содержащихволны различной интенсивности. Например, первый пакет с небольшойвысотой резонансных волн приводит к формированию предельного цикламалой, а второго — большой амплитуды. Возникновение и потеря устой-чивости колебательного режима («рождение и смерть цикла» по термино-логии А. А. Андронова [4]) происходят вследствие ограниченности зонырезонансной качки на сравнительно небольшом временном интервале ин-тенсивных колебаний при прохождении волновых пакетов.

Интересно отметить, что развитие параметрических колебаний при фор-мировании предельного цикла в большей степени проявляется для волно-вых систем, содержащих группы почти регулярных волн. В этом случае засчет большей глубины модуляции параметра, стоящего в качестве множи-теля при периодической функции уравнения Матье [31] и обусловленногорезким изменением метацентрической высоты, формируются начальныеусловия, обеспечивающие преодоление «порога возбуждения» параметри-ческого резонанса. В результате возникновение и развитие параметриче-

УДК 001(06)+004.032.26 (06) Нейронные сети 303

Page 304: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 15. Возникновение (А) и потеря устойчивости цикла (В), (С)

ских колебаний отмечается даже на волнах относительно меньшей крутиз-ны.

Странные аттракторы отличает более сложная структура. Кроме неустой-чивых (разбегающихся) траекторий, они содержат и устойчивые (притяги-вающие) траектории. По существу это седловые траектории, устойчивые поодним направлениям и неустойчивые по другим, и образующие множествоне касающихся друг друга сложным образом соединяющихся слоев.

Концепция возникновения динамического хаоса и странных аттракто-ров в нелинейных системах, характерных для описания динамики взаи-модействия судна с внешней средой с помощью обыкновенных диффе-ренциальных уравнений, позволяет сформулировать следующие основныеположения [19, 41, 42]:

• определения аттракторов диссипативных систем: странный, хаотиче-ский, стохастический и др.• трудности объяснения природы нерегулярных аттракторов в рамках

траекторного подхода, т. е. в терминах решений систем дифференци-альных уравнений;• геометрический подход к анализу аттракторов диссипативных систем

— сведение задачи к отображению Пуанкаре меньшей размерности.

Исследования по динамике сложных систем при анализе экстремальныхситуаций [41, 42] связаны принятием следующих гипотез:

• гипотезa об экспоненциальном разбегании траекторий на аттракторедиссипативной системы;• гипотезa о фрактальной структуре аттрактора диссипативной систе-

мы;

304 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 305: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

• гипотезa о переходе к пространственно-временному хаосу по сцена-рию Рюэля-Такенса.

Уравнение Дуффинга

При изучении поведения хаотических систем важным является исследова-ние странного аттрактора и показателя Ляпунова. Такой результат получендля модели бортовой качки, одной из интерпретаций которого являетсяуравнение Дуффинга [27]. Если в этом уравнении для внешней периоди-ческой силы ввести третью координату (для независимой переменной), тополучается система третьего порядка с векторным полем

f(x) =

f1(x)f2(x)f3(x)

=

x2

−x31 − kx2 +B cosx3

1

(30)

Эта система определяется двумя положительными параметрами: коэф-фициентом вязкого трения k и амплитудой возмущения B. Дивергенцияотрицательная и определяется величиной трения (диссипации)

∂f1∂x1

+∂f2∂x2

+∂f3∂x3

= −k < 0. (31)

Для системы (30) линеаризованное уравнение имеет следующую мат-рицу

A =

0 1 0−3x2

1 −k −B sinx3

0 0 0

(32)

Результаты расчетов для B = 10, k = 0, 1 приведены на рис. 16. Приуказанных значениях параметров в системе (30) возникает хаотическое дви-жение [19, 27, 42], что подтверждается приведенными осциллограммами иособенностями изменения показателя Ляпунова.

При исследовании динамического хаоса с помощью уравнения Дуффин-га используют различные модификации восстанавливающей компоненты[41, 42]. Так, например, в уравнении нелинейной килевой качки сохраня-ется представление µx3, a в уравнении нелинейной бортовой качки частопринимают зависимость µ1x

3 − µ2x5. В результате рассматриваются две

модификации уравнения Дуффинга:

x′′ + kx′ − x+ µx3 = f0 cosωt, (33)

УДК 001(06)+004.032.26 (06) Нейронные сети 305

Page 306: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 16. Аттрактор и показатель Ляпунова для системы Дуффинга

x′′ + kx′ − x+ µ1x3 − µ2x

5 = f0 cosωt, (34)

где k — коэффициент демпфирования; ω — частота внешнего возмущения.

Обобщенное уравнение Матье

Обобщенное уравнение Матье — наиболее часто используемое описаниединамики ДО на волнении. Переход к стандартной форме этого уравненияот модели качки ДО осуществляется путем замены переменных и стан-дартизации аргумента косинуса. Детальное исследование хаотических ко-лебаний с помощью этого уравнения применительно к задачам поведенияДО на волнении выполнено в работах [41, 42]. В отличие от стандартнойформы уравнения Матье (линейная модель [31]), модифицированное урав-нение представляется в следующем виде:

x′′ + kx′ + (h+ ∆h cosωt)x+ µx3 = 0, (35)

306 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 307: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

x′′ + kx′ + (h(x) + ∆h(x) cosωt)x = 0, (36)

где h(x) и ∆h(x) — существенно нелинейные функции, определяемые вы-ражениями (13).

Как показали результаты моделирования, при фиксированных значени-ях параметров уравнение (35) имеет асимптотически устойчивое нулевоерешение для определенного значения параметра k = k∗. При значенияхk < k∗ в системе рождается устойчивый цикл с частотой ω/2, которыйпорождает каскад бифуркаций удвоения периода Фейгенбаума. Аналогич-ный характер развития хаотических колебаний наблюдается и при анализеуравнения (36). Однако вследствие чрезвычайной сложности этой моде-ли, формирование странного аттрактора происходит по более сложномусценарию. Сначала реализуется каскад бифуркаций Фейгенбаума удвоенияпериода родившегося устойчивого предельного цикла, а затем — субгармо-нический каскад бифуркаций рождения устойчивых циклов любого пери-ода.

Поведение фазовых траекторий в системах (35) и (36) исследовалось спомощью стандартных и нейросетевых моделей. Типичные картины пове-дения фазовых траекторий представлены на рис. 17 и 18.

РИС. 17. Фазовый портрет хаотических колебаний, порождаемых наоснове модели (35) при наличии начального крена

Хаотические колебания нелинейных динамических систем отмечалисьавтором не только в вычислительном эксперименте, но и при физическоммоделировании. Проведенные эксперименты показали, что природа детер-минированного хаоса связана с особенностями нелинейных систем разво-дить траектории в фазовом пространстве. Появление хаотичности являетсявнутренним свойством нелинейных систем и не связано с действием каких-

УДК 001(06)+004.032.26 (06) Нейронные сети 307

Page 308: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 18. Фазовый портрет хаотических колебаний, характеризующийформирование странного аттрактора на основе модели (36)

либо случайных сил.

Сценарии перехода к хаосу и управление в хаотических системах

При исследовании хаотических систем в задачах динамики объекта на вол-нении рассматривают наличие двух сценариев перехода к хаосу в диссипа-тивных системах:

• через каскад бифуркаций Фейгенбаума удвоения периода устойчивыхциклов [35],• через перемежаемость по сценарию Помо-Манневиля [39].

Сценарий Рюэля-Такеннса, связанный с разрушением трехмерного торас образованием странного аттрактора [46] в задачах динамики объекта наволнении встречается достаточно редко и в настоящей работе не рассмат-ривается.

Хаотическая динамика нелинейных систем при исследовании поведе-ния ДО на волнении при вариации параметров ведется с помощью би-

фуркационных диаграмм. На таких диаграммах мера изменения параметра(максимальная амплитуда колебаний) изображается как функция параметрасистемы (амплитуды возмущающей силы или коэффициента демпфирова-ния). Выборка данных осуществляется с помощью отображения Пуанкаре,что позволяет легко выделять удвоение периода и субгармонические би-фуркации (рис. 19). Если при изменении параметра в системе возникаютдве или более бифуркации Хопфа (одновременно присутствуют три связан-ных предельных цикла), то становится возможным хаотическое движение.

308 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 309: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

РИС. 19. Бифуркационные диаграммы: А — бифуркация типа вил (пе-реход из состояния с одним устойчивым положением равновесия всостояние с двумя устойчивыми точками); В — бифуркация Хопфа(переход от устойчивой спирали к колебаниям на предельном цикле)

Физические картины бифуркаций при исследовании динамики объек-та на волнении получены с помощью дифференциальных уравнений типаДуффинга (33) и Матье (36) [27]. В качестве иллюстрации на рис. 20 пред-ставлены решения уравнения Дуффинга: сингулярный предельный цикл(рис. 20А), каскад бифуркаций удвоения периода которого порождает ат-трактор Фейгенбаума (рис. 20В, С); субгармонический каскад бифуркацийустойчивых решений согласно порядку Шарковского (предельный цикл нарис. 20D) и хаотический аттрактор (рис. 20Е). Аналогичные картины ха-отических колебаний отмечаются и для уравнения Матье, содержащегопериодические коэффициенты [27].

Типичный сценарий возникновения хаоса в системах, характеризующихнелинейную качку ДО, связан с явлением перемежаемости (рис. 21). Вэтом случае по мере изменения параметра системы длительные интервалыпериодического движения перемежаются со вспышками хаоса 1, которыестановятся все более частыми и длительными 2 (рис. 21А).

Развитие учения о хаотической динамике нелинейных систем выявилоцелый ряд реальных практических задач, в том числе и в гидродинамикесудна [41, 42], где хаотические режимы действительно могут возникать присложном взаимодействии судна с внешней средой. Более того, возниклипрактически важные классы задач, когда нелинейной системой необходи-мо управлять, изменяя степень ее хаотичности. Методы решения подобныхзадач в последние годы стали активно развиваться, особенно в приложени-ях, посвященных различным аспектам применения методов управления кхаотическим процессам.

УДК 001(06)+004.032.26 (06) Нейронные сети 309

Page 310: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 20. Динамический хаос в нелинейной системе Дуффинга

Так, например, работа [38] посвящена задаче подавления колебанийсудового крана. Исследуется влияние возмущений, в качестве которыхрассматривается хаотический процесс, доминирующая частота которогонаходится вблизи собственных колебаний системы. Для гашения колеба-ний предложен и исследован нечеткий регулятор. Результаты исследова-ний показывают значительное снижение размаха колебаний по сравнениюс неуправляемой системой. В работе [40] рассматривается бортовая качкасудна с затопленными отсеками. Из-за наличия большого количества водывнутри корпуса возникают сложные взаимосвязанные колебания cудна инаходящейся в нем жидкости, напоминающие колебания связанных осцил-ляторов. На основе численных исследований и лабораторных эксперимен-тов установлена возможность появления в системе сложных хаотическихколебаний большой амплитуды. Показано, что соответствующим выборомвремени запаздывания и коэффициентов обратной связи можно добитьсясведения хаотического процесса к периодическому с малой амплитудой. К

310 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 311: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

РИС. 21. Возникновение хаоса перемежаемого типа: А — модель Дуф-финга (классический алгоритм); В — модель Матье при наличии на-чального крена (нейросетевой алгоритм)

сожалению, эти интересные задачи не рассматривались с позиций теориинейросетевого управления, широко применяемого в нелинейных динами-ческих системах [3].

Управление в самоорганизующихся системах

Задачи и методы управления хаосом — область интенсивных исследова-ний последних десятилетий. Концепция детерминированного хаоса сначаласчиталась экзотическим явлением, представляющим интерес для математи-ков. Возможность возникновения хаотических колебаний в практическихприложениях ставилась под сомнение. Однако в последствии хаотическаядинамика была обнаружена в огромном числе различных систем: в меха-нике, системах связи, лазерной физике и радиофизике, химии и биологии,экономике, медицине. Системы с хаосом демонстрируют одновременнои хорошую управляемость и удивительную пластичность: система чуткореагирует на внешние воздействия, сохраняя при этом тип движения. Ком-бинация управляемости и пластичности часть является причиной того, чтохаотическая динамика является характерным типом поведения для многихсистем [3, 5, 27–29].

С позиций синергетического подхода [17] модели хаотических системоткрывают возможности реализации процессов самоорганизации.

Для характеристики ситуации, определяющей нелинейную динамику

УДК 001(06)+004.032.26 (06) Нейронные сети 311

Page 312: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

объекта, можно построить диаграмму переходов состояний. Такая диаграм-ма позволяет интерпретировать сложные ситуации, возникающие в различ-ных условиях эксплуатации. Поведение ДО, как самоорганизующейся си-стемы, наиболее ярко проявляется в ситуациях, связанных с затоплениемотсеков на основе математической модели (16). В этом случае диаграммапредставляет собой сеть, вершинами которой являются события, а ориенти-рованные ребра задают переходы между событиями. Каждое ребро содер-жательно интерпретируется как алгоритмически реализуемое возмущениединамической системы, под которым понимаются как внешние (волновые)воздействия, так и изменения, происходящие в самой динамической систе-ме в результате поступления воды внутрь корпуса. Формально диаграммапереходов состояний описывается как структура вида

W = 〈S,R,A,B, L〉, (37)

где S — множество ситуаций; R — множество ребер вида rij = (si, sj), i 6=j, A — множество присоединенных атрибутивных вершин;B — множествоприсоединенных алгоритмических вершин; L — множество ребер вида l =(ai, si) или lij = (bi, sj) или lij = (ai, aj); i 6= j, aj ∈ A, bj ∈ B.

РИС. 22. Фазовые портреты трехстабильной (А) и бистабильной (B)динамических систем

Результаты вычислительных экспериментов позволяют построить и про-анализировать траектории системы на фазовой плоскости [9, 13] в виде ат-тракторов, описывающих динамику одностабильной, бистабильной и трех-стабильной систем (рис. 22), а также характерные временные кривые и

312 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 313: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

одномерные отображения из точек, соответствующих максимальным зна-чениям амплитуды для (n+1) и n-го интервалов времени для аттракторныхмножеств.

Исследования поведения нелинейных систем показывают, что в фазо-вом пространстве бифуркационные границы, по разные стороны которыхсистема имеет качественно различный характер поведения, удобно опреде-лять с помощью сепаратрис. Применительно к задаче потери устойчивостидвижения сложной системы стоится поверхность сепаратрис, разделяю-щая область влияния различных аттракторов (рис. 23). На этом рисункефазовая траектория «пересекает» поверхность сепаратрис с устойчивымиколебаниями и оказывается в области неустойчивости (опрокидывание),кардинально меняя свое поведение.

РИС. 23. Фазовая траектория и поверхность сепаратрис в трехмерномпространстве (черной точкой отмечен момент пересечения фазовойтраекторией поверхности сепаратрис)

Другая закономерность, иллюстрируемая компьютерной программой,заключается в моделировании пространственно-временного поведения ДОна базе центральной теоремы синергетики, определяющей динамику слож-ной системы как взаимосвязь растущих и затухающих ее конфигураций спараметрами порядка [17, 42]. Показано, что все пространственно-времен-ные состояния системы управляются параметрами порядка (принцип под-чинения). Переход к параметрам порядка в сложной системе проводит к

УДК 001(06)+004.032.26 (06) Нейронные сети 313

Page 314: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

сжатию информации и к значительному сокращению числа степеней сво-боды. При этом параметры порядка определяют движение элементов си-стемы, которые, в свою очередь, совместно (кооперативно) характеризуютдействие параметров порядка (принцип круговой причинности).

Таким образом, богатство возможностей поведения нелинейных дина-мических систем снимает проблему «фатализма» однозначной парадигмыразвития поведения системы и открывает простор для выбора той обла-сти параметрического и фазового пространства, которая обладает предпо-чтительным аттрактором. Основы нелинейной динамики сложных системоткрывают перед исследователем объемный и многообразный нелинейныймир с новыми подходами, критериями упорядоченности и методами интер-претации сложных физических явлений. В этом мире свое место занимаетнейросетевое моделирование, использующее преимущества этой вычисли-тельной технологии в задачах аппроксимации и прогноза.

Управление в нестандартных ситуациях

Одно из интересных приложений нелинейной теории управления связанос задачей о поведении ДО в условиях «захвата» и разворота на нерегуляр-ном волнении, получившей наименование брочинг (broaching) [13, 22, 43].Брочинг — одна из наиболее сложных и опасных экстремальных ситуа-ций. Эта ситуация связана с возникновением явления «захвата» ДО попут-ной волной, потерей устойчивости движения, ухудшением управляемостии внезапным разворотoм на волнении. Решение задачи о динамике бро-чинга ведется методами физического и математического моделирования спредставлением результатов анализа ситуации на фазовой плоскости.

Проведенное исследование динамических картин потери устойчиво-сти и опрокидывания ДО в условиях брочинга позволило сформулироватькритериальный базис, упростить интерпретацию экстремальной ситуациии разработать алгоритм нейроуправления при принятии решений в про-цессе функционирования бортовой ИС контроля и прогноза мореходныхкачеств ДО в условиях эксплуатации [43]. Для иллюстрации на рис. 24представлены характеристики «захвата» и картина разворота ДО в режиме«брочинг». Динамическая граница режима «захвата» отделяет эту областьот области продольно-горизонтальной качки. Динамическую область «за-хвата» можно трактовать как совокупность условий (элементы волнения,скорость и курс), при которых теряется устойчивость режима продольно-горизонтальных колебаний.

314 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 315: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

РИС. 24. «Захват» (слева) и неуправляемый разворот ДО (справа) привоздействии группы нерегулярных волн: А — начало, В — выход изсостояния «захвата»

Особенность задачи состоит в том, что эффективное управление в ре-жиме «брочинг» возможно только с целью предотвращения возникновенияэтой опасной ситуации. Однако в случае ее возникновения попытки ис-пользовать управление для выхода ДО из этой ситуации могут приводитьтолько к ее ухудшению, поскольку рулевой комплекс оказывается неэффек-тивным в условиях полной потери управляемости [43].

Здесь вполне уместно привести слова выдающегося английского ма-тематика, философа и общественного деятеля Рассела Бертрана АртураУильяма: «Во время кораблекрушения команда выполняет приказы своегокапитана не задумываясь, ибо у матросов есть общая цель, да и средствадля достижения этой цели очевидны и всем понятны. Однако если бы капи-тан принялся разъяснять матросам свои принципы управления кораблем,чтобы доказать правомерность поступающих приказов, корабль пошел быко дну раньше, чем закончилась его речь».

Нейросетевые модели управления

В ряде задач анализа и прогноза экстремальных ситуаций можно использо-вать ИНС, с помощью которых осуществляется построение функций при-надлежности [1] и системы нейроуправления [25]. Обучение нейроннойсети ведется на основе данных динамических измерений с помощью про-цедуры обратного распространения или ГА [8, 12, 32].

Система реализует выбор оптимальной скорости и курса ДО в зави-

УДК 001(06)+004.032.26 (06) Нейронные сети 315

Page 316: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

симости от интенсивности внешних возмущений. Процесс управления ор-ганизуется на основе концепции нечеткой логики. Алгоритм представля-ется в виде матриц управления. Элементы матриц соответствует одномуиз возможных состояний управляющего воздействия Y . Они могут бытьсгенерированы при помощи ИНС [43]. Настройка синаптических связейИНС осуществляется в рамках принципа конкуренции с помощью проце-дуры обратного распространения и ГА. В качестве иллюстрации на рис. 25представлен один из вариантов алгоритма контроля динамики объекта, раз-работанный на основе нечетких моделей и реализуемый в виде матрицуправления размерности 5× 5.

РИС. 25. Алгоритм управления при контроле динамики объекта

Схема управляющей базы знаний (рис. 26) на основе ИНС имеет четыреуправляющих входа X1, X2, dX1/dt, dX2/dt и один выход Y .

Обучение сети производится на основе функций принадлежности дляX1, X2, dX1, dX2 которые подаются на вход системы, и значениях Y на вы-ходе. В результате использования ГА формируется сложная многомернаяповерхность ошибки управления как функция параметров закона управ-ления. ГА находит глобальный минимум этой поверхности. В сложныхзадачах анализа и интерпретации данных динамических измерений исполь-зуется ансамбли ИНС, анализ которых ведется на основе модели нечеткогологического вывода по прецедентам [26].

316 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 317: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

РИС

Page 318: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ϕi =

(Zg −

Page 319: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

Известно, что для нормальных распределений среднее арифметическоеθ∗ =

∑θi/N как оценка параметра θ является несмещенной E(θ∗) = 0

и состоятельной limP (|θ∗ − θ| < ε) = 1, ∀θ при больших значениях N .Однако если закон распределения заранее неизвестен, то может оказать-ся, что θ — смещенная оценка математического ожидания с наименьшейдисперсией, а в случае многомерных распределений эта оценка не являетсядопустимой для квадратичной функции потерь

∑(θ−θ∗)2. Если такая про-

верка при статистическом анализе исходной выборки не проводилась, тонормативные значения критериальных соотношений в системе не являютсястатистически обоснованными.

Парадокс выбора границ критерия. Принципиальное значение имеетпарадокс выбора пороговых значений критериальных соотношений. Ис-пользование нечетких границ критериев приобретает важное значение всвязи со случайным характером и неопределенностью исходной информа-ции, на основании которой строится расчетная схема оценки поведения ДО(рис. 27).

Действительно, погрешность контроля положения центра масс (опыткренования), неточность фактических данных о нагрузке судна и другиефакторы приводят к тому, что истинное значение нормируемого параметраX в действительности равно X0 + ε или X0 − ε. Тогда в соответствии стребованиями норм оценка X∗ = X0 (критерий соблюдается без избытка инедостатка), а на самом делеX = ±ε. Область принятия гипотезыX = X0,т. е. интервал X1−α, Xα составляет β (α — уровень значимости). Это озна-чает, что вероятность допустить ошибку второго рода (нулевая гипотезапринимается, в то время как она неверна) при выявлении отклонения отгипотетического значения Xq составляет β, а величина 1− β характеризу-ет «мощность критерия». Уменьшая α мы снижаем вероятность допуститьошибку первого рода (нулевая гипотеза отвергается, когда в действительно-сти она не верна). Однако при этом увеличивается вероятность β допуститьошибку второго рода и снижается мощность критерия.

Парадоксы компьютерной реализации. Немало парадоксов связанос компьютерной реализацией задач динамики сложного объекта. Любоестатистическое решение, которое можно реализовать на компьютере, сталодоступным для исследователей. В результате «устойчивые» и многомер-ные методы с огромным числом операций вошли в повседневную прак-тику без достаточного теоретического обоснования. Между тем, многиеэмпирические коллизии, используемые в статистической практике, можно

УДК 001(06)+004.032.26 (06) Нейронные сети 319

Page 320: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 27. Ошибки, допускаемые при практическом использовании кри-териев: X0 – нормируемая характеристика; (Xmax, Xmin) – областьфактического изменения X; A – области нулевой и альтернативнойгипотез; B – области, соответствующие ошибке второго рода

обосновать с помощью робастных статистик, что в практике моделирова-ния используется крайне редко.

Заключение

Особенности разработки бортовых ИС новых поколений, как сложныхпрограммно-аппаратных комплексов, требуют, чтобы компьютерные про-граммы приобретали свойства, обеспечивающие его жизнеспособность.Эти свойства заключаются в адаптивности и адаптируемости программныхсистем. Переход к таким программам приводит к необходимости исполь-зования не только современных подходов к интерпретации классическойтеории управления и кибернетики, но и более глубокой математическойподготовки разработчиков в области программирования и вычислительнойтехники.

Искусство создания бортовых ИС реального времени — не только в по-

320 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 321: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

строении формализованных моделей обработки информации, но главнымобразом в умении организовать и поставить обоснованный экспериментпри тестировании и испытании ИС. Необходимо помнить, что результатработы ИС зависит от качества и объема исходной информации, преобра-зование которой определяется цепочкой: «измерения–обработка–принятиерешений». Все методологические принципы и грамотно проведенный ана-лиз окажутся ненужными, если придется применять их к посредственнымданным, полученным в результате использования малоэффективных ал-горитмов преобразования измерительной информации или при небрежнопоставленном эксперименте. При решении этих проблем важное значениеимеет теория планирования эксперимента, которая, к сожалению, сейчаспочти забыта и редко преподается в университетах.

Таким образом, трудности создания бортовых ИС новых поколенийобусловлены не только несовершенством современных информационныхтехнологий в части реализации адаптивных средств функционирования ди-намической базы знаний, но и в значительной степени проблемами самойпредметной области и психологическими аспектами, связанными с вос-приятием новых подходов и содержательных решений, в том числе и cотсутствием международных стандартов, регламентирующих требования кустановке и эксплуатации ИС на борту cудов и других плавучих ДО.

Рассмотренные задачи нелинейной динамики связаны с применениеммногопроцессорных вычислительных средств анализа и интерпретации ин-формации при функционировании бортовых ИС реального времени. Вы-числительные технологии реализации этих задач отражают только незна-чительную область научно-технических приложений, в которых находятприменение методы анализа существенного нелинейных динамических си-стем, синергетическая парадигма и теория детерминированного хаоса. Кон-цептуальные основы излагаемого материала объединяют понятия устойчи-вости и теории колебаний и предлагают методологическое средство длясовместного осмысления этих двух понятий с пояснением некоторых под-ходов, методов и моделей. При этом автором сделан акцент именно на теприложения, которые в настоящее время вызывают большой научный ипрактический интерес при исследовании сложного поведения ДО в раз-личных экстремальных ситуациях.

Автор выражает свою признательность научному редактору сборникаЮ. В. Тюменцеву за содействие при подготовке рукописи к изданию.

УДК 001(06)+004.032.26 (06) Нейронные сети 321

Page 322: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Литература1. Аверкин А. Н, Батыршин А. Н., Блишун А. Ф., Силов В. Б., Тарасов В. Б. Нечет-

кие множества в задачах управления и искусственного интеллекта / Под ред.Д. А. Поспелова. – М.: Наука, 1986.

2. Аксак Н. Г., Тыхун А. Ю. Вычислительная модель нейроалгоритма многослой-ного персептрона // Высокопроизводительные параллельные вычисления накластерных системах. Нижний Новгород. Изд-во Нижегородского университе-та, 2006, с. 10–17.

3. Андриевский Б. Р., Фрадков А. Л. Управление хаосом: методы и приложения //Автоматика и телемеханика. – 4. 2004, с. 3–34.

4. Андронов А. А., Витт С., Хайкин С. Э. Теория колебаний. – М.: Наука, 1981.

5. Анищенко В. С., Владиславова Т. Е., Астахов В. В. Нелинейная динамика стоха-стических и хаотических систем. – Саратов, 1999.

6. Арнольд В. И. Теория катастроф. – М.: Наука, 1990.

7. Борисов Ю. Ю. Построение прогнозирующих моделей динамических системна основе исследования окрестностей реконструированных аттракторов // Ав-

томатизация и современные технологии. – 7, 2007, с. 32–37.

8. Бородай И. К., Нецветаев Ю. А. Качка судов на морском волнении. – Л.: Судо-строение, 1969.

9. Бортовые интеллектуальные системы. Часть 1. Авиационные системы. Часть2. Корабельные системы. Часть 3. Системы посадки летательных аппаратовкорабельного базирования. – М.: Радиотехника, 2006, 2008.

10. Брусов В. С., Тюменцев Ю. В. Синтез оптимального ансамбля нейроконтролле-ров для многорежимного летательного аппарата // Тр.5-й Всероссийской кон-ференции «Нейроинформатика-1999». МИФИ. 1999. Часть 2, с. 190–201.

11. Васильев В. И., Жернаков С. В., Уразбахтина Л. Б. Нейросетевой контроль па-раметров газотурбинного двигателя // Нейрокомпьютеры: разработка, приме-

нение. – 1, 2001, с. 37–43.

12. Галушкин А. И. Теория нейронных сетей. – М.: ИПРЖ, 2000.

13. Интеллектуальные системы в морских исследованиях и технологиях / Под. ред.Ю. И. Нечаева. – Санкт-Петербург: ГМТУ, 2001.

14. Капица С. П., Курдюмов С. П., Малинецкий Г. Г. Синергетика и прогнозы буду-щего. – М.: Наука, 1997.

15. Красовский А. А. Проблемы физической теории управления // Автоматика и

телемеханика. – 1990, 11.

322 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 323: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

16. Лесных В. Ю. Динамическая реконструкция временных рядов // Сборник до-кладов Х Международной конференции по мягким вычислениям и измерениямSCM-2007. Санкт-Петербург. 2007. т. 1, с. 199–202.

17. Лоскутов А. Ю., Михайлов А. С. Введение в синергетику. – М.: Наука, 1990.

18. Малинецкий Г. Г., Потапов А. Б. Современные проблемы нелинейной динамики.– М.: УРСС, 2002.

19. Магницкий Н. А. Универсальная теория динамического и пространственно-временного хаоса в сложных системах // Нелинейные процессы в динамических

системах. – 1, т. 1, 2007, с. 18–39.

20. Макаренко Н. Г. Эмбедология и нейропрогноз // Тр. 5-й Всероссийской конфе-ренции «Нейроинформатика-2003». Лекции по нейроинформатике. – М.: МИ-ФИ, 2003, с. 86–148.

21. Неймарк Ю. И., Ланда П. С. Стохастические и хаотические колебания. – М.:Наука, 1987.

22. Нечаев Ю. И. Моделирование остойчивости на волнении. Современные тен-денции. – Л.: Судостроение, 1989.

23. Нечаев Ю. И. Нейросетевые технологии в интеллектуальных системах реально-го времени // Тр. 4-й всероссийской конференции «Нейроинформатика – 2002».– М.: МИФИ. 2002. Лекции по нейроинформатике. Часть 1, с. 114–163.

24. Нечаев Ю. И. Математическое моделирование в бортовых интеллектуальныхсистемах реального времени // Труды 5-й всероссийской научно-техническойконференции «Нейроинформатика – 2003». – М.: МИФИ. Лекции по нейроин-форматике. Часть 2, с. 119–179.

25. Нечаев Ю. И. Нейроаппроксимация и нейропрогноз при контроле динамикисложного объекта // Нейрокомпьютеры: разработка, применение. – 9. 2005,с. 22–31.

26. Нечаев Ю. И. Нейросетевые ансамбли при интерпретации экстремальных си-туаций в бортовых интеллектуальных системах // Нейрокомпьютеры: разра-

ботка, применение. – 6. 2006, с. 60–69.

27. Нечаев Ю. И. Нелинейная динамикa и парадигмы вычислений при анализеэкстремальных ситуаций // Материалы международной конференции «ЛеонардЭйлер и современная наука». Российская академия наук. Санкт-Петербург. 2007,с. 385–390.

28. Нечаев Ю. И. Нейронечеткая система поддержки принятия решений при оцен-ке поведения сложного динамического объекта // Труды Х-й Всероссийскойконференции «Нейроинформатика-2008». Лекции по нейроинформатике. Часть2, М.: МИФИ. 2008, с. 97–164.

УДК 001(06)+004.032.26 (06) Нейронные сети 323

Page 324: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

ISBN 978–5–7262–1225–8 ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

29. Нечаев Ю. И. Нейронечеткие технологии в интеллектуальной системе кон-троля посадки летательных аппаратов корабельного базирования // Сбор-ник Научных трудов ХI Всероссийской научно-технической конференции по«Нейроинформатика-2009». Лекции по нейроинформатике. М.: МИФИ. 2009,с. 209–278.

30. Справочник по теории корабля. В 3-х томах. – Л.:Судостроение, 1985.

31. Хаяси Т. Нелинейные колебания в физических системах. – М.: Мир, 1968.

32. Уоссермен Ф. Нейрокомпьютерная техника. – М.: Мир, 1992.

33. Boukhanovsky A., Degtyarev A., Lopatoukhin L., Rozhkov V. Stable states of waveclimate: applications for risk estimation. Proceedings of the International conferenceSTAB’2000, Launceston, Tasmania, Australia, February, 2000, vol. 2, pp. 831–846.

34. Brusov V. S., Tiumebtsev Yu. V. High performance aircraft flight control based onartificial neural networks // Proc. of the RRDPAE-96. Warsaw, 1997, pp. 97–100.

35. Fegenbaum N. J. Quantitative universality for a class of nonlinear transformation //J. Stat. Phys., 1978, vol. 19, pp. 25–52.

36. France W., Levadou M., Treakle T. W., Paulling J. R., Michel R. K., Moore K. Aninvestigation of head-sea parametric rolling and its Influence on Container LashingSystems // SNAME Annual Meeting 2001, pp. 1–24.

37. Kan M. Chaos and fractals in nonlinear rolling and capsizing of damaged ships// Proceeding of International Symposium «Ship stability in a Seaway»: Stability,Maneuverability, Nonlinear approach. Kaliningrad. 1993. Vol. 2, No. 2. – pp. 1–19.

38. Kimiaghalam B., Homaifar A., Bikdash M. Pedulation suppression of a shipboardcrane using fuzzy controller // Proceedings of American Control Conference(ACC’99), San Diego, California, 1999, pp. 586–590.

39. Manneville P., Pomeau Y. Different ways to turbulence in dissipative dynamicalsystems // Physica. – 1980. Vol 1D, p. 219.

40. Mitsubori K., Aihara K. Delayed-feedback cоntrol of chaotic roll motion of a floodedship in waves // Proceedings of conference RLA. 2002, pp. 2801–2813.

41. Nechaev Yu. I. Determined chaos in the phase portrait of ships dynamic in a seaway// Proc. of International Workshop «On the problems of physical and mathematicalmodeling». OTRADNOYE-93. Vol. 2, pp. 143–145.

42. Nechaev Yu. I. Mathematical modeling, chaos and fractals in real time systems //Report on the third International congress on industrial and applied mathematics.Edinburg. Scotland. 1999. Paper 23.

43. Nechaev Yu. I., Zavyalova O. P. Criteria basis for estimation of capsizing dangerin broaching extreme situation for irregular following waves // Proceedings ofinternational conference STAB-2003. Madrid. Spain. 2005. Paper 12.

324 УДК 001(06)+004.032.26 (06) Нейронные сети

Page 325: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

Ю.И.НЕЧАЕВ

44. Nechaev Yu., Degtyarev A., Anischenko O. Ships dynamic on Wave- Breakingcondition // Proceedings of the 9th International conference on stability and oceanvehicles SATAB-2006. Rio de Janeiro. Brazil. 2006, pp. 409–417.

45. Richards R. A. Application of multiple artificial intelligence techniques for an aircraftcarrier landing decision support toolURL: www.shai.com

46. Ruelle D., Takens F. On the nature of turbulence // Connun. Math. Phys. – 1971,Vol. 20(3), pp. 167–192.

47. Shuster H. G. Deterministic chaos. – Physik-Verlag: Veinhein, 1984.

48. Takens F. Lectures notes in mathematics. Vol. 898. – N.Y. Springer. 1981, pp. 366–381.

49. Winston P. N. Artificial intelligence. – Addison Wesley Publishing Company. USA,1993.

50. Zadeh L. Fuzzy logic, neural networks and soft computing // Соmmun. of the ASM.– 1994. Vol. 37, No. 3, рр. 77–84.

Юрий Иванович НЕЧАЕВ, профессор кафедры вычислительной техни-ки и информационных технологий Санкт-Петербургского государственно-го морского технического университета, заведующий отделом систем под-держки принятия решений Института высокопроизводительных вычисле-ний и информационных систем, эксперт по высокопроизводительным вы-числениям и интеллектуальным системам (Вашингтон, США и Лондон,Англия), заслуженный деятель науки РФ, академик РАЕН, доктор техниче-ских наук, профессор.

Page 326: XII ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ …neurolectures.narod.ru/2010/Lects2010-ALL.pdf · 2013-04-03 · РОССИЙСКАЯ АКАДЕМИЯ НАУК

НАУЧНАЯ СЕССИЯ НИЯУ МИФИ–2010

НЕЙРОИНФОРМАТИКА–2010

XII ВСЕРОССИЙСКАЯНАУЧНО-ТЕХНИЧЕСКАЯ

КОНФЕРЕНЦИЯ

ЛЕКЦИИПО НЕЙРОИНФОРМАТИКЕ

Оригинал-макет подготовлен Ю. В. Тюменцевымс использованием издательского пакета LATEX2ε

и набора PostScript–шрифтов PSCyr

Подписано в печать 01.12.2009 г. Формат 60 × 84 1/16Печ. л. 20, 5. Тираж 170 экз. Заказ

Национальный исследовательский ядерный университет «МИФИ»

Типография НИЯУ МИФИ

115409, Москва, Каширское шоссе, 31