vi Всероссийская научно-техническая конференция...

199
МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙФЕДЕРАЦИИ МИНИСТЕРСТВО РОССИЙСКОЙ ФЕДЕРАЦИИ ПО АТОМНОЙ ЭНЕРГИИ МИНИСТЕРСТВО ПРОМЫШЛЕННОСТИ, НАУКИ И ТЕХНОЛОГИЙ РОССИЙСКОЙ ФЕДЕРАЦИИ РОССИЙСКАЯ АССОЦИАЦИЯ НЕЙРОИНФОРМАТИКИ МОСКОВСКИЙ ИНЖЕНЕРНО-ФИЗИЧЕСКИЙ ИНСТИТУТ (ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ) НАУЧНАЯ СЕССИЯ МИФИ–2004 НЕЙРОИНФОРМАТИКА–2004 VI ВСЕРОССИЙСКАЯ НАУЧНО-ТЕХНИЧЕСКАЯ КОНФЕРЕНЦИЯ ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ Часть 1 По материалам Школы-семинара «Современные проблемы нейроинформатики» Москва 2004

Upload: buituyen

Post on 08-Dec-2016

232 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

МИНИСТЕРСТВО ОБРАЗОВАНИЯ РОССИЙСКОЙ ФЕДЕРАЦИИ

МИНИСТЕРСТВО РОССИЙСКОЙ ФЕДЕРАЦИИ ПО АТОМНОЙ ЭНЕРГИИ

МИНИСТЕРСТВО ПРОМЫШЛЕННОСТИ, НАУКИ И ТЕХНОЛОГИЙРОССИЙСКОЙ ФЕДЕРАЦИИ

РОССИЙСКАЯ АССОЦИАЦИЯ НЕЙРОИНФОРМАТИКИ

МОСКОВСКИЙ ИНЖЕНЕРНО-ФИЗИЧЕСКИЙ ИНСТИТУТ(ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ)

НАУЧНАЯ СЕССИЯ МИФИ–2004

НЕЙРОИНФОРМАТИКА–2004

VI ВСЕРОССИЙСКАЯНАУЧНО-ТЕХНИЧЕСКАЯ

КОНФЕРЕНЦИЯ

ЛЕКЦИИПО НЕЙРОИНФОРМАТИКЕ

Часть 1

По материалам Школы-семинара«Современные проблемы нейроинформатики»

Москва 2004

Page 2: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

УДК 004.032.26 (06)ББК 32.818я5М82

НАУЧНАЯСЕССИЯМИФИ–2004. VI ВСЕРОССИЙСКАЯНАУЧНО-ТЕХНИ-ЧЕСКАЯ КОНФЕРЕНЦИЯ «НЕЙРОИНФОРМАТИКА–2004»: ЛЕКЦИИ ПОНЕЙРОИНФОРМАТИКЕ. Часть 1. – М.: МИФИ, 2004. – 199 с.

В книге публикуются тексты лекций, прочитанных на Школе-семинаре«Современные проблемы нейроинформатики», проходившей 28–30 января2004 года в МИФИ в рамках VI Всероссийской научно-технической кон-ференции «Нейроинформатика–2004».

Материалы лекций связаны с рядом проблем, актуальных для совре-менного этапа развития нейроинформатики, включая ее взаимодействие сдругими научно-техническими областями.

Ответственный редакторЮ.В. Тюменцев, кандидат технических наук

ISBN 5–7262–0526–X c©Московский инженерно-физический институт(государственный университет), 2004

Page 3: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Содержание

Предисловие 6

Я. Б. Казанович, В. В.Шматченко. Осцилляторные нейросетевые мо-дели сегментации изображений и зрительного внимания 15Введение. Биологические предпосылки моделирования . . . . . . 16Сегментация зрительных сцен . . . . . . . . . . . . . . . . . . . . 19

Модели сегментации: Параллельные процедуры . . . . . . . 20Модели сегментации: Последовательные процедуры . . . . 29

Модели зрительного внимания . . . . . . . . . . . . . . . . . . . . 41Модель нейронных механизмов селективного внимания, осно-

ванная на временной корреляции нейронов . . . . . 42Модели формирования фокуса внимания . . . . . . . . . . . 47Модель селективного внимания и задачи зрительного поиска 54

Заключение. Перспективы использования осцилляторных нейрон-ных сетей при моделировании когнитивных функций мозга 58

Приложение. Типы нейронных сетей . . . . . . . . . . . . . . . . 63Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

А.Ю.Дорогов. Быстрые нейронные сети: Проектирование, настрой-ка, приложения 69Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70Структурный анализ алгоритмов БПФ . . . . . . . . . . . . . . . . 72Структурный синтез быстрых нейронных сетей . . . . . . . . . . 76

Формальный язык регулярных сетей . . . . . . . . . . . . . 76Грамматика предложений и морфология сети . . . . . . . . 78Семантическая интерпретация предложений . . . . . . . . . 80

Топологическое проектирование быстрых нейронных сетей . . . 81Топологии нейронных слоев . . . . . . . . . . . . . . . . . . 82Графическая интерпретация топологий . . . . . . . . . . . . 83Граничные условия и топологические матрицы . . . . . . . 86

УДК 004.032.26 (06) Нейронные сети 3

Page 4: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Алгоритм обработки данных в БНС . . . . . . . . . . . . . . . . . 89Слабосвязанные сети . . . . . . . . . . . . . . . . . . . . . . . . . 91Системные характеристики БНС . . . . . . . . . . . . . . . . . . . 94

Вычислительная эффективность . . . . . . . . . . . . . . . . 94Пластичность . . . . . . . . . . . . . . . . . . . . . . . . . . 94Способность к обучению . . . . . . . . . . . . . . . . . . . . 95

Перестраиваемые спектральные преобразования . . . . . . . . . . 98Настройка перестраиваемых преобразований . . . . . . . . . 99Настройка на базис Уолша . . . . . . . . . . . . . . . . . . . 100Настройка на базис Фурье . . . . . . . . . . . . . . . . . . . 103Быстрое вейвлет-преобразование . . . . . . . . . . . . . . . 104

Нейросетевая аппроксимация регулярных фракталов . . . . . . . 106Аналитическая форма регулярного фрактала . . . . . . . . . 107Дискретная аппроксимация фракталов . . . . . . . . . . . . 108

Фрактальная фильтрация сигналов . . . . . . . . . . . . . . . . . . 111Фильтрация дискретных сигналов . . . . . . . . . . . . . . . 112Типы фрактальных фильтров . . . . . . . . . . . . . . . . . . 113Фильтрация непрерывных сигналов . . . . . . . . . . . . . . 115

Приспособленные быстрые преобразования . . . . . . . . . . . . 116Алгоритм приспособления . . . . . . . . . . . . . . . . . . . 116Приспособленные преобразования в нечетком пространстве 120Спектральные приспособленные преобразования . . . . . . 122

Быстрые нейронные сети в квантовых вычислениях . . . . . . . . 126Многомерные БНС . . . . . . . . . . . . . . . . . . . . . . . . . . 131Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133

В. Г. Яхно. Нейроноподобные модели описания динамических про-цессов преобразования информации 136Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136Модели с адаптацией параметров . . . . . . . . . . . . . . . . . . 138Модели адаптивных распознающих систем . . . . . . . . . . . . . 139Модели взаимодействующих распознающих систем . . . . . . . . 144Выводы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

4 УДК 004.032.26 (06) Нейронные сети

Page 5: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ ISBN 5–7262–0526–X

Н.Г. Ярушкина. Нечеткие нейронные сети с генетической настрой-кой 151Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152Нечеткие системы . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

Нечеткие множества . . . . . . . . . . . . . . . . . . . . . . . 154Функции принадлежности: Определение и смысл . . . . . . 154Нечеткие числа . . . . . . . . . . . . . . . . . . . . . . . . . 156Нечеткие интервалы . . . . . . . . . . . . . . . . . . . . . . . 156Операции с нечеткими множествами . . . . . . . . . . . . . 156Нечеткие отношения . . . . . . . . . . . . . . . . . . . . . . 161Функции нечетких переменных . . . . . . . . . . . . . . . . 163Нечеткие системы . . . . . . . . . . . . . . . . . . . . . . . . 166

Генетические вычисления . . . . . . . . . . . . . . . . . . . . . . . 172Генетические алгоритмы . . . . . . . . . . . . . . . . . . . . 172Применение генетических алгоритмов . . . . . . . . . . . . 173Стандартный ГА . . . . . . . . . . . . . . . . . . . . . . . . . 174

Гибридные системы . . . . . . . . . . . . . . . . . . . . . . . . . . 176Нечеткие нейронные сети . . . . . . . . . . . . . . . . . . . . 176Структуры гибридных систем (ГС) . . . . . . . . . . . . . . 180

Заключение . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196Литература . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196

УДК 004.032.26 (06) Нейронные сети 5

Page 6: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ПРЕДИСЛОВИЕ

1. В этой книге (она выходит в двух частях) содержатся тексты лекций,прочитанных на Школе-семинаре «Современные проблемы нейроинфор-матики», проходившей 28–30 января 2004 года в МИФИ в рамках VI Все-российской научно-технической конференции «Нейроинформатика–2004».

При отборе и подготовке материалов для лекций авторы и редактор сле-довали принципам и подходам, сложившимся при проведении трех преды-дущих Школ (см. [1–5]). А именно, основной целью Школы было рас-сказать слушателям о современном состоянии и перспективах развитияважнейших направлений в теории и практике нейроинформатики, о ее при-менениях. При этом особенно приветствовались лекции междисциплинар-ные, лежащие по охватываемой тематике «на стыке наук», рассказывающиео проблемах не только собственно нейроинформатики (т. е. о проблемах,связанных с нейронными сетями, как естественными, так и искусственны-ми), но и о взаимосвязях нейроинформатики с другими областями мягкихвычислений (нечеткие системы, генетические и другие эволюционные ал-горитмы и т. п.), с системами, основанными на знаниях, с традиционнымиразделами математики, биологии, психологии, инженерной теории и прак-тики.

Основной задачей лекторов, приглашаемых из числа ведущих специа-листов в области нейроинформатики и ее приложений, смежных областейнауки, было дать живую картину современного состояния исследованийи разработок, обрисовать перспективы развития нейроинформатики в еевзаимодействии с другими областями науки.

Помимо междисциплинарности, приветствовалась также и дискуссион-ность излагаемого материала. Как следствие, не со всеми положениями,выдвигаемыми авторами, можно безоговорочно согласиться, но это толькоповышает ценность лекций — они стимулируют возникновение дискуссии,выявление пределов применимости рассматриваемых подходов, поиск аль-тернативных ответов на поставленные вопросы, альтернативных решенийсформулированных задач.

2. В программу Школы-семинара «Современные проблемы нейроин-форматики» на конференции «Нейроинформатика–2003» вошли следую-щие восемь лекций 1:

1. Я. Б. Казанович, В. В.Шматченко. Осцилляторные нейросетевые мо-дели сегментации изображений и зрительного внимания.

1Первые четыре из перечисленных лекций публикуются в части 1, а оставшиеся четыре— в части 2 сборника «Лекции по нейроинформатике».

6 УДК 004.032.26 (06) Нейронные сети

Page 7: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Ю.В.ТЮМЕНЦЕВ

2. В. Г. Яхно. Нейроноподобные модели описания динамических про-цессов преобразования информации.

3. А.Ю.Дорогов. Быстрые нейронные сети: Проектирование, настрой-ка, приложения.

4. Н. Г. Ярушкина.Нечеткие нейронные сети с генетической настройкой.5. А. А.Жданов. О методе автономного адаптивного управления.6. Л. А. Станкевич. Нейрологические средства систем управления ин-

теллектуальных роботов.7. С. А. Терехов. Нейро-динамическое программирование автономных

агентов.8. Н. Г.Макаренко. Как получить временные ряды из геометрии и топо-

логии пространственных паттернов?

Основные темы, рассматриваемые в этих лекциях — нетрадиционные 2

нейросетевые модели и их возможные применения.

3. Лекция Я.Б.Казановича и В.В.Шматченко «Осцилляторные ней-росетевые модели сегментации изображений и зрительного внимания» по-священа теме, рассмотрение которой было начато в лекции игумена Фео-фана (Крюкова) на Школе 2002 года [6]. Эта тема относится к направле-нию в теории нейронных сетей, активно развиваемому в настоящее время.Оно ориентируется на изучение динамических и осцилляторных аспектовфункционирования мозга. В рамках данного направления предложен рядгипотез и моделей нейронных сетей, позволяющих объяснить возникнове-ние пространственно-временных паттернов нейронной активности, а такжеих значение для обработки информации. Один из основных элементов этихмоделей — принцип синхронизации, введение которого позволяет надеятьсяна решение ряда задач биологии и психологии, трудных для традиционныхподходов. Лекция Я. Б. Казановича и В. В.Шматченко посвящена анали-зу моделей, в которых принцип синхронизации используется для решениязадач сегментации объектов на изображении и формирования фокуса вни-мания.

4. К первой лекции по своему подходу и прикладной ориентации в опре-деленной степени примыкает лекция В. Г.Яхно «Нейроноподобные моделиописания динамических процессов преобразования информации», которая

2Нетрадиционные в том смысле, что отличаются от мультиперсептронов, сетей Хоп-филда и еще двух-трех общеизвестных и повсеместно используемых видов моделей.

УДК 004.032.26 (06) Нейронные сети 7

Page 8: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

продолжает развитие темы, начатой автором в лекции на Школе 2001 го-да [7]. Здесь под нейроноподобными понимаются распределенные систе-мы, состоящие из активных элементов с несколькими устойчивыми иликвазиустойчивыми состояниями, при этом взаимодействие между указан-ными неравновесными элементами осуществляется за счет нелокальныхпространственных связей. Модели подобного рода успешно применяютсядля описания процессов в однородных нейронных сетях сетчатки глазаживых объектов, коры некоторых отделов головного мозга и т. п. Одна изважных областей применения предлагаемых моделей — адаптивные распо-знающие системы, а также совокупности таких систем, которые открываютвозможность анализировать на количественном уровне реакции животныхпри восприятии и осознания действующих на них информационных сиг-налов.

5. Лекция А.Ю.Дорогова «Быстрые нейронные сети: Проектирование,настройка, приложения» базируется на том параллелизме, который суще-ствует между алгоритмом быстрого преобразования Фурье (БПФ), играю-щем огромную роль в обработке сигналов и многослойными нейроннымисетями. Этот параллелизм заключается в том, что алгоритмы БПФ имеютвыраженную многослойную структуру, которая подобна структуре много-слойных персептронов. По этой причине представляется вполне естествен-ным использовать потенциал, накопленный в области БПФ, для построе-ния нейронных сетей соответствующей архитектуры, которые предлага-ется именовать быстрыми нейронными сетями (БНС). В лекции подробнорассматривается алгоритмическая сторона формирования БНС, которая ил-люстрируется на многочисленных примерах, в первую очередь из областиадаптивной фильтрации. Одна из интересных возможностей использованияБНС обусловлена тем фактом, что структура БНС идентична структуре тен-зорных произведений векторных пространств. Из этого вытекает возмож-ность использовать БНС для построения алгоритмов квантовых вычисле-ний 3. В лекции показано также, что парадигма БНС допускает многомер-ное обобщение, что открывает возможность создания быстродействующихклассификаторов зрительных сцен.

3Тематика квантовых вычислений и квантовых нейронных сетей уже затрагиваласьв лекциях Школы (см., в частности, лекцию А.А. Ежова на Школе 2003 года [8]), атакже в материалах Рабочего совещания «Квантовые нейронные сети» на конференции«Нейроинформатика–2000» [8].

8 УДК 004.032.26 (06) Нейронные сети

Page 9: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Ю.В.ТЮМЕНЦЕВ

6. Лекция Н.Г.Ярушкиной «Нечеткие нейронные сети с генетическойнастройкой» посвящена рассмотрению еще одной плодотворной парадиг-мы, которая позволяет сочетать методы обучения, характерные для ней-ронных сетей, с вербализацией правил вывода, типичной для нечеткихсистем. Нечеткие нейронные сети (ННС), изучаемые в рамках данной па-радигмы, представляют собой реализацию систем нечеткого логическоговывода методами нейронных сетей. Подобного рода сети включают в се-бя слои, которые состоят из специальных И и ИЛИ нейронов. Настройкунечетких нейронных сетей предлагается выполнять с помощью методовгенетической оптимизации. В числе приложений для ННС, упоминаемыхв лекции, задачи управления объектами (динамическими системами). По-добного рода комбинированное использование нескольких элементов, тра-диционно объединяемых под общим наименованием «мягкие вычисления»(искусственные нейронные сети, нечеткие системы, эволюционные вычис-ления) ранее в рамках Школы рассматривалось, в частности в лекцияхЮ.И.Нечаева [10,11] применительно к различным аспектам задачи управ-ления динамическими объектами.

7. В той или иной степени с решением задач управления связаны следу-ющие три лекции (А.А.Жданова, Л.А. Станкевича и С.А. Терехова). Об-щей чертой подходов, предлагаемых в этих лекциях, является то, что всеони нацелены на решение задачи управления поведением объекта в услови-ях значительной неопределенности. В частности, в лекции А.А.Жданова«О методе автономного адаптивного управления» предлагается концепту-альная модель нервных систем, названная методом «автономного адаптив-ного управления» (ААУ). Считается, что рассматриваемая система пред-ставляет собой совокупность из объекта управления, управляющей систе-мы (УС) (моделируемой нервной системы) и среды. Данная УС являетсяинтеллектуальной, поскольку обладает такими свойствами, как наличие ап-парата эмоций, который мотивирует, определяет, направляет и оцениваетповедение УС; внутренняя активность, направленная на расширение зна-ний, повышающих вероятность выживания; адаптивность и саморазвитие;индивидуальность. На этой концептуальной основе предлагаются конкрет-ные решения, позволяющие строить практически действующие управляю-щие системы, описаны примеры нескольких практических приложений.

8. Еще одна работа, связанная с проблемами интеллектуального управ-ления, это лекция Л.А.Станкевича «Нейрологические средства системуправления интеллектуальных роботов». В ней вводится класс средств,

УДК 004.032.26 (06) Нейронные сети 9

Page 10: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

именуемых автором нейрологическими, которые способны обучаться в ре-альном времени отображению сложных функций и процессов. База дляпостроения таких средств — нейронные сети и логических системы направилах. Показано, что на основе нейрологических средств можно стро-ить когнитивные и актуаторные структуры, способные обучаться, форми-ровать и реализовывать сложное рациональное поведение динамическихобъектов в среде. Одна из очевидных сфер применения предлагаемыхсредств — создание интеллектуальных роботов. В качестве примеров та-кого применения указываются система управления для антропоморфногоробота, а также перспективный проект системы интеллектуального управ-ления гуманоидного робота. Лекторы Школы не впервые обращаются ктематике управления роботами, в том числе и антропоморфными робота-ми. В частности, эти проблемы рассматривались в лекциях А.А.Фроловаи Р. А.Прокопенко [12], а также А.И. Самарина [13] на Школе 2001 года.

9. Еще один из подходов к управлению сложными динамическими си-стемами представлен в лекции С.А. Терехова «Нейро-динамическое про-граммирование автономных агентов», которая, в определенной степени,продолжает тематику, рассматривавшуюся в лекциях С.А. Терехова наШко-лах 2002 года [14] и 2003 года [15]. Здесь речь идет о многошаговых про-цессах принятия решений и об оптимизации таких процессов. Среди мно-гообразия подходов, существующих в настоящее время для решения задачподобного рода, можно выделить приближенные методы поиска адаптаци-онной стратегии, которые основаны на аппроксимации функций оптималь-ного поведения искусственными нейронными сетями. Этот подход, исполь-зующий кроме нейросетей также еще и методологию динамического про-граммирования, принято именовать нейро-динамическим программирова-нием. Важную роль в нейро-динамическом программировании играет обу-чение нейронной сети на основе локальных подкреплений (reinforcementlearning), используемое вместо традиционного обучения с учителем. Пока-зана связь задачи целевой адаптации автономного агента при обучении сподкреплением и задачи прогностического оптимального управления. При-ведены примеры приложений методов нейро-динамического программиро-вания.

10. Лекция Н.Г.Макаренко «Как получить временные ряды из геомет-рии и топологии пространственных паттернов? Математические аспектыанализа распределенных динамических систем» продолжает серию его вы-ступлений междисциплинарного характера, которые состоялись на Школах

10 УДК 004.032.26 (06) Нейронные сети

Page 11: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Ю.В.ТЮМЕНЦЕВ

2002 года [16] и 2003 года [17]. Объектом рассмотрения являются распре-деленные динамические системы, которые не только демонстрируют слож-ное поведение во времени, но и имеют нетривиальную пространственнуюструктуру. И если в лекции [17] проекциями динамики рассматриваемыхсистем в «Мир экспериментатора» являлись одномерные временные ряды,то теперь это — «мгновенные снимки», изображения или «сцены». Такимобразом для распределенных динамических систем приходиться иметь де-ло с двумя видами сложности: временной, которая отслеживается времен-ными рядами каких-либо интегральных параметров, и пространственной,которая «кодируется» геометрией и топологией «сцен». Применительно кданной ситуации рассматриваются пространственные паттерны, а такженекоторые современные математические инструменты для «арифметиза-ции» и анализа таких объектов, основанные на методах таких разделовматематики, как вычислительная геометрия, геометрические вероятности,интегральная геометрия, математическая морфология, стохастическая гео-метрия, вычислительная топологии. Показано, что аппарат искусственныхнейронных сетей вполне естественным образом взаимодействует со мно-гими из этих элементов.

∗ ∗ ∗Для того, чтобы продолжить изучение вопросов, затронутых в лекциях,

можно порекомендовать такой уникальный источник научных и научно-технических публикаций, как цифровая библиотека ResearchIndex (ее на-зывают также CiteSeer, см. позицию [19] в списке литературы в конце пре-дисловия). Эта библиотека, созданная и развиваемая отделением фирмыNEC в США, на конец 2002 года содержала около миллиона публикаций,причем это число постоянно и быстро увеличивается за счет круглосуточ-ной работы поисковой машины.

Каждый из хранимых источников (статьи, препринты, отчеты, диссер-тации и т. п.) доступен в полном объеме в нескольких форматах (PDF,

PostScript и др.) и сопровождается очень подробным библиографическимописанием, включающим, помимо данных традиционного характера (ав-торы, заглавие, место публикации и/или хранения и др.), также и боль-шое число ссылок-ассоциаций, позволяющих перейти из текущего биб-лиографического описания к другим публикациям, «похожим» по темена текущую просматриваемую работу. Это обстоятельство, в сочетаниис весьма эффективным полнотекстовым поиском в базе документов посформулированному пользователем поисковому запросу, делает библиоте-

УДК 004.032.26 (06) Нейронные сети 11

Page 12: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ку ResearchIndex незаменимым средством подбора материалов по требуе-мой теме.

Помимо библиотеки ResearchIndex, можно рекомендовать также бога-тый электронный архив публикаций [20], а также портал научных вычис-лений [18].

Перечень проблем нейроинформатики и смежных с ней областей, тре-бующих привлечения внимания специалистов из нейросетевого и родствен-ных с ним сообществ, далеко не исчерпывается, конечно, вопросами, рас-смотренными в предлагаемом сборнике, а также в сборниках [1–5].

В дальнейшем предполагается расширение данного списка за счет рас-смотрения насущных проблем собственно нейроинформатики, проблем «по-граничного» характера, особенно относящихся к взаимодействию нейросе-тевой парадигмы с другими парадигмами, развиваемыми в рамках кон-цепции мягких вычислений, проблем использования методов и средствнейроинформатики для решения различных классов прикладных задач. Небудут забыты и взаимодействия нейроинформатики с такими важнейшимиее «соседями», как нейробиология, нелинейная динамика (синергетика — впервую очередь), численный анализ (вейвлет-анализ и др.) и т. п.

Замечания, пожелания и предложения по содержанию и форме лекций,перечню рассматриваемых тем и т. п. просьба направлять электронной по-чтой по адресу [email protected] Тюменцеву Юрию Владимировичу.

Литература

1. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // III Всероссийская научно-техническаяконференция «Нейроинформатика-2001», 23–26 января 2001 г. / Отв. ред.Ю.В. Тюменцев. – М.: Изд-во МИФИ, 2001. – 212 с.

2. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // IV Всероссийская научно-техническаяконференция «Нейроинформатика-2002», 23–25 января 2002 г. / Отв. ред.Ю.В. Тюменцев. Часть 1. – М.: Изд-во МИФИ, 2002. – 164 с.

3. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // IV Всероссийская научно-техническаяконференция «Нейроинформатика-2002», 23–25 января 2002 г. / Отв. ред.Ю.В. Тюменцев. Часть 2. – М.: Изд-во МИФИ, 2002. – 172 с.

4. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // V Всероссийская научно-техническая

12 УДК 004.032.26 (06) Нейронные сети

Page 13: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Ю.В.ТЮМЕНЦЕВ

конференция «Нейроинформатика-2003», 29–31 января 2003 г. / Отв. ред.Ю.В. Тюменцев. Часть 1. – М.: Изд-во МИФИ, 2003. – 188 с.

5. Лекции по нейроинформатике: По материалам Школы-семинара «Современ-ные проблемы нейроинформатики» // V Всероссийская научно-техническаяконференция «Нейроинформатика-2003», 29–31 января 2003 г. / Отв. ред.Ю.В. Тюменцев. Часть 2. – М.: Изд-во МИФИ, 2003. – 180 с.

6. Игумен Феофан (Крюков). Модель внимания и памяти, основанная на принципедоминанты // В сб.: «Лекции по нейроинформатике». Часть 1. – М.: Изд-воМИФИ, 2002. – с. 66–113.

7. Яхно В. Г. Процессы самоорганизации в распределенных нейроноподобных си-стемах: Примеры возможных применений // В сб.: «Лекции по нейроинформа-тике». – М.: Изд-во МИФИ, 2001. – с. 103–141.

8. Ежов А. А. Некоторые проблемы квантовой нейротехнологии // В сб.: «Лекциипо нейроинформатике». Часть 2. – М.: Изд-во МИФИ, 2003. – с. 29–79.

9. Квантовые нейронные сети: Материалы рабочего совещания «Современныепроблемы нейроинформатики» // 2-я Всероссийская научно-техническая кон-ференция «Нейроинформатика-2000», 19–21 января 2000 г.; III Всероссий-ская научно-техническая конференция «Нейроинформатика-2001», 23–26 ян-варя 2001 г. / Отв. ред. А. А. Ежов. – М.: Изд-во МИФИ, 2001. – 104 с.

10. Нечаев Ю.И. Нейросетевые технологии в бортовых интеллектуальных систе-мах реального времени // В сб.: «Лекции по нейроинформатике». Часть 1. –М.: Изд-во МИФИ, 2002. – с. 114–163.

11. Нечаев Ю.И. Математическое моделирование в бортовых интеллектуальныхсистемах реального времени // В сб.: «Лекции по нейроинформатике». Часть 2.– М.: Изд-во МИФИ, 2003. – с. 119–179.

12. Фролов А. А., Прокопенко Р. А. Адаптивное нейросетевое управление антропо-морфными роботами и манипуляторами // В сб.: «Лекции по нейроинформати-ке». – М.: Изд-во МИФИ, 2001. – с. 18–59.

13. Самарин А.И. Нейросетевые модели в задачах управления поведением робота// В сб.: «Лекции по нейроинформатике». – М.: Изд-во МИФИ, 2001. – с. 60–102.

14. Терехов С. А. Нейросетевые аппроксимации плотности распределения вероят-ности в задачах информационного моделирования // В сб.: «Лекции по нейро-информатике». Часть 2. – М.: Изд-во МИФИ, 2002. – с. 94–120.

15. Терехов С. А. Введение в байесовы сети // В сб.: «Лекции по нейроинформати-ке». Часть 1. – М.: Изд-во МИФИ, 2003. – с. 149–187.

16. Макаренко Н. Г. Фракталы, аттракторы, нейронные сети и все такое // В сб.:«Лекции по нейроинформатике». Часть 2. – М.: Изд-во МИФИ, 2002. – с. 121–169.

УДК 004.032.26 (06) Нейронные сети 13

Page 14: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

17. Макаренко Н. Г. Эмбедология и нейропрогноз // В сб.: «Лекции по нейроинфор-матике». Часть 1. – М.: Изд-во МИФИ, 2003. – с. 86–148.

18. Портал научных вычислений (Matlab, Fortran, C++ и т. п.)URL: http://www.mathtools.net/

19. NEC Research Institute CiteSeer (also known as ResearchIndex) — ScientificLiterature Digital Library.URL: http://citeseer.nj.nec.com/

20. The Archive arXiv.org e-Print archive — Physics, Mathematics, Nonlinear Sciences,Computer Science.URL: http://arxiv.org/

Редактор материалов выпуска,кандидат технических наук Ю.В. Тюменцев

E-mail: [email protected]

Page 15: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ 1), В. В.ШМАТЧЕНКО 2)

1) Институт математических проблем биологии РАН,г. Пущино, Московской обл.

E-mail: [email protected]) Пущинский государственный университет, г. Пущино

E-mail: [email protected]

ОСЦИЛЛЯТОРНЫЕ НЕЙРОСЕТЕВЫЕ МОДЕЛИ СЕГМЕНТАЦИИИЗОБРАЖЕНИЙ И ЗРИТЕЛЬНОГО ВНИМАНИЯ

Аннотация

Описываются принципы построения и функционирования осцилляторныхнейронных сетей для решения задач сегментации изображений и зритель-ного внимания. Рассмотрены параллельные и последовательные процеду-ры сегментации, а также модели внимания, ориентированные на селекциюобъектов в соответствии с заданными приоритетами. Обсуждаются биоло-гические и технические перспективы осцилляторных моделей когнитивныхфункций мозга.

Y.B.KAZANOVICH 1), V. V. SHMATCHENKO 2)

1)Institute of Mathematical Problems in Biology,Russian Academy of Sciences, Pushchino

E-mail: [email protected])State University of Pushchino, Pushchino

E-mail: [email protected]

OSCILLATORY NEURAL NETWORK MODELS OF BINDING ANDATTENTION

Abstract

The principles of oscillatory neural network design and functioning are describedin application to the problems of image segmentation and visual attention. Paralleland sequential procedures of segmentation and models of attention implementingdifferent priorities in object selection are considered. Biological and technicalperspective of oscillatory models of brain cognitive functions is discussed.

УДК 004.032.26 (06) Нейронные сети 15

Page 16: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Введение. Биологические предпосылки моделирования

В теории нейронных сетей сформировалось и активно развивается от-дельное направление, ориентирующееся на исследование динамических иосцилляторных аспектов функционирования мозга. Появился ряд гипотези моделей нейронных сетей, объясняющих возникновение определенныхпространственно-временных паттернов нейронной активности и их значе-ние для обработки информации. Особая роль в этих исследования отводит-ся синхронизации как основному принципу, с помощью которого можнонадеяться решить ряд сложных задач нейробиологии и психологии. В дан-ной работе будут рассмотрены модели, в которых принцип синхронизациииспользуется для решения задач сегментации объектов на изображении иформирования фокуса внимания.

Хорошо известно, что в ЭЭГ мозга присутствует ритмическая актив-ность в различных частотных диапазонах (дельта 1–3 Гц, тета 4–10 Гц, аль-фа 8–13 Гц, бета 14–30 Гц, гамма 30–70 Гц, высокочастотные колебаниясвыше 70 Гц). При этом характер колебаний в значительной мере коррели-рован с психологическими состояниями исследуемого организма. Устой-чивые паттерны ритмической активности были обнаружены в различныхструктурах мозга на уровне отдельных нейронов и нейронных популяций.Такие экспериментальные данные получены в первичных зонах зритель-ной и обонятельной коры, сенсомоторной коре, в таламусе, в гиппокампеи в других структурах [1]. Поскольку колебательная активность являет-ся типичной для многих нейронных структур, можно предположить, чтоинформация в мозге кодируется как частотой колебаний и их фазовыми со-отношениями, так и пространственным распределением осциллирующихнейронов. Признаки, используемые при кодировании информации о сти-мулах в первичных зонах коры, имеют различную природу. Например, вслучае зрительных стимулов это могут быть геометрические, спектральныеили динамические характеристики изображения. Кроме того, признаки мо-гут отличаться модальностью в зависимости от сенсорного источника (на-пример, зрительного или слухового), от которого поступает информация.Известно, что первичная обработка различных по своей природе или мо-дальности признаков идет в специализированных нейронных структурахкоры мозга. Только в ассоциативных зонах коры возникает представлениео целостных объектах, вызвавших стимуляцию сенсорных систем. В связис этим возникает вопрос: каковы нейронные механизмы, позволяющие со-хранить информацию о принадлежности признаков к отдельным объектам,

16 УДК 004.032.26 (06) Нейронные сети

Page 17: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

и как осуществляется объединение нужных признаков в цельный образобъекта?

Традиционный подход к решению этой проблемы связан с локальнымили распределенным представлением объектов с помощью специфичныхклеток (“grandmother cells” — «клетки бабушки»), которые обеспечиваютконвергентную интеграцию реакций первичных нейронных систем на сти-мулы. Такие клетки действительно обнаружены: например, у обезьян естьклетки, реагирующие на определенные лица. Тем не менее, вряд ли можноожидать, что такое решение задач запоминания и распознавания являетсяуниверсальным. Одна из трудностей в реализации гипотезы о grandmothercells состоит в том, что потенциально эти клетки должны быть чувстви-тельны ко всем возможным сочетаниям признаков, что приводит к комби-наторному взрыву числа связей [2].

Другая трудность возникает при одновременном предъявлении на изоб-ражении нескольких объектов. Дело в том, что информация о разных ти-пах признаков обрабатывается независимо в специализированных структу-рах коры мозга, и только на уровне ассоциативной коры эта информациядолжна быть объединена в представление каждого объекта. Таким образом,весь набор признаков, извлеченных из изображения, должен быть сегмен-тирован с указанием того, какой признак какому объекту принадлежит, и«метка» принадлежности должна сохраняться на всем пути продвижениязрительной информации по коре. Это так называемая проблема интеграциипризнаков (binding problem) [2, 3].

Решение данной проблемы было предложено в работах [4, 5], где быласформулирована гипотеза, что согласование во времени активностей ней-ронных ансамблей играет существенную роль в информационных процес-сах в мозге. Основная идея состоит в том, что признаки объекта кодируют-ся синфазной (когерентной) активностью нейронов в различных областяхкоры мозга. Когерентность служит в качестве метки, помечающей инфор-мацию, относящуюся к одному объекту.

Эта гипотеза получила определенное экспериментальное подтвержде-ние [6, 7]. В экспериментах на первичных зонах зрительной коры былаобнаружена как стимулоспецифичная колебательная активность нейронов,так и когерентность этой активности при соблюдении определенных усло-вий. В частности, проводились эксперименты на кошках, которым предъ-являлась светлая полоска, движущаяся вверх или вниз по темному экрану.Активность на уровне одиночных нейронов (multiunit activity) и нейронныхансамблей (local field potential) регистрировалась в зоне V1 первичной зри-

УДК 004.032.26 (06) Нейронные сети 17

Page 18: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

тельной коры двумя электродами. Были получены следующие результаты.

1. Нейроны отвечают периодической активностью с частотой в гамма-диапазоне при прохождении полоски через их рецептивное поле.

2. При одновременном пересечении полоской двух рецептивных по-лей активность соответствующих нейронов синфазна, даже если этинейроны находятся друг от друга на расстоянии нескольких милли-метров.

3. Если полоску разорвать на две изолированных части, то синхрон-ность ответа падает тем больше, чем больше величина разрыва.

4. Если на экране движутся две полоски в разных направлениях (однавверх, другая вниз), то синхронизованного ответа не возникает дажев тот момент, когда эти полоски оказываются на одной прямой.

Таким образом, в случае 2 имеет место синхронный ответ на единичныйобъект, а в случаях 3 и 4 — несинхронный ответ на два разных объекта.

Эти эксперименты были восприняты нейробиологическим сообществомнеоднозначно. Одна часть ученых увидела в них радужные перспективыдля понимания основных механизмов работы мозга и включилась в работупо проведению аналогичных экспериментов на разных животных, в разныхусловиях опыта и с регистрацией синхронной активности в других структу-рах. Другая часть продолжает относиться к этим результатам скептически,объясняя их специфическими условиями экспериментов. Очевидно, важ-ную роль в этом вопросе должно сыграть математическое моделирование,поскольку с его помощью с гораздо большей полнотой могут быть изуче-ны как сами осцилляторные механизмы интеграции признаков, так и ихвозможная роль в решении когнитивных задач.

Предположение о том, что принципы группировки информации долж-ны быть сходными для различных информационных процессов, происхо-дящих в мозге, привело к попытке использовать принципы синхронизациинейронной активности для объяснения механизма формирования и пере-ключения фокуса внимания. К этому подталкивают как данные об участиивнимания в группировке признаков [8–10], так и недавно полученное пря-мое экспериментальное подтверждение связи внимания с синхронизациейнейронной активности [11–13].

В упрощенном виде обработку информации в мозге можно разделитьна два относительно независимых уровня [9]. На нижнем уровне (назы-ваемом предвниманием) происходит выделение признаков и распознава-ние простых стимулов (представленных однотипными признаками). Осо-

18 УДК 004.032.26 (06) Нейронные сети

Page 19: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

бенностью данного уровня является параллельная обработка информации,а синхронизация может быть следствием непосредственного взаимодей-ствия между нейронными ансамблями первичной коры. На верхнем уровне(реализуемом с помощью внимания) формируется общее представление ореальности. Характерной особенностью этого уровня является последова-тельная обработка информации — в каждый момент времени обрабатывает-ся та информация, которая находится в фокусе внимания. Синхронизацияна этом уровне может использоваться для интеграции всей информацииот органов чувств, находящейся в фокусе внимания. Есть основание пред-полагать, что работа верхнего уровня идет под управлением специальныхкоординирующих структур (таких как септо-гиппокампальная система илобные доли коры).

В данной работе будут рассмотрены осцилляторные модели сегмента-ции и зрительного внимания, разработанные, в основном, в последнее де-сятилетие. Модели сегментации обычно соответствуют нижнему уровню,а модели внимания — верхнему. Но это правило не является абсолютным.Некоторые модели сегментации используют последовательные процеду-ры, а модели внимания наоборот строятся на принципах параллельнойобработки информации и без использования специальных управляющихэлементов или структур. Так что граница между этими моделями не всегдарезкая, а используемые идеи бывают весьма сходными, что и обуславливаетцелесообразность их совместного рассмотрения. Сводка общих принциповпостроения осцилляторных нейронных сетей дана в приложении.

Сегментация зрительных сцен

Анализ и понимание зрительной сцены является одной из трудных задачкак для моделирования в нейробиологии, так и при разработке системискусственного интеллекта. Во многих случаях первым шагом к такомуанализу является сегментация — выделение из всего изображения фона иосмысленных объектов. Как правило, невозможно распознать тот или инойобъект без предварительной (или проходящей одновременно) сегментации.Сегментация также необходима как условие эффективного обучения, поз-воляющего идентифицировать паттерны, возникновения которых можноожидать в последующих сценах.

Отметим, что в терминах осцилляторных нейронных сетей сегмента-цию зрительной сцены на принципах синхронизации одновременно можно

УДК 004.032.26 (06) Нейронные сети 19

Page 20: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

рассматривать как решение задачи интеграции признаков объекта в цель-ный образ. Результатом сегментации должна явиться такая активность ней-ронной сети, при которой разным объектам входного изображения соответ-ствуют ансамбли элементов сети, имеющие различную динамику: элемен-ты, кодирующие определенный объект, работают синфазно, а активностьэлементов, кодирующих разные объекты, не коррелирована. Таким обра-зом, синфазная активность оказывается той «меткой», с помощью которойидентифицируются потоки информации, относящиеся к тому или иномуобъекту.

Предположим, что сенсорный вход нейронной сети активирован на-бором одновременно предъявленных объектов. Формирование синфазноработающих нейронных ансамблей может происходить параллельно (од-новременно для всех объектов) или последовательно (синфазные ансамбливозникают в определенной последовательности). Оба эти подхода пред-ставлены в рассматриваемых ниже моделях сегментации.

Модели сегментации: Параллельные процедуры

При разработке модели сегментации на основе синхронизации достаточ-но очевидной представляется идея, согласно которой элементы нейроннойсети синхронизируются с помощью подходящим образом подобранных ло-кальных связей. К сожалению, попытка реализации этой идеи приводитк ряду трудностей. Если связи между элементами малы, то их синхро-низирующей силы недостаточно для быстрой и надежной синхронизациивсех осцилляторов, кодирующих признаки одного объекта. Если же связисделать сильными, то это может привести к синхронизации групп осцил-ляторов, кодирующих разные объекты.

Для преодоления этих трудностей было выдвинуто два предложения.Согласно первому предложению нужно использовать адаптирующиеся свя-зи, а именно: сила связи между осцилляторами, работающими синхронно,должна увеличиваться, а между несинхронно работающими — убывать.Второе предложение состояло в том, чтобы сделать локальные связи меж-ду близко расположенными осцилляторами синхронизирующими, а связимежду удаленными друг от друга осцилляторами — десинхронизирующи-ми. Обе идеи приводят к сходному результату: если ансамбли когерентноработающих осцилляторов образуют изолированные кластеры, то когерент-ности между этими ансамблями не будет.

20 УДК 004.032.26 (06) Нейронные сети

Page 21: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

Использование адаптирующихся связей. В ряде работ используетсяэффект модификации эффективности синаптической связи за короткие ин-тервалы времени, хотя возможный механизм такой модификации остаетсянедостаточно изученным, в частности, неизвестно, является ли она след-ствием биофизических изменений в синапсах или отражает влияние другихпопуляций нейронов. Модификация эффективности синаптических связейбыла использована в работах [14, 15].

РИС. 1. Архитектура модели для работы с движущимися объек-тами

A — область распределения возбуждающих связей в группе, B — возбуждаю-щие связи между нейронами в разных группах с пересекающимися рецептив-ными полями.

Модель [14] рассчитана на работу с движущимися объектами, аппрок-симированными прямолинейными отрезками. Такой подход обусловленстремлением достаточно точно имитировать экспериментальные данные[6,7]. Архитектура сети представлена на рис. 1. Модель состоит из сен-сорного поля (32 × 32 пикселей), четырех слоев детекторов элементарныхпризнаков (32×32 клеток) и четырех слоев групп нейронов (16×16 групп).Каждая группа нейронов состоит из 40 возбуждающих и 20 тормозных кле-ток. Детекторы элементарных признаков, чувствительные к направлениюдвижения пикселей на сенсорном поле в четырех направлениях (вверх,вниз, вправо, влево), распределены по разным слоям. Возбуждающие ней-

УДК 004.032.26 (06) Нейронные сети 21

Page 22: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

роны в группах получают топографически соответствующий им вход от9 детекторов движения, так что активность нейронов в группе оказыва-ется специфичной как по отношению к направлению движения, так и поотношению к ориентации стимулов. Кроме того, каждая возбуждающаяклетка в группе получает 10 связей от других возбуждающих и 10 связейот тормозных клеток, а каждая тормозная клетка получает 10 связей отвозбуждающих клеток. Что касается адаптирующихся связей, то каждаявозбуждающая клетка получает два типа таких связей. Во-первых, это 30связей от клеток в том же слое, распределенных по концентрическим об-ластям из 7 × 7 групп (см. позицию A на рис. 1). Плотность связей падаетэкспоненциально с ростом расстояния от данной группы (это изображено ввиде градации серого, центральная группа — черная). Во-вторых, существу-ет еще 10 связей от возбуждающих клеток в группах с пересекающимисярецептивными полями и со специфичностью к направлению, отличающе-муся на 90 градусов (см. позицию B на рис. 1).

В сети использовались импульсные нейроны с активностями, вычисля-емыми как

si(t) =[∑

j

(cij + eij)sj(t), θ]

+ η + αsi(t − 1),

где si, sj — состояния нейронов i, j (0 � si,j � 1), t — время (одна итерацияравна 1 мс реального времени), cij — базовая синаптическая эффективностьи eij — быстро изменяющаяся эффективность (0 � cij + eij � 1), сумми-рование по j — суммирование по всем афферентным связям, η — шум, α— коэффициент релаксации. Квадратные скобки означают полулинейнуюфункцию с порогом θ:

[x, θ] ={

x − θ, x > θ,0, x � 0.

Перед началом работы сети все синапсы имеют базовые значения cij ,которые не равны нулю и не изменяются во время всего процесса; eij

равны нулю. Для адаптирующихся связей величина eij изменяется в зави-симости от значений пост- и пресинаптической активности в соответствиис правилом

eij (t + 1) = (1 − γ)eij (t) + δ · F (eij) · h(si − θi) · h(sj − θj),

где si,j = λsi,j (t)+(1−λ)si,j (t − 1) — усредненные по времени активностиклеток i и j; δ — коэффициент усиления (параметр, регулирующий скорость

22 УДК 004.032.26 (06) Нейронные сети

Page 23: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

изменения), γ — константа затухания синаптической эффективности, θi,j

— пороги срабатывания для пост- и пресинаптических нейронов, F (t) —сигмоидальная функция, h(t) — функция Хевисайда.

Стимулы представляли собой совокупности коротких вертикальных игоризонтальных полосок, движущихся в одном или разных направленияхс одинаковой скоростью. Перед началом движения сеть инициироваласьслучайным набором полосок. Это приводило к возникновению осцилляцийсо случайным распределением начальных фаз. В процессе экспериментовмодель могла решать следующие задачи.

1. Выделять однородно движущийся объект на неоднородном фоне. Ис-пользовался протяженный объект, составленный из нескольких вер-тикальных полосок, движущихся вправо на фоне, составленном изпо-разному ориентированных полосок, движущихся в случайных на-правлениях. При этом синхронизация групп нейронов, отвечающихчастям объекта, наступала достаточно быстро — в течение пяти ос-цилляторных циклов (100 мс).

2. Выделять однородный объект, движущийся на однородном фоне.3. Разделять два однородных объекта. В этом случае по реакции ней-

роны разделялись на два когерентных, но не коррелирующих множе-ства.

4. Группировать элементарные признаки различных типов, принадле-жащие разным объектам. Объекты представляют собой контуры (до-пустим, квадратов), составленные из вертикальных и горизонтальныхполосок и движущиеся в разных направлениях. В данном случае кор-реляция реакций нейронов требует связей между слоями групп ней-ронов с разной специфичностью и пересекающимися рецептивнымиполями.

Усовершенствованная модель [15] позволяет включить в рассмотрениетакже цветные изображения. В сети используются группы осцилляторов,чувствительные к наличию в их рецептивных полях соответствующих при-знаков изображения (цвет, форма, движение). Архитектура этой модели до-статочно сложна и воспроизводит во многих известных деталях структурусвязей в мозге между различными областями, участвующими в обработкезрительной информации, включая область фронтальной коры, управляю-щую движением глаз.

УДК 004.032.26 (06) Нейронные сети 23

Page 24: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Использование синхронизирующих и десинхронизирующих связей.В работе [16] представлена модель, которая решает проблему сегментации,используя механизмы синхронизации и десинхронизации между нейрона-ми, распределенными по различным признак-селективным модулям. Дляреализации этой идеи авторы используют осцилляторы Вилсона-Коуэна.Каждый из осцилляторов состоит из возбуждающих (Xi) и тормозных (Yi)элементов, имитирующих, соответственно, ансамбли возбуждающих и тор-мозных нейронов. Динамика осциллятора определяется системой диффе-ренциальных уравнений

τ0dXi

dt= −αXXi + wXF (Yi(t − τX)) + ηX(t) + Ii(t),

τ0dYi

dt= −αY Yi + wY F (Xi(t − τY )) + ηY (t),

где wX,Y > 0 — силы связи, ηX,Y (t) — белый шум, αX,Y — константазатухания, Ii(t) — внешний сигнал от сенсорного поля, F — сигмообразнаяфункция. Введение в модель задержек τX,Y обусловлено, во-первых, ихприсутствием в нервной системе (ввиду конечной скорости проводимостиимпульсов по аксонам и дендритам и из-за запаздывания, связанного ссинаптической передачей), а также существенным влиянием задержек нафазовые соотношения между осцилляторами в нейронных сетях [17,18].

Связи между осцилляторами также организованы с временным запаз-дыванием. Связь от возбуждающего нейрона одного осциллятора к тормоз-ному нейрону другого подобрана так, что синхронизует работу этих осцил-ляторов. Связи между возбуждающими нейронами осцилляторов являютсядесинхронизирующими. Как показано на рис. 2, дальнодействие десинхро-низирующих связей больше, чем синхронизирующих (рисунок отражаеттолько общий принцип организации связей).

В признак-селективном модуле, специфичном к определенному призна-ку, каждый осциллятор чувствителен к стимулу, представляющему соот-ветствующий признак в ассоциированном с данным осциллятором пикселерецептивного поля. Модуль можно представить как трехмерную структуру:двумерное топографическое отображение зрительного поля и одномерноепредставление градаций признака (рис. 3). Значения признаков определяет-ся для каждого пикселя изображения. Такое задание признаков отходит отэкспериментальных условий [6,7], в которых в качестве признаков фигу-рировали свойства движущихся отрезков, но предоставляет более удобнуювозможность оперирования с яркостными и спектральными характеристи-

24 УДК 004.032.26 (06) Нейронные сети

Page 25: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

РИС. 2. Элементы осцилляторов (возбуждающие (+) и тормозные(−)), объединенные двумя типами связей — локальными синхро-низирующими (сплошные линия) и удаленными десинхронизи-рующими (штрих-линии). Треугольниками обозначены входы отвнешних стимулов.

ками объектов.Рассмотрим архитектуру одного модуля. Каждый осциллятор имеет

синхронизирующие связи с соседними осцилляторами, находящимися нарасстоянии ближайшего соседства. Кроме того, осциллятор имеет десин-хронизирующие связи с осцилляторами из слоев, лежащих на несколькоуровней выше или ниже слоя, в котором находится данный осциллятор. Врезультате такого распределения синхронизирующих и десинхронизирую-щих связей осцилляторы, представляющие один топографически связан-ный объект, будут работать синфазно, так как стимулы, идущие от сен-сорного поля и представляющие этот объект, непрерывны по зрительномупространству и по характеристике признака.

Следующим этапом организации архитектуры сети является введениемодулей, отвечающих за различные признаки (цвет, яркость, движение ит.д.). Между модулями организованы синхронизирующие связи, которыеобъединяют каждый осциллятор в данном модуле со всеми осцилляторами

УДК 004.032.26 (06) Нейронные сети 25

Page 26: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 3. Сеть с трехмерной структурой: двумерное топографиче-ское отображение зрительного поля и одномерное представлениеградаций признака (ось, направленная вниз)

в любом другом модуле, имеющими такое же топографическое положение,как и данный осциллятор. Это согласуется с экспериментальными дан-ными: активности нейронов с одинаковыми рецептивными полями имеюттенденцию к синхронизации. Такие соединения позволяют синхронизиро-ваться ансамблям осцилляторов, распределенным по различным модулям.

Представленная архитектура сети позволяет корректно выполнять инте-грацию признаков объектов, имеющих пересечение по какому-либо призна-ку. В случае двух пересекающихся объектов, представленных различнымихарактеристиками какого-то признака (например, объекты имеют разныйцвет), в соответствующем модуле (в данном случае модуле детекции цве-та) происходит выделение двух непересекающихся синхронно работающихансамблей осцилляторов. При этом десинхронизирующие связи делают ак-тивность в этих ансамблях некоррелированной, тем самым позволяя разде-лять объекты, изображения которых наложены одно на другое в зрительномполе.

Влияние биофизических свойств нейронов на синхронизирующиеи десинхронизирующие связи. Значительно усовершенствованный ва-риант рассмотренной в предыдущем модели представлен в работе [19]. Ав-

26 УДК 004.032.26 (06) Нейронные сети

Page 27: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

торы использовали тот факт, что микроскопические биофизические свой-ства нейронов оказывают выраженный эффект на пространственно-времен-ное взаимодействие нейронов, в частности, на синхронизацию нейроннойактивности. Так, калиевый ток утечки, проводимость и емкость мембранынейрона не являются постоянными, а изменяются под влиянием множествафакторов, таких как воздействие нейромодуляторов (в частности, ацетилхо-лина), распространение постсинаптического сигнала к соме, динамическиесвойства дендрита.

Основные отличия новой модели состоят в следующем. Сеть по-преж-нему имеет модульный характер, но теперь каждый модуль сформированне из осцилляторов Вилсона–Коуэна, а из четырех типов импульсных ней-ронов, различающихся типом нейротрансмиттера и типом рецепторов. Этовозбуждающие нейроны, ГАМК-А и ГАМК-В тормозные нейроны и управ-ляющие глютамат-эргические нейроны. Активность нейрона i в моментвремени t задается как

si (t) = h(Vi (t) − θ),

где h(t) — функция Хевисайда, Vi(t) — мембранный потенциал нейрона i вмомент t, θ — порог, si — бинарная переменная, демонстрирующая наличиелибо отсутствие потенциала действия в момент t.

Когда потенциал действия сгенерирован, мембранный потенциал умень-шается на фиксированное значение β — величину гиперполяризации, опре-деленную для каждого типа нейронов.

Мембранный потенциал нейрона определяется как

Vi (t + 1) = −εVi (t) +Ni∑j=1

Sj (t − τij) · Wij · exp (−Ai (t)Dij),

где ε — скорость пассивного затухания мембранного потенциала; Ni —общее число возбуждающих и тормозных входов нейрона i. Поляризациясомы определяется интегрированием по соответствующим запаздывающимна время τij активностям Sj нейронов j, взвешенным с соответствующимисинаптическими эффективностями Wij , ослабленными в соответствии срасстоянием до сомы Dij и значением коэффициента затухания Ai(t).

Основной особенностью модели является наличие управляющих ней-ронов, которые не оказывают прямого воздействия на мембранные потен-циалы других популяций, но влияют на дендриты других нейронов. Так,

УДК 004.032.26 (06) Нейронные сети 27

Page 28: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

коэффициент затухания постсинаптического сигнала, распространяющего-ся в соме нейрона i, определяется модулирующим воздействием управля-ющих нейронов

Ai (t) = AC −Mi∑j=1

Sj (t − τij) · Wij ,

где AC — базовое значение коэффициента для данной популяции C, Mi —число модуляторных входов i-го нейрона.

Организация связей между популяциями выглядит следующим обра-зом. Входные сигналы приходят на слой управляющих нейронов. Управ-ляющие нейроны оказывают воздействие на другие популяции нейронов,отвечающих различным градациям признака и разному топографическомуположению. В свою очередь, нейроны из других популяций воздействуютна мембранные потенциалы управляющих нейронов. Такое взаимодействиеотличается размерами рецептивных полей и силами синаптической связи.Основную роль в организации связей играет размещение синапсов на денд-ритном дереве. Расстояния от синапсов до сомы в популяциях управляю-щих (У) и ГАМК-А тормозных нейронов зависят от расположения пре- ипостсинаптических нейронов. Синапсы нейронов с близкими рецептивны-ми полями и чувствительностью к одному и тому же признаку расположе-ны близко к соме. Синапсы нейронов с удаленными рецептивными полямии/или чувствительностью к разным признакам расположены по перифериидендритного дерева. Такое размещение позволяет преобразование эффек-тивности синаптических связей в зависимости от состояния модуляторнойсистемы. Выделяются четыре режима взаимодействия нейронов:

• «разобщенный»: если AУ и AГАМК-А остаются при своих начальныхзначениях, большинство постсинаптических потенциалов оказыва-ются подавлены;

• «локальное взаимодействие»: низкие значения модулирующих па-раметров AУ и AГАМК-А позволяют эффективно взаимодействоватьближайшим соседям;

• «взаимодействие в колонке»: при средних значениях, когда AУ ≈ 1и AГАМК-А достигает 0, поведение управляющих клеток будет опреде-ляться возбуждающим внешним сигналом и тормозным постсинап-тическим сигналом клеток ГАМК-А. При этом латеральное взаимо-действие управляющих клеток ограничено;

28 УДК 004.032.26 (06) Нейронные сети

Page 29: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

• «глобальное взаимодействие»: при дальнейшем уменьшении моду-лирующих параметров все возбуждающие сигналы клеток, взаимо-действующих с управляющими нейронами, будут вносить вклад вдеполяризацию этих нейронов.

Кроме обычной для модели сегментации способности к синхрониза-ции активностей нейронов, кодирующих различные объекты, в работе про-демонстрированы две новые возможности обработки изображений. Во-первых, данная модель позволяет работать с движущимися объектами безспециальных детекторов движения. При этом синхронизация активностинаступает сразу при попадании объекта в рецептивные поля соответству-ющих нейронов. Во-вторых, модель чувствительна к контексту, в которомпоказаны объекты. Для иллюстрации этой способности приведем два при-мера.

В первом примере на изображении имеется два разнесенных в про-странстве объекта, каждый из которых состоит из четырех полосок. Приэтом цвета полосок, составляющих один объект, различаются незначитель-но, в то время как разброс значений цвета по объектам значителен (рис. 4A).Для данной зрительной сцены, включающей широкий спектр цветов, вы-бирается режим «взаимодействия в колонке». Это приводит к правильнойдискриминации двух объектов, составленных из одинаковых или близких(рис. 4A, пунктирная и сплошная кривые) цветов. Части, представляющиеразличные объекты, демонстрируют фазовое несоответствие (точечная кри-вая). Во втором примере имеется одно изображение, составленное из чере-дующихся полосок с близкими значениями цветов (рис. 4B). Сеть функци-онирует в условиях режима «локального взаимодействия». В этом случаесеть воспринимает сцену, как два несвязанных объекта, независимо от про-странственного распределения частей этих объектов (рис. 4B, пунктирнаяи точечная кривые). Нейроны, представляющие разные цвета, не синхро-низованы (рис. 4B, сплошная линия).

Модели сегментации: Последовательные процедуры

Рассмотрим теперь другой класс моделей, в которых сегментация одно-временно предъявленных объектов осуществляется последовательно, одинобъект за другим. При этом последовательность объектов может быть слу-чайной или детерминированной.

УДК 004.032.26 (06) Нейронные сети 29

Page 30: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 4. Сегментация, чувствительная к контекстуА. Два разнесенных в пространстве объекта (вверху). Разброс значений цве-та по объектам значителен, цвета в самих объектах изменяются незначитель-но. Кросс-корреляционные нормированные функции (внизу) для пар нейронов,представляющих идентичные цвета (штрихи), похожие цвета (сплошная линия)и сильно отличающиеся цвета (точки). В. Объекты, имеющие небольшие вари-ации в цветовом диапазоне. Корреляционные паттерны для пар нейронов, пред-ставляющих близкие (штрихи), удаленные (точки) и похожие цвета (сплошнаялиния).

30 УДК 004.032.26 (06) Нейронные сети

Page 31: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

Модель ассоциативной интеграции признаков. Пример модели с по-следовательным выбором объектов содержится в работах [20,21]. Эту мо-дель можно рассматривать как адаптацию идей модели Хопфилда ассоци-ативной памяти применительно к осцилляторным нейронным сетям. Сетьсоставлена из импульсных нейронов: пирамидальных клеток и (тормозных)интернейронов. Осцилляторы сети сформированы из пары пирамидальнаяклетка – интернейрон. Архитектура связей в сети отражает тот факт, чтопирамидальные клетки имеют как дальние, так и локальные связи, в товремя как интернейроны имеют преимущественно локальные связи.

Генерация спайка i–м нейроном моделируется формальной переменнойS (t) = {0, 1} и имеет типичную для нейронного импульса ширину 1мс.Временной шаг модели dt = 1мс. Динамика нейрона определяется веро-ятностью генерации спайка в течение временного интервала dt и задаетсявеличиной мембранного потенциала hi

P[Si(t + dt) = 1 |hi(t

]=

12

{1 + tanh

[β(hi(t) − θ)

]},

где θ — порог и β — параметр, отвечающий за внешний шум. Мембранныйпотенциал включает три компонента

hi (t) = hsyni (t) + hext

i (t) + hrefi (t) ,

где hsyni — сумма синаптических входов от всех других нейронов (см. ни-

же), hexti — внешний сигнал, href

i — формальное описание рефрактерностинейрона

hrefi (t) =

{ −R, tF � t � tF + τref ,0, в противном случае,

где R � 1: генерация спайка не допускается в течение интервала τref

после последнего спайка, имевшего место в момент tF .Схема связей в сети из N осцилляторов выглядит следующим образом.

Каждая пирамидальная клетка связана со своим тормозным партнером пря-мой и обратной связью со значением J inh. Пирамидальные клетки, связан-ные между собой по принципу «все на все», формируют сеть, способнуюзапомнить q объектов с помощью настройки весов Jij связей по правилуХебба

Jij =2

(1 − a2)N

q∑µ

ξµi (ξµ

j − a), (1)

УДК 004.032.26 (06) Нейронные сети 31

Page 32: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

где каждый объект состоит из независимо распределенных величин ξµi ,

принимающих значения ξµi = ±1 с вероятностью (1 ± a)/2, где a = 〈ξµ

i 〉— средняя активность по всем объектам. Согласно (1), осцилляторы, при-надлежащие одному объекту, связываются синхронизирующими связями, аосцилляторы, принадлежащие разным объектам — десинхронизирующими.

Каждая клетка i получает сигнал от клетки j с некоторым запаздывани-ем ∆ax

i . Величины таких задержек случайно распределены в интервале от∆ax

min до ∆axmax. После этого формируется постсинаптический потенциал с

амплитудой, зависящей от Jij , и откликом ε(τ). Суммарный вклад в фор-мирование потенциала пирамидальной клетки i определяется следующимобразом:

hsyni (t) =

N∑j=1

Jij

∞∑τ=0

ε (τ) Sj (t − τ − ∆axi ) + hinh

i (t) ,

где ε (t) = (t/τ2ex) exp(t/τex) — функция отклика возбуждающего синапса

с параметром τex = 2мс, hinhi (t) — вклад тормозного партнера нейрона i.

Динамика тормозного нейрона не моделируется детально, а лишь учи-тывается его вклад в формирование постсинаптического потенциала пира-мидальной клетки. Этот вклад представляет собой ответ тормозного нейро-на на его возбуждение пирамидальным нейроном, приходящее с задержкой∆inh

i (∆inhmin � ∆inh

i � ∆inhmax),

hinhi (t) =

τmax∑τ=0

η (t) Si

(t − τ − ∆inh

i

),

где η (t) = J inh exp(t/τinh) — функция отклика с τinh = 6мс. Граница сум-мирования τmax подвижна и выбирается так, чтобы оборвать суммированиес момента, когда компоненты суммы становятся слишком малы.

Кроме обычной способности сети — восстанавливать из памяти обра-зы сохраненных объектов при подаче на вход зашумленных образов, сетьдемонстрирует также возможность сегментации зрительной сцены и ассо-циативной интеграции признаков. Если на вход такой сети подать одно-временно несколько паттернов, принадлежащих разным объектов, которыебыли использованы при формировании связей, то в сети установится сле-дующая динамика. Синфазная активность осцилляторов, представляющиходин объект, через некоторое время сменится синфазной активностью ос-цилляторов, представляющих другой объект. Это происходит из-за того,

32 УДК 004.032.26 (06) Нейронные сети

Page 33: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

что активный в данный момент времени паттерн подавляет активность ос-цилляторов в других паттернах, но активность самого этого паттерна черезнекоторое время подавляется возрастающей активностью входящих в неготормозных нейронов. Порядок активизации разных паттернов случаен иопределяется шумом.

Продемонстрировать ассоциативную интеграцию признаков позволяетсеть с иерархической (двухуровневой) архитектурой. Рассмотрим K группсетей с архитектурой, описанной выше. Будем называть их «колонками»(использовались колонки с 4000 осцилляторов в каждой). Колонки на ниж-нем уровне иерархии имеют прямые и обратные связи с колонкой высшегоуровня, но при этом отсутствуют какие-либо связи между самими колонка-ми нижнего уровня (рис. 5A). Каждая колонка запоминает паттерны объек-тов в соответствии с правилом (1). Вместе с этим, прямые и обратные связи,объединяющие два уровня, запоминают комбинации паттернов на нижнемуровне, ассоциируя их со специфичным паттерном на высшем уровне. Этоприводит к прямым

J0i,kj = g02

(1 − a2)N

∑〈µ,µ′〉

ξµ0i(ξ

µ′kj − a)

и обратным связям

Jki,0j = gk2

(1 − a2)N

∑〈µ,µ′〉

ξµ′ki (ξ

µ0j − a).

Здесь k — номер колонки (номер 0 имеет колонка верхнего уровня), 〈µ, µ′〉означает комбинацию паттернов µ′ в различных колонках нижнего уровня,которые ассоциируются с паттерном µ на высшем уровне. Нормировка gk

выбрана так: g0 = (1+K)−1; gk = 1 для прямой и gk = 0.5 — для обратнойсвязи.

Рассмотрим следующий пример. В качестве объектов, запоминаемыхсетью, будут выступать два «слова» — “CAT” и “THE”, состоящих из трехбукв (признаков) каждое. Теперь колонке с номером 2 предъявляется за-шумленная суперпозиция паттернов “A” и “H” (рис. 5B). В зависимостиот стимулов в других колонках в этой колонке может быть восстановленобраз “H”, синхронизированный с “T” и “E”, в то время как образ “A”восстанавливается с задержкой, обусловленной сдвигом фаз. Если буквы вколонках 1 и 3 поменять на “C” и “T”, то сеть синхронизирует с ними “A”и восстанавливает слово “CAT”.

УДК 004.032.26 (06) Нейронные сети 33

Page 34: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 5. Ассоциативное связывание признаковА. Иерархическая структура сети. B. Демонстрация интеграции признаков, чув-ствительной к контексту.

34 УДК 004.032.26 (06) Нейронные сети

Page 35: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

Нейронная сеть с общим ингибитором. Десинхронизирующие свя-зи в той или иной форме используются во многих моделях сегментации.Рассмотренная в предыдущем подразделе сеть содержит многочисленныедальние десинхронизирующие связи, которые могут связать любую паруосцилляторов. Такой сложной и биологически мало правдоподобной архи-тектуры связей можно избежать, если использовать в качестве источникадесинхронизации небольшое число тормозных нейронов, каждый из кото-рых соединен со своей группой возбуждающих нейронов.

В работе [22] был предложен механизм, позволяющий различать назрительном поле несколько объектов и фон, на котором они представлены.В рассматриваемой сети осцилляторы чувствительны к локализованнымвходам от зрительного поля и кодируют локальный тип признака объекта.Все нейроны, представляющие один объект, работают с нулевым сдвигомфаз. Нейроны, принадлежащие разным объектам, работают либо с некор-релированным уровнем активности, либо не в фазе, что зависит от уровняшума в сети.

Взаимное ингибирование между двумя блоками сети, которые чувстви-тельны к различным типам признаков в одном местоположении, и тормо-жение между блоками сети, которые чувствительны к одному свойству, ноимеют разное местоположение, а также глобальное ингибирование исполь-зуются для поддержания необходимого уровня конкуренции между осцил-ляторами и для предотвращения глобальной синхронизации всей сети.

Эта модель была усовершенствована в работе [23], в которой раз-работана двумерная сеть LEGION (Locally Excitable, Globally InhibitoryOscillator Network), работающая с использованием одного тормозного ней-рона (рис. 6). Рассмотрим организацию и работу этой сети подробнее.

Сеть состоит из релаксационных осцилляторов Термана-Ванга, которыеявляются модифицированной версией осциллятора Ван-дер-Поля. Каждыйосциллятор

dxi

dt= 3x − x3 + 2 − yi + Ii + Si + η(t),

dyi

dt= ε

[α(1 + tanh

(xi

β

))− yi

].

представляет собой петлю прямой и обратной связи между возбуждающимxi и тормозным yi элементами. Здесь Ii — внешняя стимуляция, η — шум,ε, α, β — параметры (ε � 0 — малый параметр), Si — сигнал, приходящийот других осцилляторов сети.

УДК 004.032.26 (06) Нейронные сети 35

Page 36: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 6. Двумерная осцилляторная сеть LEGION

Рассмотрим изолированный осциллятор без шума и с постоянным внеш-ним сигналом I . В фазовом пространстве (x, y) изоклина dx/dt = 0 пред-ставляет собой кубическую функцию, а изоклина dy/dt = 0 — сигмои-дальную функцию. Если Ii > 0, изоклины пересекаются в единственнойнеустойчивой стационарной точке. В результате система порождает пре-дельный цикл, который представляет собой смену периодов с относительновысокими и относительно низкими значениями x. Эти периоды называютсяфазой покоя и активной фазой, соответственно. В случае Ii < 0 изокли-ны имеют пересечение в устойчивой стационарной точке. В этом случаепериодическое решение отсутствует.

При включении осцилляторов в сеть сигналы, приходящие на осцилля-торы, имеют вид

Si =∑

k∈N(i)

Wikh (xk − θx) − Wzh (z − θz),

где h — функция Хевисайда, N(i) — осцилляторы, соседние с осцилляторомi (в простейшем случае N(i) включает четырех ближайших соседей, как это

36 УДК 004.032.26 (06) Нейронные сети

Page 37: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

показано на рис. 6), Wik — параметры связи с соседними осцилляторами,θx, θz — пороги, Wz — вес тормозной связи от общего ингибитора z, чьяактивность определяется как

dz

dt= µ(σ∞ − z),

где параметр µ задает скорость реакции тормозного нейрона; σ∞ = 1, еслиxi > θz хотя бы для одного осциллятора, и σ∞ = 0 в любом другом случае.

Особенностью сети является зависимость величины возбуждающих свя-зей Wik от внешнего сигнала. Динамические веса Wik формируются наоснове перманентных весов Tik согласно следующей динамике:

dui

dt= λ(1 − ui)Ii − νui,

dWik

dt= Tikuiuk

∑k∈N(i)

Wik − Wik

∑j∈N(i)

Tijuiuj .

Параметры этой системы подобраны так, что когда Ii > 0, то ui → 1. Вслучае, если осциллятор не стимулирован (Ii < 0), то ui → 0. Таким обра-зом, если активность осциллятора достаточно велика, то его воздействие наокружающие осцилляторы возрастает. Благодаря этому достигается надеж-ная синхронизация в группе осцилляторов, представляющих один объект.

В результате конкуренции, вызванной тормозным нейроном, «побежда-ет» тот ансамбль осцилляторов, активность которого растет быстрее, в товремя как активность других осцилляторов будет подавлена. Через какое-товремя активность ансамбля подавляется тормозным нейроном, после чегосеть активирует другой ансамбль осцилляторов. Какой именно ансамбльосцилляторов активируется в тот или иной интервал времени, зависит отуровня шума, вследствие чего последовательность, в которой активируютсяразличные ансамбли, имеет случайный характер.

В работе [24] сеть LEGION применялась для решения задач сегмента-ции объектов на реальных медицинских изображениях и показала доста-точно хорошие результаты. В качестве объектов выступали медицинскиеснимки, полученные с помощью ЯМР. Каждый осциллятор сети соответ-ствовал одному пикселю изображения, представленному в градациях серо-го цвета. В результате сегментации изображение разделялось на несколькоосновных фрагментов и фон. Серьезной проблемой, связанной с работойсети, является ее ограниченная сегментирующая способность. При фикси-рованных параметрах сеть может различить только от 5 до 11 объектов.

УДК 004.032.26 (06) Нейронные сети 37

Page 38: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Это число зависит от отношения времени, в течение которого отдельныйосциллятор находится в фазе покоя, и времени, в течение которого он нахо-дится в активной фазе. Если это отношение становится слишком большим,правильный ход сегментации нарушается.

Сегментация с помощью коррелирующих шумов. Этот подход к сег-ментации с использованием небольшого числа тормозных нейронов былреализован в работе [25]. Идея модели состоит в том, что признаки од-ного объекта помечаются одним и тем же шумом, в то время как шумы,помечающие признаки разных объектов, не коррелированы. Теоретическаяоснова для такого использования шума состоит в предположении, что от-дельный объект кодируется в локально ограниченной области первичнойзоны зрительной коры, которая подвергается воздействию сильно коррели-рованного шума. В то же время, шум в удаленных друг от друга областяхдолжен быть некоррелированным.

Как и в рассмотренных выше моделях, признаки объектов (форма, цвети т. п.) воспринимаются различными кортикальными модулями (рис. 7A).Каждый модуль состоят из нескольких популяций возбуждающих нейронови популяции тормозных нейронов. Паттерны воспринимаемых признаков(например, для модуля, отвечающего за форму, это могут быть квадрат,треугольник и т. д.) хранятся в популяциях возбуждающих нейронов. Взаи-модействие между различными модулями (которое обуславливает правиль-ную интеграцию формы объекта с его цветом) происходит только черезтормозные нейроны. Сеть построена из модифицированных элементов ти-па Вилсона–Коуэна (напомним, что каждый элемент Вилсона–Коуэна заме-няет собой популяцию нейронов, тормозных или возбуждающих). Модельсостоит из модулей, каждый из которых содержит набор возбуждающихэлементов и один тормозный элемент. Внутри модуля возбуждающие эле-менты связаны только с тормозным элементом. Модули взаимодействуютмежду собой через тормозные элементы.

Рассмотрим для определенности два модуля, каждый из которых содер-жит три возбуждающих элемента. Пусть первый модуль отвечает за формуобъекта, а составляющие его элементы кодируют, соответственно, такиепризнаки формы, как «круг», «треугольник», «квадрат» (можно представ-лять себе, что возбуждающий элемент — это колонка неокортекса). Пустьвторой модуль отвечает за спектральные характеристики, а содержащиесяв нем возбуждающие элементы кодируют такие признаки, как «красный»,

38 УДК 004.032.26 (06) Нейронные сети

Page 39: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

РИС. 7. Сегментация с помощью коррелирующих шумовА. Схематическое изображение задачи объединения сегментов. Примеры объ-ектов. Знаком (−) обозначены тормозные связи между двумя модулями.В. Блок-схема модели.

УДК 004.032.26 (06) Нейронные сети 39

Page 40: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

«зеленый», «синий». Внешние сигналы приходят на возбуждающие эле-менты. Например, одновременное предъявление зеленого круга и красногоквадрата приведет к подаче внешних сигналов на первый и третий элемен-ты первого модуля и первый и второй элементы второго модуля.

Формально динамика модели описывается следующим образом. Пустьxm

i — активность возбуждающих элементов в i-ом модуле; yi — активностьтормозного элемента в i-ом модуле. Особенность элементов состоит в том,что пороги возбуждающих элементов являются динамическими перемен-ными rm. Система уравнений для случая двух модулей имеет вид

dxm1,2

dt= −xm

1,2 + F(Axm

1,2 − By1,2 − θE − brm1,2 + im1,2

),

dy1,2

dt= −y1,2 + F

(C · X1,2 − Dy1,2 − θI − λy2,1

),

drm1,2

dt= (c − 1)rm

1,2 + xm1,2,

X1,2 =∑m

xm1,2.

Здесь c < 1, θE и θI — фиксированные значения порогов для возбужда-ющих и тормозных нейронов, im1,2 — внешний сигнал. Нижние индексыуказывают на два различных модуля, которые объединяются через членλy2,1. На рис. 7B схематически представлены популяции и связи, отвеча-ющие переменным, входящим в указанные дифференциальные уравнения.На рисунке представлен один из модулей с тремя кортикальными колон-ками. При λ = 0 каждый модуль демонстрирует феномен сегментации:чередование активностей популяций, кодирующих разные признаки, обес-печивается тормозными элементами.

Для интеграции сегментов информации от двух объединенных модулей(λ = 0) на них вместе с постоянной составляющей внешнего входногосигнала подается шум. Используемый входной сигнал приобретает вид

im(t) = 0.1 + 0.1[ρm(t) − 0.5

],

где ρm — случайная величина, распределенная между 0 и 1.Динамика активности элементов сети имеет колебательный характер и

организована следующим образом. Допустим, что на вход сети подаютсяизображения красного квадрата и синего треугольник. Тогда, как пока-зывают результаты имитационного моделирования, активности популяций

40 УДК 004.032.26 (06) Нейронные сети

Page 41: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

xКРАСНЫЙ1 и xКВАДРАТ

2 синхронизированы с нулевым сдвигом фаз, активностиxСИНИЙ

1 и xТРЕУГОЛЬНИК2 также синхронизированы с нулевым сдвигом фаз. В то

же время пары (xКРАСНЫЙ1 , xСИНИЙ

1 ) и (xКВАДРАТ

1 , xТРЕУГОЛЬНИК1 ) работают в противо-

фазе.Если модули кодируют по три признака, а сети предъявляются, соответ-

ственно, три объекта, то правильная сегментация также возможна, хотя этои занимает несколько больше времени. В случае же, если количество коди-руемых признаков превышает три, возникает вероятность ложной интегра-ции признаков, что интерпретируется в терминах иллюзий, известных изпсихологических экспериментов. Типичным примером являются экспери-менты, когда испытуемому предъявляется экран, на который проецируются(с коротким временем экспозиции) образы объектов с различными цветоми формой. За счет этого достигается рассеивание внимания по всему экра-ну. Тогда возможен случай, когда испытуемый сообщает о появлении наэкране зеленого квадрата, в то время как представлены красный квадрати зеленый круг. Таким образом, правильная интеграция признаков требуетфокусировки внимания.

Модели зрительного внимания

Ограниченная работоспособность зрительной системы не позволяет ей од-новременно анализировать несколько различных объектов, представленныхв сложной зрительной сцене. Под селективным вниманием подразумевает-ся процесс, с помощью которого из зрительного поля отбираются сегмен-ты информации для более детальной дальнейшей переработки. Зрительноевнимание иногда ассоциируют с ограниченной областью, которая может ва-рьировать в размере и сканирует объекты в зрительном поле со скоростью30–50 мс. Предполагается, что внимание фильтрует информацию, отдаваяпредпочтение объектам в фокусе внимания и подавляя информацию обобъектах за пределами фокуса внимания. На самом деле, столь высокаяскорость, с которой внимание как будто бы переходит с одного объекта надругой, вызывает сомнения, поэтому вопрос о том, в каких случаях внима-ние работает путем последовательного перебора объектов, а в каких путемпараллельного селектирования входной информации, является предметомисследования и незавершенных дискуссий [26].

Поведение, соответствующее зрительному вниманию, можно наблю-дать и количественно оценивать на нейронном уровне. В работе [27] пред-

УДК 004.032.26 (06) Нейронные сети 41

Page 42: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ставлены результаты экспериментов, проводившихся на обученных мака-ках. Было обнаружено, что средняя скорость генерации спайков нейронамизависит от того, на чем животное сосредотачивает внимание: на стимуле,расположенном в рецептивном поле нейрона, или на стимулах, лежащихвне рецептивного поля нейрона. В первичных зонах зрительной коры V1и V2 спайковая активность под действием внимания модифицируется —либо возрастает, либо подавляется. Данный эффект проявлялся только длястимулов, близких к ориентации, на которую реагирует клетка, и тольков присутствии конкурирующего стимула с другой ориентацией. С другойстороны, в области V4 реакция клеток не зависела от ориентации стимулов.Более того, модулирующий эффект внимания наблюдался для изолирован-ных стимулов.

Другие исследования строились на экспериментах, в которых болеечем один стимул размещался в рецептивном поле нейрона из области V4[28, 29]. Когда два различных объекта (скажем, красный и зеленый), раз-мещались в рецептивном поле нейрона, селективного к красному цвету,нейрон реагировал интенсивно, если внимание животного сосредотачива-лось на красном объекте. Если же внимание фокусировалось на зеленомобъекте, то нейрон реагировал слабее.

Модель нейронных механизмов селективного внимания, основаннаяна временной корреляции нейронов

В работе [30] представлена модель зрительного внимания, предназначен-ная для объяснения результатов экспериментов [28, 29] и основанная навременной корреляции групп нейронов. Модель базируется на гипотезе отом, что под воздействием фокуса внимания в первичной зоне зрительнойкоры (V2) происходит временная модуляция серий спайков, генерируемыхнейронами, являющимися пресинаптическими к нейронам из области V4(внутри фокуса внимания). При этом, в согласии с экспериментом, не про-исходит изменения средней скорости генерации спайков нейронами V2.Внимание проявляется лишь в том, что нейроны V2, лежащие в фокусевнимания, начинают одновременно генерировать спайки чаще, чем нейро-ны вне фокуса внимания. Синхронизация спайков на уровне V2 и являетсяметкой, позволяющей распознать признаки объекта в фокусе внимания науровне V4. На высших уровнях (V4 и далее) сигналы от выделенных вни-манием нейронов начинают конкурировать с сигналами от других групп

42 УДК 004.032.26 (06) Нейронные сети

Page 43: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

нейронов, что приводит к подавлению активности нейронов в V4 за пре-делами фокуса внимания.

Общая структура модели показана на рис. 8A. Сигналы от сетчатки(10 × 10 пикселей) подаются через латеральные геникулярные ядра в об-ласть V1 (не показаны на рис. 8A), откуда они поступают в область V2, гдепроисходит их модуляция. Предполагается, что клетки в V2 чувствительнык одному из двух разных признаков, красному или зеленому цветам. Далеесигналы проецируются на нейронные колонки (рис. 8B) в области V4, со-стоящие из возбуждающих пирамидальных и тормозных интернейронов.Рецептивные поля нейронов V4 больше, чем у нейронов V2 (это отражаеттот экспериментальный факт, что рецептивные поля нейронов увеличива-ются по мере продвижения к более высоким уровням зрительной коры).

Конкуренция в V4 возникает за счет того, что тормозные нейроны ин-гибируют активности пирамидальных клеток с селективностью к противо-положному свойству. Поступление на вход «зеленого» тормозного нейронав V4 синхронизованных сигналов от «красных» нейронов слоя V2 повы-шает его активность, что в свою очередь влечет подавление активности«зеленых» возбуждающих нейронов в V4. Важно отметить, что эта схематорможения применяется только к возбуждающим нейронам в V4, имею-щим сильно пересекающиеся рецептивные поля в V2.

Импульсы от нейронов из V2 генерируются с помощью пуассонов-ского процесса со средней скоростью λ, которая является суммой скоро-стей спонтанной активности λSPONT и стимул-зависимой активности λ0. Еслипредставлен стимул, предпочитаемый клеткой (красный или зеленый), тоλ0 выбирается пропорционально степени пространственного перекрытиярецептивного поля клетки со стимулом

λ0 = λmax · overlap,

где λmax = 200Гц и overlap варьируется между 0 (стимула нет) и 1 (сти-мул полностью покрывает рецептивное поле). Для выполнения модуляциииспользуется неоднородный пуассоновский процесс, скорость которого за-висит от времени. События этого процесса не соответствуют потенциаламдействия нейронов V2, но соответствуют последовательности синхронногонарастания и подавления скоростей спайков всех нейронов, включенных вовнимание. Таким образом, средняя скорость генерации спайков нейроном

λ(t) = λ0P (t) + λSPONT,

УДК 004.032.26 (06) Нейронные сети 43

Page 44: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 8. Модель селективного вниманияА. Рецептивные поля клеток области V4, ФВ — фокус внимания. В. Синапти-ческие связи между нейронами областей V2 и V4.

44 УДК 004.032.26 (06) Нейронные сети

Page 45: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

где P (t) = 1, исключая период модуляции. Если период модуляции начи-нается в момент t0, тогда

P (t) ={

8, t0 � t < t0 + 2.5мс,0, t0 + 2.5 � t � t0 + 17.5мс.

Такой вид функции P (t) гарантирует, что средняя скорость спайковвсегда постоянна (не зависит от наличия или отсутствия модуляции). Ней-ронные колонки области V4 состоят из двух типов нейронов. Тормозныенейроны работают как детекторы совпадений и определяют корреляции навходе. Возбуждающие нейроны являются выходными, они передают сигналвысшим кортикальным областям. Нейроны обоих типов получают входныесигналы от всех 100 нейронов V2. Основное отличие между типами нейро-нов — поведение порога срабатывания. Возбуждающие нейроны имеют независящий от времени порог θ = 15мВ, в то время как порог тормозныхнейронов представляет собой гладкое усреднение мембранного потенциалаклетки с временной константой τθ. Предполагается, что порог в среднемпревышает мембранный потенциал на величину θ0 = 7мВ. Поэтому длятормозных нейронов порог задается дифференциальным уравнением

τθdθ

dt= −θ + θ0 + V + D(VNa − V )s(t),

где D — константа и VNa = 100мВ — натриевый обратный потенциал,s(t) — потенциал действия (равен 1 или 0). Уравнение для мембранногопотенциала

τdV

dt= −V + I + gK(VK − V ),

где τ — временная константа, I — нормированный синаптический ток.Последний член в уравнении представляет деполяризацию мембраны, gK

– проводимость калиевых каналов.Синаптический ток является результатом синаптической проводимости

и разности между величинами V (t) и соответствующего обратного по-тенциала. Натриевые каналы активируются возбуждающими синапсами, ахлорные — ингибирующими синапсами. Поэтому общий синаптическийток

I = gexc(V − VNa) + ginh(V − VCl).

Изменения синаптических проводимостей постсинаптических нейро-нов V4 (gexc и ginh) вызываются потенциалами действия нейронов V2.

УДК 004.032.26 (06) Нейронные сети 45

Page 46: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Пусть tsij — момент j-го спайка от i-го пресинаптического нейрона V2 стой же избирательностью к признаку, что и нейрон в V4, и пусть WS

exc — вессвязи между этими нейронами. Аналогично tPij и WP

exc — соответствующиемомент спайка и вес связи для нейронов из V2 с другой избирательностью(предполагается WS

exc > WPexc). Кроме этого вводятся две стохастические

серии спайков от других областей, соответствующие возбуждающим (спай-ки в моменты tEi ) и тормозным (спайки в моменты tIi ) входам. Измененияв проводимости возбуждающих синапсов

τexcdgexc

dt= −WS

exc

∑i,j

δ(t − tSij)+WPexc

∑i,j

δ(t − tPij)+WEexc

∑j

δ(t − tEj ).

Для тормозных синапсов выражение такое же, только отсутствуют входыот V4 и нейронов со сходной избирательностью к признаку

τinhdginh

dt= −WP

inh

∑i,j

δ(t − tPij) + W Iexc

∑j

δ(t − tIj ).

Когда V > θ и последний спайк пришел до периода рефрактерности (пери-од рефрактерности выбирается случайно из интервала (2 мс, 5 мс)), тогдагенерируется потенциал действия s(t) = 1. Клетка реполяризуется, откры-вая кальций-зависимые калиевые каналы, проводимость которых заданакак

τKdgK

dt= −gK + B · s (t) .

Поведение сети изучалось путем регистрации уровня синхронизацииспайковой активности нейронов в V2 и V4 и построения постстимуль-ных гистограмм импульсной активности для возбуждающих (выходных)нейронов в V4. Результаты имитационного моделирования показали каче-ственное совпадение динамики активности в полях V2 и V4 с экспери-ментальными данными. При одновременной подаче двух стимулов разногоцвета в рецептивное поле, общее для двух нейронов в V4, результирующаяактивность этих нейронов определялась тем, какой из них был в фокусевнимания. Активность нейрона вне фокуса внимания в значительной ме-ре подавлялась. В то же время, если конкурирующий стимул подавался вдругое рецептивное поле, то уровень активности соответствующего емунейрона в V4 оставался высоким.

46 УДК 004.032.26 (06) Нейронные сети

Page 47: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

Модели формирования фокуса внимания

Одной из плодотворных идей в теории внимания является идея центрально-го исполнителя (central executive). Она была предложена Бэддели [31, 32]и оформилась в виде экспериментально обоснованной функциональнойсхемы в работе Коуэна [33]. Согласно этой концепции, в мозге имеетсяраспределенная нейронная структура, которая организует процесс обменамежду долговременной и кратковременной памятью и фокусом внимания.

В неявном виде центральной исполнитель уже появлялся в работах[23, 24], где его роль фактически играл общий тормозный элемент. Работа[34] модифицирует сеть из [23, 24], превращая ее в модель внимания, спо-собную выделить из изображения наиболее проявленный (по размеру иликонтрастности) объект. При выборе этого объекта используется механизм«победитель получает все» (winner takes all), реализованный на осциллятор-ных принципах. Главным отличием данной модели является использованиев ней в качестве центрального исполнителя двух тормозных элементов,быстрого и медленного. Быстрый элемент организует попеременную ак-тивность разных ансамблей осцилляторов, соответствующих объектам наизображении, как это имело место в [23, 24]. Медленный элемент позволя-ет идентифицировать ансамбль осцилляторов, соответствующий наиболеепроявленному объекту, и подавить активность других ансамблей.

Последовательность просмотра объектов такова: сначала в фокус вни-мания выбираются несколько объектов (этот набор может включать, а мо-жет и не включать искомый объект), потом постепенно ненужные (менеепроявленные) объекты исключаются из фокуса внимания, а более прояв-ленные включаются в фокус внимания. Эта процедура заканчивается, когдав фокусе внимания останется один наиболее проявленный объект.

Другой подход к моделированию внимания с помощью центральногоисполнителя (на наш взгляд биологически более оправданный) предложенв работах Крюкова. Опираясь на результаты Виноградовой с сотрудника-ми [35, 36], Крюков предположил, что роль центрального исполнителя иг-рает септо-гиппокампальная система, и предложил использовать фазовуюсинхронизацию в качестве механизма взаимодействия между центральнымисполнителем и структурами новой коры [37, 38].

В модели Крюкова центральный исполнитель — это такой же осцилля-тор, как и другие компоненты сети. Модель описывается следующей систе-мой уравнений для так называемых фазовых осцилляторов с непрерывной

УДК 004.032.26 (06) Нейронные сети 47

Page 48: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

динамикой.

dθ0

dt= ω0 +

1n

n∑i=1

Aif(θi − θ0), (2)

dθi

dt= ωi + Big(θ0 − θi), i = 1, . . . , n, (3)

где θk (k = 0, 1, . . . , n) — фазы осцилляторов, ωk — собственные частотыосцилляторов, A и B — параметры, задающие силу взаимодействия междуосцилляторами, f и g — функции взаимодействия (периодические), про-изводная dθk/dt описывает текущую частоту осциллятора. Уравнение (2)задает динамику центрального осциллятора (ЦО), который играет в мо-дели роль центрального исполнителя. Уравнение (3) описывает динамикукортикальных осцилляторов (колонок неокортекса — популяций взаимо-действующих возбуждающих и тормозных нейронов), которые мы будемназывать периферическими осцилляторами (ПО). Каждый ПО кодируетопределенный признак и является активным, если этот признак присут-ствует на входном изображении.

С технической точки зрения достоинством архитектуры системы (2)–(3)является то, что в ней глобальное взаимодействие между осцилляторамиосуществляется через центральный элемент. Это позволяет избежать свя-зей типа «все на все», ограничившись числом связей, имеющим тот жепорядок, что и число элементов в сети. Отметим, что в отличие от моделивнимания с центральным элементом, рассматриваемой в следующем под-разделе, связи между ЦО и ПО имеются как в прямом, так и в обратномнаправлении. Это значительно увеличивает возможности выбора нужногорежима синхронизации между ЦО и ансамблями ПО.

При подходящих значениях параметров системы возникает синхрони-зация между ЦО и всеми или частью ПО. Под синхронизацией здесь по-нимается работа осцилляторов с одной и той же текущей частотой (приэтом между синхронизованными осцилляторами может быть некотораяфиксированная разность фаз). Считается, что те ПО, которые работаютсинхронно с ЦО, формируют фокус внимания, а остальные осцилляторыпредставляют собой признаки отвлекающих стимулов (дистракторов). Ка-кие именно ПО войдут в фокус внимания, зависит от параметров системыи может регулироваться путем подходящей модификации этих параметров,в частности, в процессе обучения.

48 УДК 004.032.26 (06) Нейронные сети

Page 49: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

Математическое исследование, проведенное в [18, 39] для случая си-нусоидальной функции взаимодействия между осцилляторами, позволилоописать различные режимы синхронизации (полной или частичной) в си-стеме (2)–(3). В терминах параметров системы были получены условия,при которых может формироваться тот или иной фокус внимания, и опи-саны возможные промежуточные стадии, возникающие при смене одногофокуса внимания другим.

РИС. 9. Архитектура связей в модели формирования фокуса вни-мания

Хотя модель (2)–(3) позволяет при подходящем выборе параметроввключить в фокус внимания любой набор ПО, вопрос об автоматиче-ском формировании требуемых параметров в рамках этой модели оста-ется открытым. При неудачном выборе параметров возможна ситуация,

УДК 004.032.26 (06) Нейронные сети 49

Page 50: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

когда в фокус внимания попадут ПО, кодирующие признаки разных объ-ектов (появление «химеры»). Эта проблема становится особенно острой,если собственные частоты ПО, кодирующих разные объекты, оказываютсяблизки друг другу. В силу сравнительной узости используемого диапазонасобственных частот (например, в случае тета-ритма это 4–10 Гц), вероят-ность совпадения этих частот достаточно велика. В рассматриваемой нижемодели внимания [40] эти недостатки преодолены за счет использования(дополнительно к фазовой синхронизации) принципа резонанса — резко-го возрастания амплитуды ПО, работающего синфазно с ЦО. Эта модельпозволяет выбирать из имеющихся на изображении объектов один связныйобъект и включать его в фокус внимания. При этом предпочтение отдаетсяобъектам с большей площадью и большей контрастностью по отношениюк фону.

Архитектура связей модели представлена на рис. 9. Как и в модели(2)–(3), сеть состоит из центрального осциллятора, имеющего прямые иобратные связи с периферическими осцилляторами. ПО расположены вузлах плоской решетки и имеют локальные связи с ближайшими соседями.

Входное изображение задано на плоской решетке того же размера, что ирешетка ПО; таким образом, каждый ПО получает входной сигнал от своегопикселя на изображении. Этот сигнал задает собственную частоту ПО,которая тем выше, чем выше контрастность пикселя по отношению к фону.ПО, получающие сигнал от пикселей фона, не активны и не участвуют вфункционировании сети.

Каждый осциллятор описывается тремя переменными: фазой колеба-ний, амплитудой колебаний и собственной частотой осциллятора. Динами-ка сети определяется уравнениями

dθ0

dt= ω0 +

w

n

n∑i=1

aiv(ωi)g(θi − θ0), (4)

dθi

dt= ωi − a0w0h(θ0 − θi) + w1

∑j∈Ni

ajp(θj − θi) + ρ, i = 1, . . . , n,

(5)

dai

dt= β1

[−ai + γf(θ0 − θi)]+ + β2

[−ai + γf(θ0 − θi)]−

, (6)

dω0

dt= α

w

n

n∑i=1

aiv(ωi)g(θi − θ0) = −α[ω0 − dθ0

dt

]. (7)

50 УДК 004.032.26 (06) Нейронные сети

Page 51: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

В этих уравнениях θ0 — фаза ЦО, θi — фазы ПО, ω0 — собственная частотаЦО, ωi — собственные частоты ПО, a0 — амплитуда ЦО (можно считать, чтоa0 = 1), ai — амплитуды ПО, w, w0, w1 — параметры (положительные кон-станты), задающие силу взаимодействия между осцилляторами, n — числоактивных ПО (только активные ПО включены в уравнения (4)–(6)), Ni —набор активных осцилляторов в ближайшей окрестности осциллятора i, ρ— гауссовский шум со средним 0 и дисперсией σ2, функции g, h, p задаютвзаимодействие между осцилляторами (эти функции 2π–периодические,нечетные, одномодальные в интервале периода), функция v положительнаяи монотонно возрастающая, она обеспечивает усиление влияния на ЦОтех ПО, которые получают больший внешний входной сигнал, функция fуправляет динамикой амплитуды ПО и переходом в резонансное состояние(f — периодическая, четная, положительная, одномодальная в интервалепериодичности, с максимумами в точках 2πk), α, β1, β2, γ — параметры(положительные константы). Значения ωi определяются внешним входнымсигналом, а переменные θ0, θi, ω0, ai характеризуют текущее состояние си-стемы. По определению,

(x)+ ={

x, для x � 0,0, для x < 0,

(x)− ={

x, для x � 0,0, для x > 0.

Уравнения (4)–(5) являются уравнениями фазовой синхронизации. Свя-зи от ПО к ЦО и локальные связи между ПО синхронизирующие. С по-мощью локальных связей между ПО формируются синфазные ансамблиосцилляторов, соответствующие связным объектам на изображении. С по-мощью связей от ПО к ЦО происходит синхронизация ЦО с одним изансамблей синхронно работающих ПО. Связи от ЦО к ПО десинхронизи-рующие. С помощью этих связей десинхронизируется активность разныхансамблей ПО. Это препятствует вовлечению в синхронизацию с ЦО сразунескольких ансамблей осцилляторов, что соответствовало бы включениюв фокус внимания нескольких объектов. В соответствии с (4)–(5) различ-ные ансамбли осцилляторов конкурируют за синхронизацию с ЦО. Чембольше ансамбль и чем больше контрастность объекта, соответствующегоэтому ансамблю, тем сильнее синхронизирующее влияние ансамбля на ЦО,и тем скорее данный ансамбль будет включен в фокус внимания.

Шум ρ в (5) используется как дополнительный источник десинхрони-зации между различными ансамблями ПО. Благодаря шуму происходитрандомизация положения в фазово-частотном пространстве различных ан-самблей осцилляторов, что делает их «различимыми» для ЦО.

УДК 004.032.26 (06) Нейронные сети 51

Page 52: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

В качестве функций взаимодействия в (4)–(5) используются

h(φ) = p(φ) = sinφ,

g(φ) =

⎧⎪⎪⎨⎪⎪⎩

10φ, для 0 � φ < 0.1,−4φ + 1, 4, для 0.1 � φ < 0.2,−0, 1φ + 0, 62, для 0.2 � φ � π,−g(−φ), для − π < φ < 0.

Вне интервала (−π, π) функция g(φ) продолжается как периодическая.Уравнение (6) описывает динамику амплитуд ПО и обеспечивает резо-

нансное возрастание амплитуды при долговременном совпадении фаз ЦОи ПО. Функция f(x) имеет вид

f(x) = F ((cos x)+),

где F (y) — сигмообразная функция вида

F (y) = ζ +exp((y − ξ)/η)

1 + exp((y − ξ)/η).

Параметры ξ и η выбраны так, чтобы F (y) приближалась к максимальномузначению 1 + ζ при y → 1; при убывании y функция F (y) быстро убываетдо уровня ζ. В результате оказывается, что амплитуда ПО возрастает домаксимального значения amax = γ(1 + ζ) при синфазной работе ПО и ЦО;амплитуда принимает минимальное значение amin = γζ, если фазы ПО иЦО существенно различаются (ζ на порядок меньше 1).

Считается, что ПО перешел в резонансное состояние, если его амплиту-да превысила порог R = 0, 8amax. Параметры β1 и β2 задают скорость воз-растания и убывания амплитуды. Те ПО, которые находятся в резонансномсостоянии, считаются включенными в фокус внимания. Это согласуетсяс экспериментальными данными, согласно которым активность нейроновв фокусе внимания повышена по сравнению с активностью нейронов запределами фокуса внимания [28, 29, 41, 42].

Уравнение (7) описывает механизм адаптации собственной частоты ЦО.В соответствии с этим уравнением ω0 стремится к текущему значению ча-стоты ЦО. Такая адаптация позволяет ЦО «настраиваться» на тот ансамбльПО, с которым ЦО собирается синхронизоваться. Параметр α задает ско-рость адаптации.

52 УДК 004.032.26 (06) Нейронные сети

Page 53: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

РИС. 10. Амплитуды периферических осцилляторов в различныемоменты времени при последовательном выборе объектов

УДК 004.032.26 (06) Нейронные сети 53

Page 54: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Помимо выбора наиболее заметного объекта в фокус внимания, модель(4)–(7) может работать и в режиме последовательного выбора в фокус вни-мания всех имеющихся на изображении объектов. Для этого ее достаточнопополнить условием, что объект после определенного времени нахожде-ния в фокусе внимания блокируется, так что соответствующие ему ПОне могут взаимодействовать с ЦО. В этом случае фокус внимания осво-бождается от уже просмотренных объектов, и в него включаются другиеобъекты, расположенные на изображении, в порядке, соответствующем ихяркости и размеру. На рис. 10 показан пример работы модели с изображени-ем, представляющим собой напечатанное слово “HELLO”, буквы которогорассматриваются как отдельные объекты. Система последовательно выби-рает буквы и переводит осцилляторы, соответствующие этим буквам, врезонансное состояние. Поскольку яркость всех черных пикселей предпо-лагается одинаковой, порядок выбора букв определяется их размером.

Модель селективного внимания и задачи зрительного поиска

Одной из классических задач, связываемых с использованием системывнимания, является задача зрительного поиска. При зрительном поиске ис-пытуемый осматривает дисплей, по которому случайным образом распре-делены объекты, с целью найти заранее заданный объект. Заданный объектявляется целью поиска, все другие объекты в данном случае играют рольотвлекающих стимулов (дистракторов). Обычно решение (правильное илиошибочное) должно быть принято за короткое время и при неподвижныхзрачках, фиксированных на центр изображения.

Эксперименты по зрительному поиску можно разделить на два типа:поиск по одному признаку и поиск по нескольким признакам. В первомслучае объект поиска отличается от дистракторов только одним признаком.Например, это может быть поиск зеленой буквы Т среди красных Т. Во вто-ром случае цель отличается от дистракторов более чем одним признаком.Например, поиск зеленой буквы Т среди красных букв Т и зеленых буквХ. Важной измеряемой величиной является время поиска как функция отчисла объектов. Как показывают эксперименты [8–10], в случае поиска поодному признаку цель определяется быстро за время, не зависящее от числадистракторов на экране. В случае поиска по нескольким признакам времяпоиска линейно возрастает с ростом числа дистракторов. В связи с этимирезультатами принято считать (несколько упрощенно, в действительностиситуация более сложна [43]), что поиск по одному признаку выполняется

54 УДК 004.032.26 (06) Нейронные сети

Page 55: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

без использования внимания, а поиск по нескольким признакам требуетпривлечения внимания, с чем и связаны дополнительные затраты времени.

РИС. 11. Схема функционирования модели, решающей задачу зри-тельного поиска

На рис. 11 представлена иерархическая структура модели [44], решаю-щая задачу поиска по одному и нескольким признакам. Основными струк-турными элементами модели являются колонки нейронов. Каждая колонкапредставляет собой сеть, построенную из импульсных фазовых осцилля-торов. Динамика каждого осциллятора задается его фазой ϕ, которая под-чиняется уравнению

τdϕ

dt= −ϕ + A(t). (8)

После того как ϕ достигает значения 2π (это событие соответствует момен-ту генерации спайка), фаза сбрасывается до нуля и вновь начинает расти

УДК 004.032.26 (06) Нейронные сети 55

Page 56: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

согласно (8). Переменная A(t) представляет внешний стимул. В дальней-шем будет предполагаться, что A(t) = A. Для того чтобы сделать понятнымпринцип взаимодействия между осцилляторами, приведем в качестве при-мера описание динамики в сети из N осцилляторов, связанных по прин-ципу «все на все»:

τdϕi

dt= −ϕi + A + ηi(t) +

1n

KJi(t), i = 1, . . . , N, (9)

где K — константа связи и η — шум. Последний член в уравнении (9)представляет плотность спайков, получаемых осциллятором,

Ji(t) =N∑

j �=i

∑k

δ(t − tkj ), (10)

где tkj представляет k-й момент генерации спайка нейроном j.Вход модели — это матрица из S × S зрительных образов (на рис. 11

S = 2). Положение каждого объекта определяется парой индексов (i, j).Каждый объект имеет M признаков, а каждый признак m может прини-мать L(m) значений (например, L(цвет) = 2, а именно l = 1 для белого иl = 2 — для черного). Таким образом, для каждого признака m существуетL(m) слоев нейронных колонок, характеризующих представленные свой-ства признаков. Каждая колонка идентифицируется индексами ijml. Дляпростоты будем считать, что L(m) = L.

Нейроны в колонке взаимодействуют с константой связи K1. Связимежду колонками, имеющими одинаковое топографическое положение, нокодирующими свойства разных признаков, взаимодействуют с константойK2. Предполагается, что селективное внимание приводит к конкуренциимежду колонками, отвечающими за разные объекты. Поэтому в каждомнейронном слое нейроны каждой колонки взаимодействуют через пул тор-мозных нейронов с отрицательной силой связи −K4.

Для осуществления задачи поиска используется заранее известная ин-формация о цели. Функцию запоминающего механизма выполняет изоли-рованная колонка — центральный осциллятор (ЦО). Цель поиска кодиру-ется с помощью связей между ЦО и колонками, кодирующими признаки:если колонки принадлежат уровням, кодирующим признаки, соответствую-щие объекту поиска, то их связи с ЦО равны K3, для колонок, кодирующихдругие признаки, связи равны −K3. Если, например, нужно найти белый

56 УДК 004.032.26 (06) Нейронные сети

Page 57: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

треугольник, то положительные связи будут между ЦО и уровнями с индек-сами l = «белый» для m = «цвет» и l = «треугольник» для m = «форма».

Эволюция всей системы задана уравнениями

τdϕnijml

dt= −ϕnijml + Anijml + ηij(t)+

+1N

[K1 · J1

ijml(t) + K2 · J2ijm(t)+

+ Kml3 · JCO(t) − K4 · J4

ijm(t)],

n = 1, . . . , N ; m = 1, . . . , M ; l = 1, . . . , L,

τdϕCO

n

dt= −ϕCO

n + ACO + η(t) +1N

K1 · JCO(t),

где Anijml — внешний сигнал (в вычислениях Anijml = 2.2π), показы-вающий присутствие свойства l признака m в позиции ij; J1 и JCO —плотности спайков, соответствующие признаковым колонкам и ЦО, и опре-деляемые уравнением (10). Другие плотности спайков вычисляются как

J2ijm(t) =

M∑m′ �=m

L∑l′

J1ijm′l′(t), J4

ijm(t) =S∑

i′ �=i

S∑j′ �=j

L∑l′

J1i′j′ml′(t).

Коллективные осцилляции нейронов в колонке появляются при до-статочно большом K1. Благодаря связям между колонками с силой K2,осуществляется поддержание высокого уровня активности в колонках, ко-дирующих один объект. Нейронные уровни, отвечающие свойствам целипоиска, получают возбуждающие сигналы от ЦО через связи с силой K3.При этом некоторые дистракторы также получают возбуждающие сигналы,но не на всех уровнях. Только один объект из представленных на экранеполучает такую «помощь» на всех уровнях и выигрывает в конкуренции.Другой механизм конкуренции, включенный через пул тормозных нейро-нов, имеет место на каждом уровне и приводит к подавлению активностейдистракторов. Те колонки, которые осциллируют синхронно с централь-ным элементом, определяют фокус внимания. То есть, как и в предыдущемподразделе, внимание реализуется в виде синхронизации колонок, харак-теризующих свойства объекта, с центральным элементом. Но в отличиеот этой модели, данная модель внимания не перебирает последователь-но имеющиеся на изображении объекты, а путем параллельной обработки

УДК 004.032.26 (06) Нейронные сети 57

Page 58: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

находит нужный объект (заданный определенным набором признаков) ивключает его в фокус внимания.

Модель тестировалась на различных изображениях, содержащих 4, 9и 16 объектов при числе признаков M = 2 и числе градаций признаковL = 2. Результаты вычислений показали, что модель правильно отражаетэкспериментальные данные. Время поиска объекта по одному признаку неменяется при изменении числа дистракторов, а время поиска объекта подвум признаком линейно возрастает в зависимости от числа дистракторов.Увеличение времени в последнем случае обусловлено тем, что некоторыедистракторы получают синхронизующие связи от центрального элемента,приходящие на один из двух имеющихся уровней. Это в свою очередь при-водит к тому, что остальные дистракторы увеличивают свою активность,благодаря связям с коэффициентом K2. Из-за этого целевому объекту ста-новится труднее выиграть конкуренцию за синхронизацию с ЦО, причемтем труднее, чем больше число дистракторов. Конечно, надо иметь в ви-ду, что входная информация в модели задается довольно условно, поэтомутребуются дополнительные усилия, чтобы довести эту модель до уровняобработки реальных изображений. Но идея использования признаков какисточников синхронизации при поиске нужного объекта представляетсянам плодотворной.

Заключение. Перспективы использования осцилляторныхнейронных сетей при моделировании когнитивных

функций мозга

Теория нейронных сетей выросла из попыток описать в формально-ма-тематических и вычислительных терминах способность мозга к решениюсложных интеллектуальных задач. Нейронные структуры и алгоритмы, раз-работанные к концу 80–х годов, оказались весьма успешными в решенииразличных прикладных задач (формирования ассоциативной памяти, рас-познавания, прогноза, синтеза временных рядов и т. д.), но их функциони-рование лишь очень отдаленно напоминает реальные процессы, происхо-дящие в мозге. Как правило, они не отражают структурную организациюмозга, не учитывают многие существенные детали функционирования фи-зиологических нейронов и зачастую оперируют лишь усредненными ха-рактеристиками динамики активности нейронных ансамблей и структур.В этих рамках невозможно ни моделирование метастабильных состояний

58 УДК 004.032.26 (06) Нейронные сети

Page 59: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

и фазовых переходов, ни изучение пространственно-временных соотноше-ний нейронной активности, что значительно сужает возможности кодиро-вания и обработки информации.

Преодоление этих недостатков традиционных нейронных сетей идетпо пути использования биологически более адекватных моделей элемен-тов (импульсных нейронов, нейронов типа Ходжкина–Хаксли, многосег-ментных моделей нейронов), а также попыток воспроизведения динамиче-ских режимов (в частности, различных режимов колебательной активно-сти), возникающих в реальных нейронных сетях. Наиболее биологическиобоснованные нейронные сети были разработаны для моделирования дви-жений, где сложная динамика возникает естественным путем и ее биологи-ческая роль достаточно очевидна [45]. По-другому обстоит дело с модели-рованием когнитивных функций мозга. Несмотря на значительные усилия,приложенные в этом направлении за последние 15 лет, динамический под-ход не смог реализоваться в моделях, которые бы превзошли по своим спо-собностям традиционные коннекционистские сети. Главная причина этогосостоит в том, что роль сложной динамики нейронной активности в когни-тивных процессах остается недостаточно понятой. Выдвинутые в связи сэтим гипотезы еще не дошли до стадии, когда их экспериментальное под-тверждение не вызывало бы сомнений. Кроме того, эти гипотезы, несмотряна свою исключительную важность (например, проблема интеграции при-знаков считается одной из центральных в современной нейрофизиологии),дают лишь фрагментарную картину обработки информации в мозге. Соеди-нение этих фрагментов в цельную теорию — важнейшая задача, в решениикоторой нейросетевое моделирование может сыграть существенную роль.

До настоящего времени большинство динамических нейросетевых мо-делей было направлено на воспроизведение отдельных аспектов работымозга. С нашей точки зрения, успех может быть достигнут тогда, когдабудет разработана полномасштабная модель, в которой такие когнитивныефункции как сегментация информации, внимание, детекция новизны, рас-познавание, кратковременная и долговременная память будут реализованыв виде системы взаимодействующих модулей. Имеющиеся в настоящеевремя разработки позволяют уже сейчас начать реализацию такой системына осцилляторных принципах.

Упрощенная блок-схема системы приведена на рис. 12. Предполагается,что исходная зрительная информация должна пройти фильтрацию с помо-щью системы внимания, что позволило бы выделить ту часть информа-ции, которая относится к одному объекту. Эта задача может быть решена

УДК 004.032.26 (06) Нейронные сети 59

Page 60: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 12. Блок-схема модели когнитивных функций мозгаЦИ — центральный исполнитель системы внимания, ДП — долговременнаяпамять, КП — кратковременная память, РО — распознавание образов, ДН —детекция новизны. В модуле формирования фокуса внимания объект в фокусевнимания обозначен черным цветом. В модуле локальных признаков показаныгеометрические признаки свободных концов (разной ориентации) и перекрещи-вающихся линий.

60 УДК 004.032.26 (06) Нейронные сети

Page 61: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

в результате взаимодействия центрального исполнителя с модулями, гдеформируются локальные признаки. К таким признакам относятся харак-теристики отдельных пикселей (яркость, контрастность, цвет), характери-стики линий и их пересечений (с учетом ориентации), локальные комбина-ции геометрических и спектральных признаков. Эти модули соответствуютпервичной и вторичной зонам зрительной коры. Синхронно работающийансамбль осцилляторов в этих модулях может играть роль источника син-хронизации для всего восходящего потока информации, относящейся кобъекту в фокусе внимания. На наш взгляд, основные принципы функцио-нирования этого модуля достаточно хорошо разработаны в существующихмоделях, но практические примеры их применения к реальным изображе-ниям весьма немногочисленны [24] и ограничиваются черно-белыми ста-тичными изображениями. Очевидно, существующие подходы должны бытьусовершенствованы и применены к анализу реальных цветных динамиче-ски меняющихся трехмерных сцен.

В следующем модуле происходит преобразование признаков в формуинвариантную к расположению объекта и масштабу. Это соответствуетработе височных зон коры. Проблема инвариантности представления ин-формации — одна из наиболее обсуждаемых в теории нейронных сетей.С нашей точки зрения, перспективным является подход, предложенный вработе [46] и основанный на иерархической «сборке» сложного объекта изболее простых компонент. К сожалению, осцилляторная реализация этогоподхода в настоящее время отсутствует.

Последний модуль высших когнитивных функций представляет собойнаибольшую трудность. В мозге его роль играют несколько структур, та-кие как лимбическая кора, лобные доли коры, ассоциативные зоны. Су-щественным компонентом этого модуля является детекция новизны. Этаоперация более простая и быстрая, чем распознавание, в то же время онапозволяет избежать бесполезных затрат времени на анализ известных илинесущественных для данной ситуации объектов. Осцилляторная реализа-ция детекции новизны в гиппокампе предложена в [47, 48]. Она построенана тех же принципах, что и описанная выше модель внимания [40] и можетбыть легко с ней объединена. Однако это достаточно грубая модель, в кото-рой не использованы ни управляющая активностью в гиппокампе обратнаясвязь от гиппокампа к ретикулярной формации ствола мозга [49], ни дол-говременная память. Необходимо построить более совершенную модель, вкоторой эти пробелы были бы ликвидированы.

УДК 004.032.26 (06) Нейронные сети 61

Page 62: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Наиболее серьезные проблемы в данной схеме связаны с распознава-нием образов. Ничего сравнимого по эффективности с сетями обратногораспространения ошибок и сетями Кохонена в осцилляторных сетях поканет. Определенные надежды здесь могут быть связаны с разработкой ос-цилляторного аналога сетей типа ART (Artificial Resonance Theory) [50],поскольку принципы функционирования этих сетей наиболее близки био-логическим, а используемый в них «искусственный» резонанс естествен-ным образом может быть преобразован в реальный резонанс колебательнойактивности.

Существующие осцилляторные модели памяти пока что идут в основ-ном по пути перевода на осцилляторный язык идей ассоциативной памятиХопфилда. Один из примеров этого подхода приводился выше [20, 21].Другой пример с использованием фазовых осцилляторов можно найти вработе [51]. К сожалению, сеть Хопфилда обладает известными недостат-ками (низкая емкость и большое число связей), которые переносятся и наее осцилляторные аналоги. Поэтому перед исследователями стоит важнаязадача найти более эффективные и биологически более оправданные вари-анты ассоциативной памяти на осцилляторах.

Важную роль в реализации когнитивных функций играет обратный по-ток информации от верхних модулей вниз. На схеме показан простейшийпример такого сигнала: после окончания процесса распознавания и запо-минания объекта или в случае его детекции как известного на систему вни-мания должен быть послан сигнал, который позволит переместить фокусвнимания на другой объект. На самом деле таких управляющих сигналов,идущих сверху вниз, достаточно много. Пример использования таких сиг-налов для выбора объекта с заданными признаками рассматривался выше[44].

Подводя итоги, можно утверждать, что использование осцилляторныхнейронных сетей для моделирования когнитивных функций мозга име-ет хорошие перспективы и может принести не только лучшее пониманиепринципов работы мозга, но приведет к построению более эффективныхсистем искусственного интеллекта. Однако, для того чтобы эти перспекти-вы стали реальностью, специалистам по моделированию и нейробиологамнужно проделать еще достаточно сложную и интересную работу.

Участие в данной публикации Я. Б. Казановича было поддержано Рос-сийским фондом фундаментальных исследований (грант 03–04–48482 игрант для научных школ НШ 1872.2003.4).

62 УДК 004.032.26 (06) Нейронные сети

Page 63: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

Приложение. Типы нейронных сетей

Обычно осцилляторная динамика в нейронных ансамблях возникает в ре-зультате взаимодействия популяций возбуждающих и тормозных нейроновили за счет использования пейсмекерных нейронов, задающих эндогенныйритм. Различают четыре типа нейронных сетей, соответствующих типамиспользуемых элементов [45, 52, 53].

1. Динамика нейрона описывается системой дифференциальных урав-нений. Это могут быть уравнения ионного транспорта через мембрану, как вмодели Ходжкина–Хаксли, или сегментные (multicompatment) модели ней-рона, описывающие динамику токов в сегментах нейрона (дендритах, сомеи аксоне). Сети из таких нейронов позволяют наиболее полно учитыватьдинамику реальных нейронов, но анализ динамики самой сети обычно со-пряжен с трудностями.

2. Импульсные (integrate-and-fire) нейроны. Модель импульсного нейро-на является сравнительно простым устройством, накапливающим поступа-ющие сигналы и генерирующим импульс (спайк) при достижении порога.В этой модели могут учитываться такие аспекты функционирования реаль-ного нейрона, как абсолютная и относительная рефрактерность, синаптиче-ская задержка при передаче сигнала, динамика постсинаптических потен-циалов, шумовая компонента (имитирующая, например, далекие дендритыили синаптический шум) и т.д. До настоящего времени сети, построен-ные из таких нейронов, являются наиболее распространенным объектом вимитационном моделировании.

3. Нейронные осцилляторы. Динамика нейрона, входящего в осцилля-тор, описывается средним уровнем активности популяции, к которой онпринадлежит. Типичным примером нейронного осциллятора является ос-циллятор Вилсона–Коуэна. Сети из таких осцилляторов исследуются ме-тодами теории бифуркаций, что позволяет численно и аналитически опре-делять области параметров, при которых имеют место те или иные видыдинамики сети.

4. Фазовые осцилляторы. В случае, когда активность нейронных ансам-блей имеет осцилляторный характер, удобно описывать эту активность по-средством фазового осциллятора, динамика которого характеризуется толь-ко одной переменной — фазой. Сети из фазовых осцилляторов полезны дляаналитических и численных исследований условий синхронизации в сети.

УДК 004.032.26 (06) Нейронные сети 63

Page 64: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

С точки зрения архитектуры связей нейронные сети можно разделитьна следующие типы:

1. Сети с локальными связями, связями "все на все", а также слу-чайными и разреженными связями. Однородность архитектуры связей иидентичность элементов позволяют аналитически исследовать такие сетис помощью методов статистической механики.

2. Многослойные сети с прямыми, обратными и рекуррентными связя-ми между слоями. Такая архитектура наиболее популярна в приложенияхнейронных сетей к распознаванию образов, прогнозу, кодированию и филь-трации сигналов, запоминанию временных последовательностей.

3. Сети с центральным элементом. Эти сети позволяют избежать боль-шого числа связей, характерного для полносвязных сетей, так как элемен-ты сети взаимодействуют через центральный элемент, имеющий связи состальными элементами.

4. Сети со сложной архитектурой. К этой категории относятся сети сиерархической структурой, состоящей из более простых сетей разных ти-пов. Потребности в таких сетях возникают при решении задач многоэтап-ной обработки информации и при моделировании сложного поведения.

Литература

1. Basar E. Brain function and oscillations. – Springer-Verlag, New York, 1998.

2. Singer W. Neuronal synchrony: A versatile code for the definition of relations// Neuron, 24, 49–65, 1999.

3. Singer W., Gray C.M. Visual feature integration and the temporal correlationhypothesis // Ann. Rev. Neurosci., 18, 555–586, 1995.

4. Milner P.M. A model for visual shape recognition // Phys. Rev., 81, 521–535, 1974.

5. Malsburg C. von der. The correlation theory of brain function. Internal report 81-2,Max-Plank Institute for Biophysical Chemistry, 1981 (reprinted in Models of NeuralNetworks, Eds. E.Domany, J. L. van Hemmen, K. Schulten. – Springer, New York,1994, p. 95).

6. Gray C.M., Konig P., Engel A. K., Singer W.Oscillatory responses in cat visual cortexexhibit intercolumnar synchronization which reflects global stimulus properties// Nature, 388, 334–337, 1989.

7. Eckhorn R., Bauer R., Jordon W., Brosch M., Kruse W., Munk M., Reitboeck H. J.Coherent oscillations: a mechanism of feature linking in the visual cortex // Biol.Cybern., 60, 121–130, 1988.

64 УДК 004.032.26 (06) Нейронные сети

Page 65: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

8. Treisman A., Gelade G. A feature-integration theory of attention // CognitivePsychol., 12, 97–136, 1980.

9. Treisman A., Sato S. Conjunction search revisited // J. Exp. Psychol., 16, 459–478,1990.

10. Treisman A. Feature binding, attention and object perception // PhilosophicalTransactions. Biological Sciences, 353, 1295–1306, 1998.

11. Fries P., Schroder J.-H., Roefsema P. R., Singer W., Engel A. K. Oscillatory neuralsynchronization in primary visual cortex as a correlate of stimulus selection // J.Neurosci., 22, 3739–3754, 2002.

12. Niebur E. Electrophysiological correlates of synchronous neural activity andattention: A short review // BioSystems, 67, 157–166, 2002.

13. Niebur E., Hsiao S. S., Johnson K.O. Synchrony: a neuronal mechanism forattentional selection? // Curr. Opinion Neurobiol., 12, 190–194, 2002.

14. Sporns O., Tononi G., Edelman G. Modeling perceptual grouping and figure-groundsegregation by means of active reentrant connections // Proc. Nat. Acad. Sci. (USA),88, 129–133, 1991.

15. Tononi G., Sporns O., Edelman G. Reentry and the problem of integrating multiplecortical areas. Simulation of dynamic integration in the visual system // CerebralCortex, 2, 310–335, 1992.

16. Schillen T. B., Konig P. Binding by temporal structure in multiple feature domainsof an oscillatory neural network // Biol. Cybern., 70, 397–405, 1994.

17. Neibur E., Schuster H., Kammen D. Collective frequencies and metastability innetworks of limit cycles oscillators with time delay // Phys. Rev. Lett., 67, 2753–2756, 1991.

18. Borisyuk R.M., Kazanovich Y. B. Oscillatory neural network model of attention focusformation and control // BioSystems, 71, 29–38, 2003.

19. Verschure P., Konig P. On the role of biophysical properties of cortical neurons inbinding and segmentation of visual scenes // Neural Comput., 11, 1113–1138, 1999.

20. Ritz R., Gerstner W., van Hemmen J. Associative binding and segregation in neuralnetwork of spiking neurons // In Models of Neural Networks, Eds. E.Domany, J. L.van Hemmen, K. Schulten. – Springer, New York, 1994, pp.175–219.

21. Ritz R., Gerstner W., Fuentes U., van Hemmen J. A biologically motivated andanalytically soluble model of collective oscillations in the cortex. II. Application tobinding and pattern segmentation // Biol. Cybern., 71, 349–358, 1994.

22. Malsburg C. von der, Buhmann J. Sensory segmentation with coupled neuraloscillators // Biol. Cybern., 67, 233–242, 1992.

УДК 004.032.26 (06) Нейронные сети 65

Page 66: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

23. Wang D. L., Terman D. Locally excitatory globally inhibitory oscillator network// IEEE Trans. Neural Networks, 6, 283–286, 1995.

24. Wang D. L., Terman D. Image segmentation based on oscillatory correlation // NeuralComput., 9, 805–836, 1997.

25. Horn D., Sagi D., Usher M. Segmentation, binding, and illusory conjunctions// Neural Comput., 3, 510–525, 1991.

26. Moore C., Wolfe J. Getting beyond the serial/parallel debate in visual search: Ahybrid approach // In The Limits of Attention, Ed. K. Shapiro. Oxford Univ. Press,Oxford, 2001, pp. 178–198.

27. Motter B. C. Focal attention produces spatially selective processing in visual corticalareas V1, V2 and V4 in the presence of competing stimuli // J. Neurophysiology,70, 909–919. 1993.

28. Moran J., Desimone R. Selective attention gates visual processing in the extrastriatecortex // Science, 229, 782–784, 1985.

29. Desimone R. Neural circuits for visual attention in the primate brain // In NeuralNetworks for Vision and Image Processing, Eds. G. A. Carpenter, S. Grossberg.Bradford Book, MIT Press, Cambridge, MA, 1992, pp. 343–364.

30. Niebur E., Koch C. A model for the neural implementation of selective visualattention based on temporal correlation among neurons // J. Comput. Neurosci., 1,141–158, 1994.

31. Baddeley A. Working memory. – Oxford Univ. Press, London, 1986.

32. Baddeley A. Exploring the central executive // Quarterly J. Experimental Psychol.,40A, 5–28, 1996.

33. Cowan N. Evolving conceptions of memory storage, selective attention and theirmutual constraints within the human information-processing system // Psychol. Bull.,104, 163–191, 1988.

34. Wang D. L. Object selection based on oscillatory correlation // Neural Netw., 12,579–592, 1999.

35. Виноградова О. С. Гиппокамп и память. – М: Наука, 1975.

36. Vinogradova O. S., Brazhnik E. S., Stafekhina V. S., Belousov A. B. Septo-hippocampal system: rhythmic oscillations, and information selection // InNeurocomputers and Attention I: Neurobiology, Synchronization and Chaos, Eds.A. V. Holden, V. I. Kryukov. Manchester University Press, Manchester, 1991, pp. 129–148.

37. Kryukov V. I. An attention model based on the principle of dominanta // InNeurocomputers and Attention I: Neurobiology, Synchronization and Chaos, Eds.A. V. Holden, V. I. Kryukov. Manchester University Press, Manchester, 1991, pp. 319–352.

66 УДК 004.032.26 (06) Нейронные сети

Page 67: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Я.Б.КАЗАНОВИЧ, В. В.ШМАТЧЕНКО

38. Крюков В.И.Модель внимания и памяти, основанная на принципе доминанты икомпараторной функции гиппокампа // Журнал высшей нервной деятельности,№1, 2004 (в печати).

39. Kazanovich Y. B., Borisyuk R.M.Dynamics of neural networks with a central element// Neural Netw., 12, pp. 441–454, 1999.

40. Kazanovich Y., Borisyuk R. Object selection by an oscillatory neural network// BioSystems, 67, 103–111, 2002.

41. Treue S., Maunsell J. H. R. Attentional modulation of visual motion processing incortical areas MT and MST // Nature, 382, 539–541, 1996.

42. Kastner S., De Weerd P., Desimone R., Ungerleider L. G. Mechanisms of directedattention in the human extrastriate cortex as revealed by functional MRI // Science,282, 108–111, 1998.

43. Chun M.M., Wolfe J.M. Visual attention // In: Blackwell Handbook of Perception,Ch.9, Ed. E. B.Goldstein. Blackwell, Oxford, UK, 2001, pp. 272–310.

44. Corch S., Deco G. A neorodynamical model for selective visual attention usingoscillators // Neural Netw., 14, 981–990, 2001

45. Борисюк Г.Н., Борисюк Р.М., Казанович Я. Б., Иваницкий Г. Р. Модели динами-ки нейронной активности при обработке информации мозгом — итоги «десяти-летия» // УФН, 172(10), 1189–1214, 2002.

46. Hummel J. E. Complementary solutions to the binding problem in vision:Implications for shape perception and object recognition // Visual cognition, 8,489–517, 2001.

47. Борисюк Р.М., Виноградова О. С., Денэм М., Казанович Я. Б., Хоппенштедт Ф.Модель детекции новизны на основе осцилляторной нейронной сети с разре-женной памятью // III Всероссийская конференция «Нейроинформатика-2001»,Москва, МИФИ, 2001, т. 1, с. 183–190.

48. Borisyuk R., Denham M., Kazanovich Y., Hoppensteadt F. Vinogradova O.Oscillatory model of novelty detection // Network, 12, pp. 1–20, 2001.

49. Vinogradova O. S. Hippocampus as comparator: the role of two input and twooutput systems of the hippocampus in selection and registration of information// Hippocampus, 11, pp. 578–598, 2001.

50. Grossberg S. How does the cerebral cortex work? Learning, attention and groupingby laminar circuits of visual cortex // Spatial Vision, 12, 163–186, 1999.

51. Kazanovich Y. B., Kryukov V. I., Luzyanina T. B. Synchronization via phase-lockingin oscillatory models of neural networks // In Neurocomputers and AttentionI: Neurobiology, Synchronization and Chaos, Eds. A. V. Holden, V. I. Kryukov.Manchester University Press, Manchester, 1991, pp. 269–284.

УДК 004.032.26 (06) Нейронные сети 67

Page 68: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

52. Абарбанель Г. Д. И., Рабинович М.И., Селверстон А., Рубчинский Л. Л. и др.Синхронизация в нейронных ансамблях // УФН, 166(4), 363–390, 1996.

53. Sturm A. K., Konig P. Mechanisms to synchronize neural activity // Biol. Cybern.,84, 153–182, 2001.

Яков Борисович КАЗАНОВИЧ, старший научный сотрудник, кандидатфизико–математических наук, сотрудник Лаборатории нейронных сетейИнститута математических проблем биологии РАН (Пущино, Московскаяобласть). Область научных интересов: нейросетевые модели в нейрофизио-логии и психологии, теория динамических систем. Автор (соавтор) более70 публикаций.

Вадим Вадимович ШМАТЧЕНКО, аспирант Пущинского государствен-ного университета; Лаборатории нейронных сетей Института математи-ческих проблем биологии РАН (Пущино, Московская область); сотрудникотдела электронной микроскопии ООО «Карл Цейсс». Область научных ин-тересов: математическое моделирование в нейрофизиологии, психологии имикробиологии, теория динамических систем.

Page 69: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВСанкт-Петербургский государственный электротехнический университет

«ЛЭТИ»E-Mail: [email protected]

БЫСТРЫЕ НЕЙРОННЫЕ СЕТИ: ПРОЕКТИРОВАНИЕ,НАСТРОЙКА, ПРИЛОЖЕНИЯ 1

Аннотация

Обсуждается парадигма быстрых нейронных сетей (БНС). Представленылингвистические методы проектирования структуры и топологии БНС. Науровне морфологии установлены общие принципы построения быстрыхпреобразований. Найдены количественные оценки быстродействия и спо-собности нейронной сети к обучению. Рассмотрены методы настройки БНСпри реализации спектральных преобразований, регулярных фракталов, оп-тимальных фильтров. Исследованы вопросы применения БНС в квантовыхвычислениях. Рассмотрены методы построения многомерных БНС.

A.Yu.DOROGOVSaint-Petersburg state electrotechnical university “LETI”

E-Mail: [email protected]

FAST NEURAL NETWORKS: DESIGN, TUNING ANDAPPLICATIONS

Abstract

A paradigm of fast neural networks (FNN) is discussed. Formal linguistic meth-ods are presented to design structure and topology for FNN. A general principleof fast transformations have been founded on morphological level. Some quanti-tative estimations are obtained for processing speed and learning ability of FNN.Tuning techniques are described to implement FNN-based spectral transforma-tions, regular fractals and optimum filters. Capabilities of FNN for quantumcomputations are investigated. A design approach is suggested to build multi-dimensional FNN.

1Работа выполнена при поддержке гранта Минобразования РФ.

УДК 004.032.26 (06) Нейронные сети 69

Page 70: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Введение

Хорошо известно, какую огромную роль в обработке сигналов сыгралооткрытие алгоритма быстрого преобразования Фурье (БПФ). Использова-ние БПФ позволило кардинальным образом уменьшить количество вычис-лительных операций при выполнении спектральных преобразований, чтозначительно расширило сферу использования спектрального анализа дляобработки данных. Реализация БПФ в технологии больших интегральныхсхем приводит к существенному уменьшению площади кристаллов спек-тральных анализаторов и, соответственно, к радикальному уменьшению ихэнергопотребления.

Для нейронных сетей задача сокращения числа вычислительных опе-раций не менее актуальна. При больших размерностях обрабатываемыхданных нейронные сети с многослойной структурой требуют значительно-го объема вычислительных операций как при обработке данных, так и приобучении сетей. Это ограничивает применение больших нейронных сетейданного класса в системах реального времени и существенно усложняетаппаратную реализацию.

Алгоритмы БПФ имеют выраженную многослойную структуру, подоб-ную структуре многослойных персептронов, поэтому напрашивается есте-ственное решение — использовать идеологию БПФ для построения нейрон-ных сетей [1]. Для этого достаточно в операциях «бабочка» БПФ заменитькоэффициенты преобразования перестраиваемыми синаптическими весамии добавить нелинейные функции активации. Следует отметить, что первыйшаг в этом направлении был сделан достаточно давно. Еще в историческойработе Гуда [2] (1958 г.) было приведено аналитическое описание быстрыхалгоритмов для обобщенных спектральных преобразований. Обобщенноеспектральное преобразование с позиций сегодняшнего дня можно рассмат-ривать как нейронную сеть с линейными функциями активации. В последу-ющие годы тема обобщенных спектральных преобразований развиваласьв работах Г. Эндрюса, А.И. Солодовникова, В. Г. Лабунца и других авто-ров [3–6].

Алгоритм БПФ обладает двумя системными ограничениями: во-первых,размерность вектора обрабатываемых данных для всех слоев должна бытьодинакова и, во-вторых, значение этой размерности должно быть состав-ным числом, т. е. разлагаться в произведение целых множителей. Первоеограничение обусловлено ортогональностью матрицы БПФ, а второе —регулярностью алгоритма что, по-видимому, является неизбежной платой

70 УДК 004.032.26 (06) Нейронные сети

Page 71: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

за быстродействие. Парадигма быстрых нейронных сетей наследует ре-гулярность алгоритма БПФ, но расширяет ее возможности за счет отка-за от ортогональности и жесткой схемы топологической реализации. Дляструктурно-регулярной сети может быть построена как регулярная, так инерегулярная топология. На выбор типа топологии могут влиять два об-стоятельства: структура данных и простота технической реализации. Длябольших и сверхбольших нейронных сетей (потенциальная область при-менения БНС) простота технической реализации является определяющимусловием. Поэтому регулярность топологии далее будет рассматриватьсякак составная компонента парадигмы БНС.

БНС представляют собой вариант многослойных сетей, поэтому дляих обучения могут быть использованы градиентные методы типа ErrorBackpropogation, однако структурные особенности БНС позволяют упро-стить и процедуру обучения. Частным случаем БНС являются быстрыеперестраиваемые линейные преобразования. От нейронных сетей они отли-чаются линейными функциями активации и отсутствием смещений. Орто-гональные перестраиваемые преобразования с различной топологией тра-диционно используются для построения спектральных преобразований. Втерминах перестраиваемых преобразований процедура обучения обычноназывается настройкой. Типичной задачей для перестраиваемого преоб-разования является настройка на заданную систему базисных функций,например базис Фурье, Адамара–Уолша и др. Классические системы ба-зисных функций, как правило, имеют аналитическую форму, поэтому на-стройка преобразования также выполняется в аналитическом виде. По-скольку структура БНС обладает фрактальными свойствами, то регуляр-ные фрактальные последовательности могут быть реализованы как мно-гослойные БНС. Фрактальность порождает и особые методы настройкиБНС для реализации адаптивных фильтров. Идентичность структуры БНСсо структурой тензорных произведений векторных пространств позволяетиспользовать БНС для построения алгоритмов квантовых вычислений. Па-радигма БНС допускает многомерное обобщение, что наряду с высокимбыстродействием способствует использованию БНС для построение клас-сификаторов зрительных сцен. Перечисленные выше вопросы составляютосновное содержание настоящей лекции. Цель лекции состоит в том, чтобыдать представление о методах построения БНС, оценить их характеристикии показать потенциальные области применения.

УДК 004.032.26 (06) Нейронные сети 71

Page 72: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Структурный анализ алгоритмов БПФ

Набор алгоритмов, называемых алгоритмами быстрого преобразования Фу-рье вошел в практику спектрального анализа в 60–х годах, начиная с работКули-Тьюки [7]. Существует множество различных схем построения алго-ритмов БПФ, как правило, они основаны на способе разбиения входноговектора на подвекторы. Следуя [8], рассмотрим в качестве примера схему«с прореживанием по частоте». Для вектора X = {x(i)} , 0 � i � N − 1прямое дискретное преобразование Фурье (ДПФ) определяется выражени-ем:

y(m) =N−1∑i=0

x(i)e−j2πN im,

где m = 0, 1, 2, . . . , N − 1 — номер гармоники. Величину ω = e−j2πN обыч-

но называют поворачивающим множителем. Число комплексных операцийумножения при выполнении ДПФ в общем случае равно N2.

Для алгоритмов БПФ, как правило, выбирают значение N = 2κ , где κ

— целое число. В схеме «с прореживанием по частоте» вектор X = {x(i)}разбивается на два подвектора по правилу:

x1(i) = x(i), x2(i) = x(i + N/2),i = 0, 1, 2, . . . , (N/2) − 1.

Этот прием позволяет свести вычисление N–точечного преобразованияк вычислению двух N/2–точечных преобразований, при этом число ком-плексных операций умножения будет значительно меньше N2. Математи-ческие детали этой идеи подробно представлены в главе 6 работы [8]. Нарис. 1 в графической форме показан пример перехода от восьмиточечногоДПФ к двум четырехточечным ДПФ при «прореживании по частоте».

Графический образ в виде пары перекрещивающихся линий с кружкомпосередине (напоминающий «бабочку») обозначает базовую операцию надпарой координат входного вектора. Для алгоритма БПФ «с прореживаниемпо частоте» базовая операция представляется унитарной матрицей вида:(

1 ωi

1 −ωi

).

72 УДК 004.032.26 (06) Нейронные сети

Page 73: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

3

2

1

0

x(0)

x(1)

x(2)

x(3)

x(4)

x(5)

x(6)

x(7)

y(0)

y(4)

y(2)

y(6)

y(1)

y(5)

y(3)

y(7)

x1(n)

x2(n)

РИС. 1. Переход от восьмиточечного ДПФ к двум четырехточечным

В общем случае базовая операция определяется матрицей W размерностиp × p :

W =

⎛⎜⎜⎝

w00 w01 · · · w0,p−1

w10 w11 · · · w‘1,p−1

· · · · · · · · · · · ·wp−1,0 wp−1,1 · · · wp−1,p−1

⎞⎟⎟⎠

(здесь и далее принято, что нумерация строк и столбцов в матрицах начи-нается с нулевого индекса). Для базовой операции «бабочка» значение pравно двум, а для четырехточечного преобразования ДПФ будет p = 4.

Если сопоставить каждой базовой операции вершину графа, а дугам —операторы связи между базовыми операциями, то получим структурнуюмодель алгоритма БПФ. На рис. 2 показана структурная модель для алго-ритма, изображенного на рис. 1. На графе структурной модели приведенытакже размеры матриц базовых операций и ранги операторов связи (для ал-горитмов БПФ ранги связей всегда равны единице). По структурной моде-ли нетрудно подсчитать вычислительные затраты связанные с выполнениемБПФ, для этого достаточно просуммировать число операций умножения повсем базовым операциям, например для структурной модели, показаннойна рис. 2 получим:

УДК 004.032.26 (06) Нейронные сети 73

Page 74: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

3

2 1

1 0

0

(4,4)

(4,4)

(2,2)

(2,2)

(2,2)

(2,2)

X00

X01

X02

X03

Y10

Y11

rij=1

РИС. 2. Структурная модель БПФ первого шага

Z = 2 × 2 + 2 × 2 + 2 × 2 + 2 × 2 + 4 × 4 + 4 × 4 = 48.

Заметим для сравнения, что прямое восьмиточечное ДПФ имеет 8 × 8 =64 операции умножения. Каждое дискретное преобразование размерностиN/2 в свою очередь может быть сведено к двум N/4 точечным преобра-зованиям. На рис. 3 показан полный граф восьмиточечного БПФ с «проре-живанием по частоте».

Для данного алгоритма спектральные коэффициенты на выходе преоб-разования оказываются переставленными в двоично-инверсном порядке поотношению к частоте гармоники. На рис. 4 приведена структурная модельдля полного восьмиточечного БПФ. В общем случае размерность преоб-разования может быть составным числом: N = n0n1 . . . nκ−1, где nλ —целые числа. В этом случае структурная модель состоит из κ слоев с раз-мерностью базовых операций (nλ, nλ) в слое λ и числом вершин в слоеравным kλ = N/nλ.

Обозначим через i номер вершины во входном слое, а через j — но-мер вершины в выходном слое и представим эти числа в позиционной

74 УДК 004.032.26 (06) Нейронные сети

Page 75: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

3

2

1

0

3

2

1

0

3

2

1

0

y(0)

y(4)

y(2)

y(6)

y(1)

y(5)

y(3)

y(7)0

0

0

0

2

0

2

0

3

2

1

0

x(0)

x(1)

x(2)

x(3)

x(4)

x(5)

x(6)

x(7)

x1(n)

x2(n)

РИС. 3. Полный граф восьмиточечного БПФ с «прореживанием почастоте»

многоосновной системе счисления [9] следующим образом:

i = 〈iκ−2iκ−3 · · · i0〉 = iκ−2nκ−3nκ−4 · · ·n0 + . . . + i1n0 + i0,

j = 〈j1j2 · · · jκ−1〉 = j1n2n3 · · ·nκ−1 + . . . + jκ−1nκ−2 + jκ−1,

где iλ, jλ ∈ [0, 1, . . . , (nλ − 1)] — разрядные числа. Непосредственной про-веркой можно убедится, что нумерация вершин в графе структурной моде-ли будет определяться выражением:

iλ = 〈j1j2 . . . jλiκ−λ−2iκ−λ−3 . . . i0〉 .

Из приведенного выше анализа можно сделать следующие выводы:

• На структурном уровне быстрый алгоритм представляется много-слойной модульной сетью, где каждому модулю отвечает базоваяоперация.

• Размерность быстрого преобразования всегда выражается составнымчислом, где числовые множителями определяют размерности базо-вых операций.

• Базовые операции выражаются квадратными матрицами, которые впределах слоя имеют одинаковый порядок.

УДК 004.032.26 (06) Нейронные сети 75

Page 76: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

333

222

111

000

(2,2)

(2,2)

(2,2)

(2,2)

(2,2)

(2,2)

(2,2)

(2,2)

(2,2)

(2,2)

(2,2)

(2,2)

X00

X01

X02

X03

Y20

Y21

Y22

Y23

РИС. 4. Структурная модель восьмиточечного БПФ

• Ранги связей между базовыми операциями всегда равны единице.• Алгоритм БПФ имеет регулярную структуру и регулярную тополо-

гию.

Структурный синтез быстрых нейронных сетей

В данном разделе рассматривается лингвистические модели регулярныхБНС на уровне структуры и морфологии. Лингвистическая модель осно-вана на концепции формального языка. В контексте языка структура сетиинтерпретируется как графическая семантика допустимых предложений.

Формальный язык регулярных сетей

Любой формальный язык является средством для выражения инвариант-ных свойств предметной области знаний. Для построения языка вводитсяалфавит, грамматика и устанавливается семантика слов и предложений.Практическая ценность формального языка определяется его семантиче-ской интерпретацией, поэтому построение языка регулярных сетей целе-сообразно начать с его семантики.

76 УДК 004.032.26 (06) Нейронные сети

Page 77: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

Семантика слов. Пусть 〈zn−1zn−2 . . . z0〉 — некоторое допустимое сло-во формального языка. Поставим в соответствие каждой букве zi целоеположительное число pi, и будем рассматривать букву как символическоеобозначение переменной принимающей целочисленные значения из ин-тервала Zi = [0, 1, . . . , pi − 1]. Слово языка будем интерпретировать какцелочисленную функцию, заданную правилом:

〈zn−1zn−2 . . . z0〉 = zn−1pn−2pn−3 . . . p0 + zn−2pn−3pn−4 . . . p0 + · · ·+ z1p0 + z0 (1)

Порядок следования аргументов для данной функции имеет существен-ное значение, поэтому каждое слово языка представляет собой кортеж, т. е.множество, на котором зафиксирован линейный порядок. Для сокращенно-го обозначения кортежа все элементы которого имеют общее родовое имя(в данном случае — z), будем использовать следующую форму: 〈z〉J , где J— отношение линейного порядка. Для определенности будем полагать, чтособственные позиции кортежа всегда упорядочены по возрастанию слеванаправо, начиная с нулевой. В дальнейшем интерпретирующую функциюбудем называть конвергенцией. Нетрудно видеть, что функция конверген-ции представляет собой правило перехода от позиционного представлениячисла в многоосновной системе счисления к его количественному значе-нию. В этом контексте переменную zi уместно назвать разрядом, а кон-станту pi основанием разряда.

Алфавит языка и грамматика слов. Алфавитом языка будем счи-тать кортеж неповторяющихся символов A = 〈zi0zi1 . . . ziκ

〉. Отношениелинейного порядка на алфавитном множестве назовем каноном языка иобозначим через K. В сокращенной форме кортеж алфавита, состоящийиз букв с общим родовым именем, записывается в виде: A = 〈z〉K. Канонязыка может быть задан таблицей:

K =(

zi0 zi1 . . . ziκ

0 1 · · · κ

).

Нижняя строка таблицы определяет порядок символов в алфавите. Далеебудем использовать алфавит с двумя различными типами букв. Каждый типбуквы определяется его родовым именем (например, u, v) в этом случае длясокращенной записи алфавита будем использовать обозначения вида:

A = 〈〈u〉 ⊕ 〈v〉〉K .

УДК 004.032.26 (06) Нейронные сети 77

Page 78: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Пусть алфавит A состоит из κ букв. Допустимым словом языка будемсчитать любой кортеж длиной n � κ, состоящий из неповторяющихся буквалфавита. Если последовательность букв в слове соответствует канону, тослово будем называть каноническим.

Операция перестановки. Пусть Q есть множество всевозможных пе-рестановок букв, определенных на кортеже слова 〈z〉K , и q — некотораяперестановка принадлежащая этому множеству. Операцию перестановкидля слова 〈z〉K будем записывать в виде: 〈z〉K ∗ q, например,

〈z1z3z0z6〉 ∗(

0 1 2 33 2 1 0

)= 〈z6z0z3z1〉 .

На множестве слов языка определим отношение эквивалентности π сле-дующим образом. Два слова 〈z〉J1

и 〈z〉J2одинаковой длины будем считать

эквивалентными, если существует перестановка q такая, что

〈z〉J1∗ q = 〈z〉J2

.

Отношение эквивалентности разбивает множество слов языка на классы.Понятно, что если 〈z〉J1

и 〈z〉J2два различных канонических слова, то

они всегда принадлежат разным классам, т. е. канонические слова явля-ются представителями эквивалентных классов. Каждый класс может бытьобразован всевозможными перестановками букв канонического слова.

Смежные классы. Пусть задан алфавит длиной κ. Рассмотрим мно-жество эквивалентных классов с длиной слов, равной n. Если n = κ, томножество состоит из одного класса. Для слов длиной n = κ−1 число воз-можных классов равно κ. Два класса на множестве слов длиной n назовемсмежными, если они отличаются только одной буквой. Смежные классыобразуют упорядоченные цепочки по подмножествам входящих букв. Дли-на каждой цепочки не превышает n+1. Цепочки смежных классов длинойn + 1 будем называть максимальными.

Грамматика предложений и морфология сети

Правила построения предложений (иначе эти правила называются порож-дающей грамматикой) целиком подчинены задачам предметной области.Порождающая грамматика составляет основу метода синтеза регулярныхмногослойных графов.

78 УДК 004.032.26 (06) Нейронные сети

Page 79: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

В линейных языках каждое предложение имеет одно начало и одинконец. Возможны различные способы кодирования границ предложения.Будем использовать для этой цели вариант родовых имен. Определим ал-фавит языка как линейно упорядоченный набор неповторяющихся букв сдвумя видами родовых имен:

A = 〈〈i〉I ⊕ 〈j〉J〉K .

Число букв каждого вида будем считать одинаковыми и равными κ − 1.Таким образом, длина алфавита равна 2 (κ − 1). Рассмотрим множествовсевозможных слов длиной (κ − 1), из которых будем строить предло-жения. Как и прежде будем полагать, что на множестве слов операциейперестановки определено отношение эквивалентности π, разбивающее этомножество на непересекающиеся классы. Допустимым предложением бу-дем считать упорядоченную последовательность слов, каждое из которыхявляется представителем максимальной цепочки смежных классов. В до-пустимом предложении представлены все смежные классы цепочки, и каж-дый класс представлен только одним словом. Длина предложения всегдаравна κ. Последовательность слов в предложении определяется правиломвывода. Это правило устанавливает начальное слово предложения и опи-сывает связи между смежными словами. Зафиксируем следующее правиловывода:

• слова в предложении линейно упорядочены по числу букв с родовымименем j;

• первое слово предложения выбирается из класса (i) I и имеет, поэто-му нулевое число вхождений букв с родовым именем j.

Каждая цепочка смежных классов порождает множество однотипныхпредложений. Среди этого множества существует единственное предложе-ние, составленное из канонических слов, такое предложение назовем ка-ноническим. Все остальные предложения для данной цепочки могут бытьполучены произвольной перестановкой букв в словах канонического пред-ложения. Поэтому достаточно рассматривать порождающую грамматикутолько для канонических предложений. Пусть числа λ и λ + 1 определяютпорядковые номера двух смежных классов в цепочке. Обозначим через Iλ

и Jλ канонически упорядоченные подмножества букв каждого типа длясмежного класса λ, а через

⟨〈i〉Iλ⊕ 〈j〉Jλ

⟩его каноническое слово. Тогда

правило вывода для канонических предложений можно сформулировать

УДК 004.032.26 (06) Нейронные сети 79

Page 80: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

следующим образом:

Iλ ⊃ Iλ+1, Jλ ⊂ Jλ+1,

I0 = I, Iκ−1 = ∅, Jκ−1 = J, J0 = ∅.

Построенное правило не связано ни с размерностью сети, ни с ее то-пологией, ни со структурными характеристиками вершин — это правиломорфологического уровня, которое в аксиоматической форме раскрываетвнутреннею сущность быстрых преобразований.

Семантическая интерпретация предложений

Поставим в соответствие каноническому предложению n–слойный сетевойграф. Каждое слово с порядковым номером λ будем интерпретировать какфункциональное правило вычисления номера вершины в слое λ, в соот-ветствии с семантикой (1). Вершины двух смежных слоев будем считатьсвязанными дугой, если в поразрядном представлении номеров вершин

iλ =⟨〈i〉Iλ

⊕ 〈j〉Jλ

⟩, iλ+1 =

⟨〈i〉Iλ+1

⊕ 〈j〉Jλ+1

⟩одноименные разрядные переменные имеют совпадающие значения. Рас-смотрим пример построения сетевого графа. Пусть алфавит языка опреде-лен кортежем

A = 〈i1i2i3j2j1j0〉 .

Нетрудно убедится, что предложение[〈i1i2i3〉 〈i1i2j0〉 〈i1j1j0〉 〈j2j1j0〉]

(2)

является каноническим. Будем полагать, что основания разрядных пере-менных заданы таблицей(

Ap

)=(

i1 i2 i3 j2 j1 j02 2 2 2 2 2

).

В соответствии с семантикой (1) слова предложения интерпретируются какследующие алгебраические выражения:

i0 = 〈i1i2i3〉 = 22i1 + 2i2 + i3,i1 = 〈i1i2j0〉 = 22i1 + 2i2 + j0,i2 = 〈i1j1j0〉 = 22i1 + 2j1 + j0,i3 = 〈j2j1j0〉 = 22j2 + 2j1 + j0.

80 УДК 004.032.26 (06) Нейронные сети

Page 81: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

Эти формулы используются для вычисления номеров вершин сетевого гра-фа. На рис. 5 приведены поразрядные представления номеров вершин длякаждого слоя графа и частично показаны принципы образования межслой-ных связей. На рис. 6 показан полный граф, соответствующий канониче-скому предложению (2).

< i 1 i 2 i 3 >

0 0 0

0 0 1

0 1 0

0 1 1

1 0 0

1 0 1

1 1 0

1 1 1

< i 1 i 2 j 0 >

0 0 0

0 0 1

0 1 0

0 1 1

1 0 0

1 0 1

1 1 0

1 1 1

< i 1 j 1 j 0 >

0 0 0

0 0 1

0 1 0

0 1 1

1 0 0

1 0 1

1 1 0

1 1 1

< j 2 j 1 j 0 >

0 0 0

0 0 1

0 1 0

0 1 1

1 0 0

1 0 1

1 1 0

1 1 1

i 0

0

1

2

3

4

5

6

7

i 3

0

1

2

3

4

5

6

7

РИС. 5. Правило построения графической интерпретации предложения

Топологическое проектирование быстрых нейронныхсетей

Рассмотрим регулярную сеть и будем полагать, что каждая вершина слояλ представляет собой однослойный персептрон с размерностью рецептор-ного поля, равной pλ и числом нейронов — gλ. Персептрон, соответству-ющий вершине графа, будем называть нейронным ядром. Обозначим черезuλ = [0, 1, . . . , pλ − 1] номер рецептора, а через vλ = [0, 1, . . . , gλ − 1] но-мер нейрона в нейронном ядре. Будем полагать, что любой нейрон имееттолько один выходной аксон. Каждой дуге графа поставим в соответствиеточную однозначную связь аксон-рецептор. Алфавит языка расширим бук-вами с родовыми именами u и v.

УДК 004.032.26 (06) Нейронные сети 81

Page 82: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

0

1

2

3

4

5

6

7

0

1

2

3

4

5

6

7

0

1

2

3

4

5

6

7

0

1

2

3

4

5

6

7

РИС. 6. Графическая интерпретация канонического предложения

Топологии нейронных слоев

Позиционный номер рецепторов и аксонов в пределах слоя может бытьзадан конвергенциями

Uλ =⟨⟨

iλ⟩⊕ uλ

⟩, V λ =

⟨⟨iλ⟩⊕ vλ

⟩. (3)

Данные выражения включают в себя поразрядное представление номеравершины и дополнительный разряд, соответствующий локальному номе-ру рецептора/аксона в пределах нейронного ядра. Дополнительный разрядможет занимать любую позицию в кортеже слова, что позволяет в широ-ком диапазоне варьировать размещение терминальных полей нейронногоядра в нейронном слое. Слова языка, соответствующие конвергенциям (3),назовем топологиями нейронного слоя. Для смежного слоя с порядковымномером λ + 1 топологии определяются конвергенциями:

Uλ+1 =⟨⟨

iλ+1⟩⊕ uλ+1

⟩, V λ+1 =

⟨⟨iλ+1

⟩⊕ vλ+1

⟩.

Потребуем, чтобы соответствие между аксонами и рецепторами двухсмежных слоев удовлетворяло условиям регулярности. В контексте фор-

82 УДК 004.032.26 (06) Нейронные сети

Page 83: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

мального языка регулярное соответствие может быть выражено операциейперестановки ⟨⟨

iλ⟩⊕ vλ

⟩ ∗ qλ =⟨⟨

iλ+1⟩⊕ uλ+1

⟩.

Это выражение справедливо для всех значений разрядных переменных,т. е. является тождеством. Топологию будем называть компактной, есливсе межслойные перестановки тождественны единичной. Сеть с компакт-ной топологией наиболее проста в технической реализации. Учитывая, чтоIλ ⊃ Iλ+1, Jλ ⊂ Jλ+1, можно сделать вывод о существовании взаимнооднозначных соответствий

Iλ\Iλ+1 ↔ uλ+1, Jλ+1\Jλ ↔ vλ, (4)

(символ “\” означает разность множеств). Соответствия (4) позволяют вовсех словах допустимого предложения заменить буквы вида i, j на буквыс родовыми именами вида u, v, в результате получим:

V λ =⟨〈u〉Sλ

⊕ 〈v〉Cλ

⟩, Uλ+1 =

⟨〈u〉Sλ⊕ 〈v〉Cλ

⟩ ∗ qλ,

где Sλ ⊃ Sλ+1 и Cλ ⊂ Cλ+1 — подмножества смежных классов в алфавитеu, v.

Терминальные поля нейронной сети занимают особое положение. Обо-значим через U позиционный номер рецептора входного слоя, а через Vпозиционный номер аксона выходного слоя, тогда топологии терминаль-ных полей можно записать в виде конвергенций:

U =⟨⟨

i0⟩⊕ u0

⟩, V =

⟨⟨iκ−1

⟩⊕ vκ−1

⟩.

В этих выражениях u0 и vκ−1 — свободные переменные, которые не связа-ны каким либо соответствием вида (4) с переменными 〈i〉,〈j〉. Число букв сродовыми именами u, v на единицу больше (по каждому виду), чем числобукв с родовыми именами i, j.

Графическая интерпретация топологий

Пусть алфавит языка определен кортежем

A = 〈i1i2i3j2j1j0〉 .

Рассмотрим каноническое предложение[〈i1i2i3〉 〈i1i2j0〉 〈i1j1j0〉 〈j2j1j0〉], (5)

УДК 004.032.26 (06) Нейронные сети 83

Page 84: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

определяющее структурную модель регулярной сети. Используя соответ-ствия (4), сделаем замены переменных

I0\I1 = i3 ↔ u1, I1\I2 = i2 ↔ u2, I2\I3 = i1 ↔ u3,J3\J2 = j2 ↔ v2, J2\J1 = j1 ↔ v1, J1\J0 = j0 ↔ v0,

(6)

В новых переменных каноническое предложение примет вид:[〈u3u2u1〉 〈u3u2v0〉 〈u3v1v0〉 〈v2v1v0〉].

Для построения топологий рецепторных полей необходимо к каждому сло-ву с порядковым номером λ добавить переменную uλ. Переменные могутбыть добавлены в любые позиции, например, добавим их в конец слов, то-гда множество рецепторных топологий будет описываться предложением[〈u3u2u1u0〉 〈u3u2v0u1〉 〈u3v1v0u2〉 〈v2v1v0u3〉

]. (7)

Аналогичным образом для построения топологий аксоновых полей необхо-димо к каждому слову канонического предложения с порядковым номеромλ добавить переменную vλ. Например, это можно сделать следующим об-разом: [〈u3u2v0u1〉 〈u3v1v0u2〉 〈v2v1v0u3〉 〈v3v2v1v0〉

]. (8)

Все другие топологии могут быть получены всевозможными переста-новками букв в словах полученных предложений. Предложения (7) и (8)будем называть топологическими, а их совокупность — топологическойтраекторией. Топологическую траекторию можно интерпретировать каксетевой многослойный граф, каждой вершине которого соответствует одиннейрон, а дуги определяют связи между нейронами смежных слоев. Каж-дое слово в предложении (8) определяет правило для вычисления номеранейрона в пределах слоя. Слова предложения (7) интерпретируются какномер рецептора в пределах слоя. Рецептор и нейрон смежных слоев свя-зываются между собой дугой графа, если значения одноименных разрядовв соответствующих конвергенциях совпадают. Правило построения графапоказано на рис. 7. В данном примере основания всех разрядных перемен-ных приняты равными двум. На рис. 8 приведен полный топологическийграф быстрой нейронной сети. Для построения компактной топологиче-ской траектории можно воспользоваться правилом скользящего интервала.Выберем канон алфавита в виде

A = 〈u0u1 . . . uκ−1v0v1 . . . vκ−2vκ−1〉.84 УДК 004.032.26 (06) Нейронные сети

Page 85: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

< u 3u 2u 1u 0 >0 0 0 00 0 0 10 0 1 00 0 1 10 1 0 00 1 0 10 1 1 00 1 1 11 0 0 01 0 0 11 0 1 01 0 1 11 1 0 01 1 0 11 1 1 01 1 1 1

< u 3u 2v 0u 1>0 0 0 00 0 0 10 0 1 00 0 1 10 1 0 00 1 0 10 1 1 00 1 1 11 0 0 01 0 0 11 0 1 01 0 1 11 1 0 01 1 0 11 1 1 01 1 1 1

< u 3v 1v 0u 2>0 0 0 00 0 0 10 0 1 00 0 1 10 1 0 00 1 0 10 1 1 00 1 1 11 0 0 01 0 0 11 0 1 01 0 1 11 1 0 01 1 0 11 1 1 01 1 1 1

< v 2v 1v 0u 3 >0 0 0 00 0 0 10 0 1 00 0 1 10 1 0 00 1 0 10 1 1 00 1 1 11 0 0 01 0 0 11 0 1 01 0 1 11 1 0 01 1 0 11 1 1 01 1 1 1

U0123456789

1 01 11 21 31 41 5

< v 3v 2v 1v 0>0 0 0 00 0 0 10 0 1 00 0 1 10 1 0 00 1 0 10 1 1 00 1 1 11 0 0 01 0 0 11 0 1 01 0 1 11 1 0 01 1 0 11 1 1 01 1 1 1

V0123456789

1 01 11 21 31 41 5

РИС. 7. Правило построения топологического интерпретирующего гра-фа

Будем перемещать пустой интервал длиной κ, ограниченный угловымискобками вдоль алфавитного кортежа, начиная с крайней левой позиции.На каждом шаге подвижный интервал вычленяет из кортежа каноническоеслово. В результате последовательность первых κ − 1 порождаемых словбудет определять топологию рецепторных полей нейронной сети, а послед-нее κ-е слово — топологию терминального аксонового поля сети. Обратноедвижение интервала с крайне правой позиции к началу канона порождаеттопологии аксоновых полей сети.

Правило скользящего интервала можно представить в аналитическойформе. Обозначим через tλ слово, выделяемое подвижным интервалом нашаге λ. Нетрудно заметить, что

tλ = 〈uλuλ+1 . . . uκ−1v0v1 . . . vλ−1〉 . (9)

Можно проверить, что данное правило соответствует схеме алгоритма БПФв форме Гуда (см. рис. 9). Особенность порождающей схемы Гуда состоит втом, что все слои графа имеют одинаковую топологию, что упрощает алго-ритм реализации. Однако выходные операнды на каждой базовой операции

УДК 004.032.26 (06) Нейронные сети 85

Page 86: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

0123456789

101112131415

0123456789

101112131415

0123456789101112131415

0123456789101112131415

0123456789101112131415

0123456789101112131415

РИС. 8. Графическая интерпретация топологической траектории

не могут замещать входные отсчеты, поэтому требуется дополнительнаяпамять для хранения выходной последовательности. Далее по тексту будутпредставлены другие варианты порождающих схем (см. также [10]).

Граничные условия и топологические матрицы

В общем случае топологии терминальных полей сети могут быть записаныв следующем виде:

U = 〈u〉S ∗ qb, V = 〈v〉C ∗ qa, (10)

где qa, qb — регулярные перестановки. Векторы на входе и выходе сетиимеют свою собственную нумерацию координат, для которой также будемиспользовать поразрядную форму, положив

U = 〈U〉X и V = 〈V 〉Y ,

86 УДК 004.032.26 (06) Нейронные сети

Page 87: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

0123456789

101112131415

0123456789

101112131415

0123456789

101112131415

0123456789

101112131415

0123456789101112131415

0123456789101112131415

V0 V1 V2 V3

РИС. 9. Топологическая реализация схемы Гуда

где X,Y — линейно упорядоченные множества разрядных переменных.Например, можно выбрать

U = 〈Uκ−1Uκ−2 . . . U0〉 , V = 〈Vκ−1Vκ−2 . . . V0〉 .

Разрядные числа Ui, Vi назовем глобальными разрядными числами в отли-чие от ui, vi для которых будем в дальнейшем использовать определение«локальные». В данном случае к определению «глобальные» следует доба-вить и определение «терминальные», поскольку они описывают граничныеслои сети. Выражения (10) устанавливают соответствия между глобальны-ми и локальными разрядными числами. Эти соответствия можно рассмат-ривать как граничные условия для топологической траектории нейроннойсети. Подобным образом можно ввести глобальные разрядные переменныедля всех скрытых слоев, положив:

Uλ =⟨Uλ

κ−1Uλκ−2 . . . Uλ

0

⟩, V =

⟨V λ

κ−1Vλ

κ−2 . . . V λ0

⟩.

УДК 004.032.26 (06) Нейронные сети 87

Page 88: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Для каждого слоя справедливы следующие соответствия между локальны-ми и глобальными переменными:⟨

Uλκ−1U

λκ−2 . . . Uλ

0

⟩= tλ ∗ qλ−1

b ,⟨V λ

κ−1Vλ

κ−2 . . . V λ0

⟩= tλ ∗ qλ

a (11)

(разложение qλ =(qλa

)−1qλb использовано из соображений симметрии).

Последовательность слов вида⟨〈U〉Xλ

⊕ 〈V 〉Yλ

⟩в алфавите терминаль-

ных переменных, соответствующая последовательности шагов топологи-ческой траектории, назовем внешней траекторией топологий. Пусть tλ

слово топологического предложения, определяемое некоторой регулярнойпорождающей схемой. Ограничимся компактными топологиями и предста-вим соответствия (11) в табличном виде. Например, для топологии Гуда:

Uλ = tλ = 〈uλuλ+1 . . . uκ−2uκ−1v0v1 . . . vλ−1〉 ,V λ = tλ+1 = 〈uλ+1 . . . uκ−2uκ−1v0v1 . . . vλ−1vλ〉 .

(12)

Данное соответствие представляется таблицей 1. Построим по данной таб-лице матрицу, Tλ состоящую из нулей и единиц, используя при этом следу-ющее правило: элемент матрицы Tλ

(Uλ, V λ

)равен единице, когда одно-

именные разрядные числа в конвергенциях Uλ, V λ совпадают по значени-ям. Следуя данному правилу и используя первую и третью строки таблицы,можно получить следующую аналитическую форму для определения эле-ментов матрицы

ТАБЛИЦА 1. Соответствие локальных и глобальных переменных

1 2 1 0 3 2

1 2 1 1 2 1 0

1 2 1 0 1 2 1

1 2 1 1 2 1 0

U u u u u v v v vU U U U U U U U U

V u u u v v v v vV V V V V V V V V

1

88 УДК 004.032.26 (06) Нейронные сети

Page 89: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

(Uλ, V λ

)= δ

(Uλ

κ−2, Vλ

κ−1

)δ(Uλ

κ−3, Vλ

κ−2

). . . δ

(Uλ

0 , V λ1

),

где δ(·) — функция Кронекера. Например, для четырехслойной сети с осно-ванием 2 (см. рис. 9) топологическая матрица слоя λ будет определятьсявыражением

(Uλ, V λ

)= δ

(Uλ

2 , V λ3

)δ(Uλ

1 , V λ2

)δ(Uλ

0 , V λ1

).

На рис. 10 показан вид топологической матрицы, отвечающей данномувыражению; там же для удобства показана поразрядная нумерация строки столбцов. На поле матрицы прямоугольникам выделены элементы, от-носящиеся к одному нейронному ядру, незаполненные позиции матрицысоответствуют нулевым значениям.

По существу данная матрица представляет собой шаблон синаптиче-ской карты нейронного слоя. При реализации нейронной сети ненулевыепозиции топологической матрицы занимаются синаптическим весами ней-ронных ядер. Обозначим матрицу синаптической карты через Hλ. Исполь-зуя аналитическую форму для топологической матрицы и приведеннуювыше таблицу, можно получить следующее аналитическое представлениедля элементов матрицы Hλ:

(Uλ, V λ

)= wλ

(Uλ

κ−1, Vλ0

)δ(Uλ

κ−2, Vλ

κ−1

)δ(Uλ

κ−3, Vλ

κ−2

). . .

. . . δ(Uλ

0 , V λ1

),

здесь через wλiλ

(, ) обозначен элемент синаптической карты нейронногоядра iλ. Номер ядра, выраженный в глобальных переменных, может бытьпредставлен одним из выражений:

iλ =⟨Uλ

κ−2Uλκ−3 . . . Uλ

0

⟩=⟨V λ

κ−1Vλ

κ−2 . . . V λ1

⟩.

Алгоритм обработки данных в БНС

Обработка данных в нейронном ядре iλ слоя λ определяется выражениями:

sλiλ (vλ) =

∑uλ

xλiλ (uλ) wλ

iλ (uλ, vλ),

yλiλ (vλ) = fλ

(sλ

iλ (vλ))

,(13)

УДК 004.032.26 (06) Нейронные сети 89

Page 90: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

111111111110

111101111100

111011111010

111001111000

110111110110

110101110100

110011110010

110001110000

UUUU1010101010101010V1100110011001100V1111000011110000V1111111100000000V

0123

0

1

2

3

РИС. 10. Топологическая матрица для порождающей схемы Гуда

где fλvλ

(·) — функция активации, xλ+1iλ+1 (vλ) и yλ

iλ (vλ) — входные и вы-ходные переменные. Для построения алгоритма обработки данных необ-ходимо выполнить переход от локальных переменных нейронного ядра кглобальным переменным нейронного слоя. Рассмотрим в качестве примеранейронную сеть с топологией Гуда. Кортеж соответствующий номеру ядраможно получить, удалив из топологического слова tλ (см. выражение (9))букву uλ. В результате получим:

iλ = 〈uλ+1 . . . uκ−1v0v1 . . . vλ−1〉 . (14)

Следуя семантике слов, глобальный номер рецептора и глобальный номераксона в слое λ можно вычислить, используя алгебраические выражения:

Uλ = uλpλ+1pλ+2 . . . pκ−1g0g1 . . . gλ−1 + iλ,V λ = iλgλ + v.

(15)

90 УДК 004.032.26 (06) Нейронные сети

Page 91: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

Формулы (13), (14), (15) полностью определяют обработку данных в ней-ронном слое. В целом для нейронной сети алгоритм заключается в после-довательной обработке данных по нейронным слоям.

Слабосвязанные сети

Условие слабой связанности [11–13] выражает собой отношение междуокрестностями вершин и их проекциями на терминальные слои. В терми-нах нейронных сетей входной терминальный слой называется афферен-том, а выходной — эфферентом. Под афферентной проекцией некоторойвершины B (далее обозначается Afr(B)) понимается подмножество вер-шин афферентного слоя, связанных дугами с этой вершиной. Аналогичнопод эфферентной проекцией вершины B (далее обозначается Efr(B)) пони-мается подмножество вершин эфферентного слоя связанных дугами с этойвершиной. Определим также рецепторную окрестность Γ−1(B) как множе-ство вершин непосредственно предшествующего слоя, связанных дугами свершиной B и аксоновую окрестность Γ(B), как множество вершин после-дующего слоя, связанных дугами с вершиной B. На рис. 11 показан примерструктурной модели трехслойной ядерной нейронной сети. Для вершиныB1 данного примера терминальные проекции будут иметь следующий со-став:

Afr (B1) = {A3, A4, A5} , Efr (B1) = {C0, C1} .

Принцип слабой связанности может быть выражен парой симметрич-ных условий:

Afr (B) =∑

A∈Γ−1(B)

Afr (A),

Efr (B) =∑

C∈Γ(B)

Efr (C),

где символ∑

обозначает прямую сумму соответствующих множеств. Пер-вое выражение устанавливает, что в слабосвязанной сети для любой вер-шины B афферентные проекции вершин ее рецепторной окрестности непересекаются. Второе — устанавливает аналогичное условие для эфферент-ных проекций. Фактически оба выражения двойственны друг другу и есливыполняется одно из них, то обязательно будет выполнено и другое. Ис-пользуя данное определение несложно показать, что в слабосвязанных се-тях отсутствуют параллельные пути между вершинами, т. е. сети являютсяструктурно безызбыточными.

УДК 004.032.26 (06) Нейронные сети 91

Page 92: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

1

0

2

4

3

5

0

1

3

2

0

1

3

2

(2,2)

(3,2) (2,2)

A

B C

РИС. 11. Переход от восьмиточечного ДПФ к двум четырехточечным

Докажем теперь, что грамматика формального языка порождает слабо-связанные структуры. В интерпретирующем графе регулярной сети номервершины в слое λ определяется выражением

iλ =⟨〈i〉Iλ

⊕ 〈j〉Jλ

⟩, (16)

а номера вершин начального и конечного слоя можно представить в виде:

i =⟨〈i〉Iλ

⊕ 〈i〉I\Iλ

⟩, j =

⟨〈j〉Jλ

⊕ 〈j〉J\Jλ

⟩, (17)

где I\Iλ и J\Jλ обозначают разность множеств. По принципу построенияинтерпретирующего графа вершины двух смежных слоев связаны дугой,если одноименные переменные в смежных словах предложения имеют сов-падающие значения. Выполняя индукцию по номеру слоя, нетрудно пока-

92 УДК 004.032.26 (06) Нейронные сети

Page 93: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

зать, что вершина iλ будет связана с теми вершинами начального и конеч-ного слоя, для которых одноименные разрядные переменные в выражениях(17) будут иметь те же значения, что и в выражении (16). Следовательно,терминальные проекции вершины iλ можно выразить следующими пара-метрическими формами:

Afr(iλ)

=⟨〈i〉Iλ

⊕(〈i〉I\Iλ

)⟩, Efr

(iλ)

=⟨〈j〉Jλ

⊕(〈j〉J\Jλ

)⟩.

Здесь круглыми скобками выделены варьируемые разряды терминальныхслов. Тогда для афферента вершины iλ−1 слоя λ − 1 можно записать

Afr(iλ−1

)=⟨〈i〉Iλ−1

⊕(〈i〉I\Iλ−1

)⟩. (18)

Будем полагать, что вершины iλ и iλ−1 связаны между собой. По пра-вилам порождающей грамматики Iλ ⊂ Iλ−1, причем разность множествIλ−1\Iλ состоит точно из одного буквы (разряда). Из свойств интерпрети-рующей функции (1) следует

Afr(iλ)

= ⊕Iλ−1\Iλ

Afr(iλ−1

), (19)

где прямая сумма подмножеств берется по всем значениям разрядного чис-ла Iλ−1\Iλ. Аналогично для эфферентов вершин смежных слоев λ и λ + 1можно получить:

Efr(iλ)

= ⊕Jλ+1\Jλ

Efr(iλ+1

). (20)

Выражения, (19), (20) показывают, что интерпретирующий граф представ-ляет собой слабосвязанную сеть.

Можно указать ряд причин, стимулирующих интерес к слабосвязаннымнейронным сетям:

• К классу слабосвязанных сетей принадлежат как БНС, так и обычныемногослойные полносвязанные сети.

• При реализации нейронных сетей на суперкомпьютерах структуранейронной сети подчиняется структуре вычислительной системы. Та-кие известные структуры суперкомпьютеров как Banyan, «Омега», идр. [14] являются слабосвязанными сетями или строятся на основеслабосвязанных сетей.

УДК 004.032.26 (06) Нейронные сети 93

Page 94: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

• В слабосвязанных сетях реализуется принцип генетического подо-бия структуры [15], по заключениям нейрофизиологов [16] подобныйпринцип явился основным порождающим механизмом в эволюцииновой коры головного мозга.

• Слабосвязанные сети обладают фрактальными свойствами [17].

Системные характеристики БНС

Вычислительная эффективность

Быстродействие вычислительных алгоритмов, как правило, оцениваетсячислом операций умножения, необходимых для их реализации. Синапти-ческая карта нейронного ядра с размерностью рецепторного поля p и чис-лом нейронов g представляет собой матрицу размерности p × g. Обработ-ка входного вектора в нейронном ядре соответствует умножению векторана матрицу с последующим нелинейным преобразованием, определяемымфункциями активации. Для выполнения матричного умножения требуетсяp · g скалярных операций умножения. Операции умножения, связанные свычислением функций активации обычно не учитываются.

Рассмотрим κ–слойную БНС с характеристиками нейронных ядер:

(p0, g0) , (p1, g1) , . . . , (pκ−1, gκ−1) .

Сеть имеет размерность по входу N = p0p1 . . . pκ−1, а по выходу M =g0g1 . . . gκ−1. Из (14) следует, что число ядер в слое m будет равно произ-ведению

km = pm+1pm+2 . . . pκ−1g0g1 . . . gm−1. (21)

При этом в каждом нейронном ядре слоя m выполняется pm · gm операцийумножения. Суммируя по всем нейронным слоям, получим:

Z =κ−1∑m=0

pmpm+1 . . . pκ−1g0g1 . . . gm−1gm.

Пластичность

Высокое быстродействие БНС достигается за счет ограничения числа меж-нейронных связей. Расплатой за вычислительную эффективность является

94 УДК 004.032.26 (06) Нейронные сети

Page 95: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

снижение «уровня интеллекта» нейронной сети. Качественной характери-стикой интеллекта является известное из биологии понятие пластичности,т. е. способности нейронной сети изменять свои параметры при обучении.К количественной оценке степени пластичности можно подойти следую-щим образом. Нейронная сеть, заданная на векторных пространствах E,Dреализует отображение E → D. Класс операторов нейронной сети, порож-даемый изменением ее синаптических весов, образует многомерную по-верхность в пространстве операторов, размерность которой определяетсямаксимальной размерностью ее касательного пространства. Это числоваяхарактеристика является наиболее подходящей оценкой степени парамет-рической пластичности нейронной сети. Нейронную сеть можно предста-вить как материальную точку, дрейфующую в операторном пространствепри вариации синаптических весов. В этой интерпретации степень пара-метрической пластичности является прямым эквивалентом известного измеханики понятия «число степеней свободы» материальной точки.

В касательном пространстве все операторы нейронной сети можно рас-сматривать как линейные, поэтому исходная нелинейная задача сводится кисследованию пластичности перестраиваемых линейных операторов. ДляБНС найдено аналитическое выражение для расчета числа степеней свобо-ды по структурным характеристикам сети [18]. Расчетная формула имеетвид:

S =n−1∑m=0

pmgmkm −n−2∑m=0

Dm.

где (pm, gm) — размерность ядра слоя m; km — число ядер в слое m;Dm = gmkm — число связей в переходе между слоями m и m + 1.

На рис. 12 приведены относительные зависимости пластичности и вы-числительных затрат от размерности БНС. Графики построены для сетис одинаковой размерностью по входу и выходу. Базой для сравнения яв-ляется однослойный персептрон для которого оценки равны, очевидно,Z0 = S0 = N2.

Способность к обучению

Покажем, как степень параметрической пластичности связана с количе-ством линейно независимых образов, которое может распознавать нейрон-ная сеть. Пусть H — линеаризованный оператор нейронной сети. Обо-значим через X и Y , соответственно, входной и выходной векторы сети.

УДК 004.032.26 (06) Нейронные сети 95

Page 96: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

50,0031,25

3,526,25

0,0020,0040,0060,0080,00

100,00120,00

2 4 8 16 32 64 128 256

- N

%

%

РИС. 12. Зависимость вычислительных затрат и быстродействия БНСот размерности сети

Множество обучающих примеров можно задать набором, состоящим из kпар векторов:(X1Y1) , (X2Y2) , . . . , (XkYk). Обозначим через L (X) линей-ную оболочку входных векторов , а через L (Y ) — линейную оболочкувыходных векторов обучающего множества. Линейные оболочки являютсяминимальными векторными пространствами, которые содержат все векто-ра обучающего множества, но, кроме того, они содержат несчетное мно-жество векторов, которые могут быть получены как линейные комбинацииобразующих векторов.

Способность нейронной сети к обобщению позволяет расширить обу-чающее множество до непрерывного многообразия примеров WXY , кото-рое, очевидно, изоморфно тензорному произведению линейных оболочек:WXY

∼= L (X)⊗L (Y ). Обозначим размерности линейных оболочек L (X)и L (Y ), соответственно, через rX и rY . Тогда размерность многообразияпримеров будет равна dim WXY = rXrY .

Необходимым условием непротиворечивости данных является выпол-нение неравенства: rY � rX . Вариации синаптических весов нейроннойсети порождают многообразие операторов WH . Для того, чтобы нейронная

96 УДК 004.032.26 (06) Нейронные сети

Page 97: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

8,94

48,00

32,00

21,1713,863,46

2,005,66

0,0010,0020,0030,0040,0050,0060,00

2 4 8 16 32 64 128 256

- N

РИС. 13. Зависимость числа распознаваемых образов от размерностиБНС

сеть была способна обучиться к многообразию примеров, необходимо вы-полнить условие WH ⊇ WXY , следствием которого является неравенство:

S � rXrY , (22)

где S — число степеней свободы нейронной сети. Если образы в обучаю-щем множестве линейно независимы, то набор векторов Yi образует базислинейной оболочки L (Y ), это означает, что rY = k. При отсутствии проти-воречий размерность многообразия L (X) удовлетворяет условию: rX � k.В этом случае из (22) непосредственно следует k �

√S. На рис. 13 приве-

дена расчетная зависимость числа распознаваемых образов от размерностисети. Например, для БНС размерности N = 8, показанной на рис. 4, рас-четное количество независимо распознаваемых образов равно 5,66.

На рис. 14 приведены результаты эксперимента по распознаванию обра-зов для данной нейронной сети. В эксперименте использовалась нейроннаясеть с сигмоидными функциями активации в первом и во втором слое илинейными функциями активации в последнем, третьем слое. В качествеобучающего множества использовались ортогональные функции Уолша по

УДК 004.032.26 (06) Нейронные сети 97

Page 98: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

входу и унитарный единичный код по выходу. Сеть обучалась с помощьюалгоритма Error BackPropagation.

00,050,1

0,150,2

0,25

1 2 3 4 5 6 7 8

..

РИС. 14. Зависимость ошибки обучения БНС (N=8) от размера обуча-ющей выборки

Перестраиваемые спектральные преобразования

После разработки метода БПФ интенсивность исследований в области циф-ровой обработки резко возросла. Развитие исследований, во-первых, при-вело к расширению класса используемых спектральных преобразований, аво-вторых, к разработке эффективных методов их реализации. В практикецифрового спектрального анализа вошли преобразования Уолша–Адамара,Виленкина–Крестенсона, Хаара, косинусное, наклонное, вейвлет и другие.Каждый вид преобразования обладает теми или иными свойствами, опре-деляющими область его применения. Довольно быстро выяснилось, чтобольшинство используемых спектральных преобразований имеет один итот же принцип формирования быстрого алгоритма. Этот принцип полу-чил название «факторизация матриц» и заключался в разложении матрицы

98 УДК 004.032.26 (06) Нейронные сети

Page 99: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

дискретного спектрального преобразования H в произведение слабозапол-ненных матриц:

H = H0H1, . . . , Hκ−1.

Структура слабозаполненных матриц устанавливалась подходящей тео-ремой факторизации. Было доказано множество теорем факторизации (это«творчество» продолжается и в наши дни), но постепенно стало понятным,что по одной и той же схеме факторизации можно реализовать быстрыеалгоритмы для различных спектральных преобразований, путем изменениятолько коэффициентов в факторизованном представлении. В итоге, начинаяс работ Г. Эндрюса (1970 г.), получило развитие направление обобщенно-го спектрального анализа, предметом исследования которого стали пере-страиваемые спектральные преобразования. При реализации перестраивае-мых преобразований выбирается одна из известных регулярных топологий(Гуда или Кули–Тьюки) и под данную топологию определяются значениякоэффициентов слабозаполненных матриц. Ограничением развития этогонаправления вскоре стала сама топологическая схема, поскольку закреп-ленная топология, ограничивала возможности синтеза спектральных пре-образований. На этом этапе перестраиваемые преобразования пересеклисьс нейронными сетями, в тех и других присутствует массив настраиваемыхкоэффициентов и те и другие имеют послойную структурную организацию,но в отличие от нейронных сетей спектральные перестраиваемые преоб-разования являются линейными и ортогональными. Аналогом нейронно-го ядра в перестраиваемых преобразованиях является спектральное ядро,которое определяется квадратной ортогональной матрицей небольшой раз-мерности. Функции активации нейронов ядра линейны, а смещения отсут-ствуют. В предыдущих параграфах были рассмотрены структурные моделии топологии БНС, полученные результаты в полной мере переносятся наперестраиваемые спектральные преобразования. Развитые методы тополо-гического проектирования БНС позволяют существенно расширить классперестраиваемых преобразований.

Настройка перестраиваемых преобразований

Перестраиваемое преобразование можно рассматривать как быструю ней-ронную сеть, где в каждом нейронном ядре iλ выполнится линейное пре-

УДК 004.032.26 (06) Нейронные сети 99

Page 100: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

образование:yλ

iλ (vλ) =∑uλ

xλiλ (uλ) wλ

iλ (uλ, vλ). (23)

Метод настройки основан на аналитическом представлении сигнальныхпередач рецептор–аксон между терминальными слоями сети. Функция пе-редач определяется частной производной

h (U, V ) =∂yκ−1

iκ−1 (vκ−1)∂x0

i0 (u0),

где U, V — глобальные номера рецепторов и аксонов терминальных слоев.В терминологии спектральных преобразований U — это индекс координа-ты вектора входного сигнала, а V — номер спектрального коэффициента.Элементы h (U, V ) образуют квадратную матрицу H спектрального преоб-разования Y = XH . Поскольку БНС — слабосвязанная сеть, то для каж-дой пары нейронных ядер, одно из которых принадлежит входному слою, авторое — выходному, существует единственный связывающий их путь. По-следовательно дифференцируя вдоль выбранного пути цепочку уравнений(23), получим:

h (U, V ) = w0i0 (u0, v0) w1

i1 (u1, v1) . . . wκ−1iκ−1 (uκ−1, vκ−1) . (24)

Цель настройки перестраиваемого преобразования состоит в том, что-бы по известной матрице H найти элементы ядер и определить топологиюслабозаполненных матриц Hλ. Топология данных матриц непосредственносвязана с внешним представлением топологической траектории. Поэтомузадача топологического синтеза интерпретируется как реализация заданнойтраектории. Процедура синтеза топологии, как правило, допускает множе-ство возможных решений. Дополнительными требованиями могут бытькомпактность и регулярность топологической траектории, что упрощаетреализацию алгоритма быстрого преобразования.

Настройка на базис Уолша

Функции базиса Уолша в упорядочении Пэли [9]задаются на интерваледлиной N = 2κ следующим выражением :

pal (U, V ) =κ−1∏λ=0

(−1)UλVλ , (25)

100 УДК 004.032.26 (06) Нейронные сети

Page 101: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

гдеU = 〈Uκ−1Uκ−2 . . . U0〉 и V = 〈Vκ−1Vκ−2 . . . V0〉 . (26)

Все разрядные переменные в данных формулах принимают значения {0, 1}.Построим матрицу спектрального преобразования так, чтобы функции

базиса располагались вдоль столбцов. В процессе настройки необходимоопределить, топологическую траекторию быстрого преобразования и пара-метры нейронных ядер. Дополнительно потребуем, чтобы топологическаятраектория была компактной и регулярной.

Параметры нейронных ядер. Сравнивая (24) с определением функцийУолша, получим

wλiλ (uλ, vλ) = (−1)uλvλ , (27)

uλ = Uλ, vλ = Vλ. (28)

Выражению (27) соответствует матрица ядра:

W =(

1 11 −1

).

Очевидно, что нейронные ядра одинаковы во всех слоях сети.

Траектория топологий. Граничные условия для компактной траекто-рии устанавливаются выражениями (26), (28) и имеют вид:

U = 〈Uκ−1Uκ−2 . . . U0〉 = 〈uκ−1uκ−2 . . . u0〉 ,V = 〈Vκ−1Vκ−2 . . . V0〉 = 〈vκ−1vκ−2 . . . v0〉 .

На промежуточные шаги траектории, каких либо требований не наклады-вается, поэтому траекторию топологий можно выбрать с большим произ-волом. Воспользуемся регулярной порождающей схемой Кули-Тьюки «спрореживанием по времени»:

Uλ = 〈uκ−1uκ−2 . . . uλ+1uλvλ−1vλ−2 . . . v0〉 ,V λ = 〈uκ−1uκ−2 . . . uλ+1vλvλ−1vλ−2 . . . v0〉 .

Для данной схемы номер ядра определяется выражением

iλ = 〈uκ−1uκ−2 . . . . . . uλ+1vλ−1vλ−2 . . . v0〉 .

Структуру топологических матриц можно определить из табличного со-ответствия (см. таблицу 2). На основании данной таблицы получим, чтоаналитическая форма слабозаполненных матриц будет иметь вид

УДК 004.032.26 (06) Нейронные сети 101

Page 102: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ТАБЛИЦА 2. Соответствие локальных и глобальных переменных в то-пологии Кули-Тьюки «с прореживанием по времени»

1 2 1 1 2 1 0

1 2 1 1 2 1 0

1 2 1 1 2 1 0

1 2 1 1 2 1 0

U u u u u v v v vU U U U U U U U U

V u u u v v v v vV V V V V V V V V

(Uλ, V λ

)= wλ

(Uλ

λ , V λλ

)δ(Uλ

κ−1, Vλ

κ−1

). . .

. . . δ(Uλ

λ+1, Vλλ+1

)δ(Uλ

λ−1, Vλλ−1

). . . δ

(Uλ

0 , V λ0

), (29)

где iλ =⟨V λ

κ−1Vλ

κ−2 . . . V λλ+1V

λλ−1 . . . V λ

0

⟩. На рис. 15 показано матричное

представление алгоритма быстрого преобразования Уолша для размерно-сти N = 23. Матрица преобразования факторизуется в произведение трехматриц:

H = H0H1H2.

Поразрядное представление строк и столбцов матрицы H можно запи-сать в виде U = 〈U2U1U0〉, V = 〈V2V1V0〉. На основании (29) имеем, чтослабозаполненные матрицы по слоям определяются выражениями:

• Слой 0:

h0

(U0, V 0

)= w0

i0

(U0

0 , V 00

)δ(U0

2 , V 02

)δ(U0

1 , V 01

), i0 =

⟨V 0

2 V 01

⟩.

• Слой 1:

h1

(U1, V 1

)= w1

i1

(U1

1 , V 11

)δ(U1

2 , V 12

)δ(U1

0 , V 10

), i1 =

⟨V 1

2 V 10

⟩.

• Слой 2:

h1

(U2, V 2

)= w2

i2

(U2

2 , V 22

)δ(U2

1 , V 21

)δ(U2

0 , V 20

), i2 =

⟨V 2

1 V 20

102 УДК 004.032.26 (06) Нейронные сети

Page 103: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

2

1

0

2 1 0

V 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1V 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1V 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1

U U U0 0 0 1 1 1 1 1 10 0 1 1 1 1 1 1 10 1 0 1 1 1 1 1 10 1 1 1 1 1 1 1 11 0 0 1 1 1 1 1 11 0 1 1 1 1 1 1 11 1 0 1 1 1 1 1 11 1 1 1 1 1 1 1 1

РИС. 15. Матричное представление быстрого алгоритма для преобра-зования Уолша–Пэли

Перемножив матрицы факторизованного представления, получим сле-дующую матрицу базисных функций:⎛

⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 1 1 1 1 1 1 11 −1 1 −1 1 −1 1 −11 1 −1 −1 1 1 −1 −11 −1 −1 1 1 −1 −1 11 1 1 1 −1 −1 −1 −11 −1 1 −1 −1 1 −1 11 1 −1 −1 −1 −1 1 11 −1 −1 1 −1 1 1 −1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

Эта же матрица может быть получена из определения (25).

Настройка на базис Фурье

По определению функции базиса Фурье задаются выражением:

FN (U, V ) =1√N

exp(−j

NUV

),

УДК 004.032.26 (06) Нейронные сети 103

Page 104: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

где U — временной отсчет, V — частота (или номер) базисной функции,j =

√−1, N = p0p1 . . . pκ−1 — размерность преобразования (для быстрыхпреобразований размерность всегда является составным числом). Исполь-зование методов топологической настройки БНС позволило реализоватьбыстрое преобразования Фурье с естественным упорядочениям по часто-там следования ( факторизованное представление для N = 23 представленона рис.16, множители 1

/√2с целью упрощения не показаны, поворачи-

вающий множитель определяется выражением ω = exp(−j 2π

8

).) Детали

реализации БПФ приведены в [10]).

0

1

2

2 1 0

2 2

2 2

2 2 3

V 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1V 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1V 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1

U U U0 0 0 1 1 1 1 1 10 0 1 1 1 1 1 1 10 1 0 1 1 1 1 1 10 1 1 1 1 1 1 1 11 0 0 1 -1 1 1 1 11 0 1 1 11 1 0 1 1 1 11 1 1 1 1 3

РИС. 16. Фактризованное представление алгоритма БПФ с естествен-ным упорядочением по частотам следования

Быстрое вейвлет-преобразование

Пакетный вейвлет-базис на интервале длиной N = p0p1 . . . pκ−1 можетбыть задан выражением:

h (U, V ) = ϕm (Uκ−m, Vκ−m) δ (τm, 〈Uκ−1Uκ−2 . . . Uκ−m+1〉) , (30)

где U = 〈Uκ−1Uκ−2 . . . U0〉— номер временного отсчета, V = 〈V0V1 . . . Vκ−1〉— номер вейвлет-функции (предполагается, что вейвлет-функции располо-

104 УДК 004.032.26 (06) Нейронные сети

Page 105: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

жены вдоль столбцов базисной матрицы), ϕm (Uκ−m, Vκ−m) — набор ор-тогональных образующих импульсов в частотной локализации номера m,δ(·) — функция Кронекера, τm — порядковый номер временной локали-зации вейвлет-функции в частотной локализации m. Множество функцийвейвлет-базиса, принадлежащих одной частотной локализации в дальней-шем будем называть поликадой. Функции в пределах поликады обладаютодними и теми же частотными свойствами, но отличаются позициями об-разующих импульсов. Упорядочим функции в каждой поликаде по времен-ным локализациям следующим правилом:

τm = 〈Vκ−1Vκ−2 . . . Vκ−m+1〉 . (31)

При таком упорядочении функцию Кронекера в выражении (30) можноразложить в произведение функций Кронекера, в результате получим:

h (U, V ) = ϕm (Uκ−m, Vκ−m) δ (Uκ−m+1, Vκ−m+1) . . .

. . . δ (Uκ−2, Vκ−2) δ (Uκ−1, Vκ−1) .

Сопоставив данное выражение с формулой вычисления элементов матрицыперестраиваемого преобразования (24), нетрудно найти правило определе-ния элементов ядер (детали реализации алгоритма можно найти в рабо-те [10]).

Одним из простейших вейвлет-преобразований является базис Хаара.Базис строится на интервале длиной N = 2κ и порождается двуполярнымимпульсом с временной базой, равной двум. В случае N = 23, базисныефункции по частотным локализациям разбиваются на три октавы, Матрицаобразующих импульсов каждой октавы имеет вид:(

1 11 −1

),

а матрица преобразования факторизуется в произведение трех слабозапол-ненных матриц (см. рис. 17).

УДК 004.032.26 (06) Нейронные сети 105

Page 106: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

0

1

2

2 1 0

V 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1V 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1V 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1

U U U0 0 0 1 1 1 1 1 10 0 1 1 1 1 0 1 00 1 0 1 1 1 1 1 00 1 1 1 1 0 1 1 01 0 0 1 1 1 1 1 11 0 1 1 1 1 0 0 11 1 0 1 1 1 1 0 11 1 1 1 1 0 1 0 1

РИС. 17. Факторизованное представление быстрого преобразованияХаара

Свернув факторизованное произведение, получим матрицу базиса в ви-де:

H =

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣

1 1 1 11 1 1 - 11 1 - 1 11 1 - 1 - 11 - 1 1 11 - 1 1 - 11 - 1 - 1 11 - 1 - 1 - 1

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦

Нейросетевая аппроксимация регулярных фракталов

Термин «фрактал» был введен Бенуа Мандельбротом в 1975 году для обо-значения особого класса многомерных функций, обладающих свойствомсамоподобия и дробной размерности. Первоначально к фракталам относи-лись как к математической экзотике, но за прошедшие десятилетия ситу-ация кардинальным образом изменилась. Оказалось, что окружающий нас

106 УДК 004.032.26 (06) Нейронные сети

Page 107: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

мир наполнен фракталами гораздо в большей степени, чем «привычными»нам объектами. Показательным примером являются, казалось бы, хорошоизученные динамические системы. Современные исследования показали,что в пространстве фазовых координат для нелинейных динамических си-стем характерно существование фрактальных притягивающих множеств(аттракторов) [19]. Фрактальные аттракторы связаны с так называемымисценариями динамического хаоса [20], определяющего границы возможно-го прогнозирования поведения динамических систем.

В ряде работ [21, 22] было показано, что многослойные нейронные се-ти могут служить генераторами фрактальных структур и использоваться вэтом качестве как инструмент моделирования и анализа нелинейных явле-ний. Вид фрактала накладывает определенные ограничения на структуру,топологию и параметры нейронной сети. В данном разделе будет показаноиспользование БНС для генерации фрактальных структур.

Аналитическая форма регулярного фрактала

На рис. 18 показаны три итерации фрактала Кантора. На каждой итера-ции из непрерывной области удаляется средняя треть, что эквивалентномасштабной деформации исходной функции в отношении 1:3.

Uu

1

1

u

u

f(u)1

РИС. 18. Одномерный фрактал Кантора

УДК 004.032.26 (06) Нейронные сети 107

Page 108: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Построим аналитическую форму вначале для фрактала Кантора, а затемобобщим ее на более широкий класс регулярных фракталов. Будем пола-гать, что фрактал Кантора задан на непрерывном интервале U = [0, 1).Любую точку данного интервала u ∈ U можно записать в троичной систе-ме счисления в виде дроби:

u = 0, u1u2 . . . un . . . , (32)

где ui ∈ {0, 1, 2} — целые разрядные числа. Введем также непрерывные пе-ременные ui ∈ [0, 3). Очевидно, что последовательность разрядных чисел(32) можно в любом месте оборвать, завершив ее непрерывной переменной,в результате точка интервала будет представлена в виде:

u = 0, u1u2 . . . un−1un.

Разрядные числа ui будем рассматривать как результат действия операто-ра выделяющего целую часть из непрерывной переменной ui. Операциюмасштабирования можно рассматривать как изменение правила представ-ления точек интервала. Например, для базовой функции Кантора аргументопределяется правилом u = 〈0, u1〉 = 3−1u1. Для функции второй ите-рации: u = 〈0, u1u2〉 = 3−1u1 + 3−2u2. Для функции третьей итерации:u = 〈0, u1u2u3〉 = 3−1u1 + 3−2u2 + 3−3u3, и т. д. На непрерывном интер-вале [0, 3) определим функцию:

ϕ (u) =

⎧⎨⎩

1 для u ∈ [0, 1) ,0 для u ∈ [1, 2) ,1 для u ∈ [2, 3)

Нетрудно видеть, что фрактал Кантора в аналитическом виде можно запи-сать в виде бесконечного произведения:

f (u) = ϕ (u1) ϕ (u2) ϕ (u3) . . . ϕ (un) . . .

Дискретная аппроксимация фракталов

В дискретном варианте фрактал строится на последовательности расширя-ющихся дискретных интервалах:

Ui ={0, 1, 2, . . . , Ni − 1

}, i = 0, 1, 2, . . . , κ − 1 . . .

108 УДК 004.032.26 (06) Нейронные сети

Page 109: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

Точки интервалов определяются правилом u = 〈uκ−1uκ−2 . . . u0〉. Вобщем случае разрядные переменные имеет различные локальные областиопределения: ui ∈ {0, 1, . . . , pi − 1}. На локальных интервалах определеныкусочно-постоянные дискретные функции ϕi (ui). Аппроксимация фракта-ла записывается в виде конечного произведения:

f (u) ≈ ϕ (u0) ϕ (u1) . . . ϕ (uκ−1) .

Например, для фрактала Кантора все дискретные образующие функцииодинаковы и имеют вид:

ϕ (u) =

⎧⎨⎩

1, для u = 0,0, для u = 1,1, для u = 2.

Ковер Кантора. Двумерным вариантом фрактала Кантора являютсяплоская фигура, заданная на непрерывных интервалах U = [0, 1), V =[0, 1). На рис. 19 показана одна из итераций фрактала. Координаты точки вплоскости фигуры определяются бесконечными дробями:

РИС. 19. Двумерный фрактал Кантора

u = 0, u1u2 . . . un . . . ; ui ∈ {0, 1, 2} ,v = 0, v1v2 . . . vn . . . ; vi ∈ {0, 1, 2} .

УДК 004.032.26 (06) Нейронные сети 109

Page 110: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Обозначим через ui ∈ [0, 3) и vi = [0, 3) соответствующие непрерывныепеременные, тогда ковер Кантора в аналитической форме можно записатьв виде бесконечного произведения:

f (u, v) = ϕ (u1, v1) ϕ (u2, v2) ϕ (u3, v3) . . . ϕ (un, vn) . . . .

Дискретная аппроксимация для ковра Кантора представляет собой конеч-ное произведение:

f (u, v) ≈ ϕ (u0, v0) ϕ (u1, v1) ϕ (u2, v2) . . . ϕ (uκ−1, vκ−1) , (33)

где все дискретные образующие функции имеют вид:

ϕ (ui, vi) =

⎛⎝ 1 1 1

1 0 11 1 1

⎞⎠ .

Нетрудно заметить, что полученное выражение по форме совпадает с пред-ставлением (24) для элементов матрицы H нейронной сети. Сравнивая (24)и (33), получим следующие правила определения параметров нейронныхядер:

wλiλ (uλ, vλ) = ϕ (uλ, vλ) .

На рис. 20 показана нейросетевая аппроксимация для ковра Канторана интервале длиной N = 32. Аппроксимирующая нейронная сеть имеетдва слоя, каждой матрице сомножителю отвечает один нейронный слой.Все непоказанные элементы матриц равны нулю. Из рисунка видно, чторезультирующая матрица подобна ковру Кантора.

Фрактал Серпинского. На рис. 21 показана одна из итераций двумер-ного фрактала, называемого «салфеткой Серпинского». Фрактал задан нанепрерывных интервалах U = [0, 1), V = [0, 1). Дискретная аппрокси-мация фрактала Серпинского определяется на интервале длиной N = 2κ

выражением (33) , где образующая функция имеет вид

ϕ (ui, vi) =(

1 11 0

).

На рис. 22 показана нейросетевая аппроксимация для салфетки Серпин-ского на интервалах длиной N = 23. Аппроксимирующая нейронная сетьимеет три слоя, каждой матрице сомножителю отвечает один нейронныйслой. Из рисунка видно, что результирующая матрица подобна непрерыв-ной форме данного фрактала.

110 УДК 004.032.26 (06) Нейронные сети

Page 111: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

111111111101101101111111111111000111101000101111000111111111111101101101111111111

111111

111101

101101

111111

111

111101111

111101111

111101111

РИС. 20. Нейросетевая аппроксимация двумерного фрактала Кантора

Фрактальная фильтрация сигналов

Хорошо известны трудности связанные с выделением полезной информа-ции из сигналов, обладающих частотно-локальными свойствами. Харак-терным примером являются сигналы, отражающие динамику турбулент-ных потоков, порожденных нелинейно взаимодействующими процессамив широких диапазонах пространственных частот и временных локализаций.Для анализа подобных сигналов в настоящее время широко используетсявейвлет-преобразование, поскольку его элементы хорошо локализованы иобладают подвижным частотно-временным окном [23]. В основе вейвлет-анализа лежит представление сигналов в виде суперпозиции масштабныхпреобразований и сдвигов образующих импульсов. Самоподобие вейвлет-функций при масштабных преобразованиях является отличительным свой-ством фрактальных последовательностей, поэтому вейвлет-преобразованиеможно считать одним из представителей фрактальных методов обработкиданных.

Принцип самоподобия можно также использовать при построении фрак-тальных фильтров. В обобщенном понимании фильтрация это процеду-ра, реализующая проекцию сигнала, заданного в функциональном про-странстве, в пространство меньшей размерности. В отличие от вейвлет-преобразования фрактальная фильтрация необратима и связана с потерейинформации. Цель фрактальной фильтрации заключается в том, чтобы

УДК 004.032.26 (06) Нейронные сети 111

Page 112: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 21. Двумерный фрактал Серпинского

выявить пространственно распределенные свойства изучаемого объекта вкратных временных масштабах.

Фильтрация дискретных сигналов

Рассмотрим сигнал, определенный функцией f (u), заданной на дискрет-ном интервале длиной N = p0p1 . . . pκ−1. Представим аргумент этой функ-ции в позиционной многоосновной системе счисления с основаниямиp0, p1, . . . , pκ−1:

u = 〈uκ−1uκ−2 . . . u0〉 = uκ−1pκ−2pκ−3 . . . p0++ uκ−2pκ−3pκ−4 . . . p0 + · · · + u1p0 + u0,

где ui ∈ [0, 1, . . . pi − 1] — разрядные переменные. В результате данно-го преобразования сигнал представляется как многомерная функция видаf 〈uκ−1uκ−2 . . . u0〉, где каждый аргумент функции определяет некоторыймасштабный срез сигнала. Зафиксируем все аргументы функции кроме um.Варьируя свободный аргумент um, получим выборку Sm (с числом элемен-тов pm). Фрактальным фильтром частотной локализации m будем назы-вать произвольный функционал F (Sm), определенный на выборке Sm.

112 УДК 004.032.26 (06) Нейронные сети

Page 113: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

111

111111

111111

111111111111

0101

0101

1111

1111

0101

1111

0101

1111

0111

0111

0111

0111

РИС. 22. Нейросетевая аппроксимация двумерного фрактала Серпин-ского

Операцию фрактальной фильтрации можно записать в виде в виде:

fout 〈uκ−1uκ−2 . . . um+1um−1 . . . u0〉 = Fum

(finp 〈uκ−1uκ−2 . . . u0〉

).

Если m = 0, то фильтр будем называть фильтром нижних фрактально-стей, такой фильтр генерализует сигнал, сглаживая мелкие детали. Еслиm = κ − 1, то фильтр назовем фильтром верхних фрактальностей, такойфильтр сохраняет детали и нивелирует трендовые изменения. Фильтр с0 < m < κ − 1 можно назвать препарирующим. Фрактальный фильтр вы-полняет проекцию функционального пространства размерности N в под-пространство размерности N/pm, однако в ряде случаев результат фильтра-ции удобно представлять на исходном интервале U = [0, 1, . . . N − 1]. Этоможно сделать, положив равными значения функции в точках интервала,различающихся только по значению аргумента um. Полученная функцияможет быть вновь подвержена фрактальной фильтрации в некоторой ча-стотной локальности n = m. Последовательная фрактальная фильтрация,реализуется принцип иерархической многомасштабной обработки данных.

Типы фрактальных фильтров

Линейные фильтры — могут быть реализованы произвольными линейны-ми функционалами. Примерами могут служить следующие типы:

УДК 004.032.26 (06) Нейронные сети 113

Page 114: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

• Фильтр средних:

fout 〈uκ−1uκ−2 . . . um+1um−1 . . . u0〉 =

=1

pm

∑um

finp 〈uκ−1uκ−2 . . . u0〉;

• Унарный линейный фильтр:

fout 〈uκ−1uκ−2 . . . um+1um−1 . . . u0〉 == finp 〈uκ−1uκ−2 . . . um+1tmum−1 . . . u0〉 , tm = const;

• Аффинный фильтр:

fout 〈uκ−1uκ−2 . . . um+1um−1 . . . u0〉 =

=∑um

finp 〈uκ−1uκ−2 . . . u0〉w (um) + w0.

Аффинный фильтр принято условно относить к классу линейных.

Нелинейные фильтры. Нелинейный функционал можно задать в алго-ритмическом или аналитическом виде. Примерами алгоритмически задан-ных функционалов являются ранговые фильтры. При ранговой фильтрациивыборка ранжируется. Поскольку длина выборки равна pm то число воз-можных рангов не превышает pm. Значением функционала является выбо-рочное значение, соответствующее рангу r � pm. Конкретными примерамимогут служить следующие типы фильтров:

fout 〈uκ−1uκ−2 . . . um+1um−1 . . . u0〉 = minum

finp 〈uκ−1uκ−2 . . . u0〉 ,

fout 〈uκ−1uκ−2 . . . um+1um−1 . . . u0〉 = maxum

finp 〈uκ−1uκ−2 . . . u0〉 .

Первый из них соответствует значению ранга r = 0, а второй — значе-нию r = pm. Примером нелинейных фильтров с аналитически заданнымифункционалами являются нормирующие фильтры, для которых функцио-нал определяется той или иной векторной нормой, конкретными примера-ми могут служить следующие типы:

114 УДК 004.032.26 (06) Нейронные сети

Page 115: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

• Фильтр Евклида:

fout 〈uκ−1uκ−2 . . . um+1um−1 . . . u0〉 =√∑

um

finp 〈uκ−1uκ−2 . . . u0〉2;

• Фильтр Хэмминга:

fout 〈uκ−1uκ−2 . . . um+1um−1 . . . u0〉 =∑um

|finp 〈uκ−1uκ−2 . . . u0〉|.

Многомерные фрактальные фильтры. Многомерные фильтры реа-лизуются функционалами, заданными на многомерной выборке. Например,двумерный фрактальный фильтр в общем случае может быть определен ввиде:

fout 〈uκ−1uκ−2 . . . u0〉 = Fum,un

(finp 〈uκ−1uκ−2 . . . u0〉

).

Такой фильтр выполняет проекцию сигнала из пространства размерностиN в пространство размерности N/(pmpn).

Фильтрация непрерывных сигналов

Пусть сигнал f (u) определен на непрерывном интервале U = [0, 1). Зада-дим позиционную систему счисления множеством оснований p1, p2, p3, . . .,и представим аргумент функции в виде бесконечной дроби:

u = 〈0, u1u2u3 . . .〉 = u1p−11 + u2p

−12 p−1

1 + u3p−13 p−1

2 p−11 + . . .

Непрерывный фрактальный фильтр частотной локализации m опреде-ляется функционалом:

fout 〈0, u1u2 . . . um−1um+1 . . .〉 = Fum

(finp 〈0, u1u2 . . . um . . .〉).

В частности, фильтр верхних фрактальностей будет иметь вид:

fout 〈0, u2u3u4 . . .〉 = Fu1

(finp 〈0, u1u2u3 . . .〉),

УДК 004.032.26 (06) Нейронные сети 115

Page 116: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

а многомерный фильтр нижних фрактальностей можно задать функциона-лом:

fout 〈0, u1u2u3u4 . . . um〉 = Fum+1,um+2,...

(finp 〈0, u1u2u3 . . .〉).

Для непрерывных фильтров выходной сигнал автоматически масшта-бируется в исходный интервал U = [0, 1).

Приспособленные быстрые преобразования

В данном разделе будет рассмотрено использование фрактальной фильтра-ции для настройки множественных адаптивных фильтров реализованныхна базе БНС. Наличие быстрого алгоритма позволяет использовать дан-ные реализации при обработке сигналов высокой размерности в системахреального времени.

Методы цифровой адаптивной фильтрации (такие как согласованнаяфильтрация, инверсная фильтрация, фильтр Винера и т. п. [24]) использу-ют априорную информацию о сигнале или помехе для настройки коэффи-циентов фильтра. Подобные фильтры позволяет получить максимальноеотношение «сигнал/шум» при фильтрации опорных эталонных сигналов.Поэтому адаптивные фильтры находят широкое применение в техническихприложениях.

Большой класс адаптивных фильтров представляют собой линейныепреобразования среди которых можно выделить подкласс ортогональныхпреобразований. Перестраиваемые ортогональные преобразования, адап-тируемые к одиночной функции получили название приспособленных пре-образований [5]. Это название в дальнейшем будет использовано по отно-шению к любым линейным перестраиваемым преобразованиям, настраи-ваемых по эталонным функциям.

Алгоритм приспособления

Линейное преобразование будем называть приспособленным к функции,если один из столбцов матрицы преобразования совпадает с заданнойфункцией. Подобным образом можно определить приспособленность кнескольким функциям (в том случае, когда используется правое умноже-ние матрицы на вектор, приспособление более удобно выполнять к строкам

116 УДК 004.032.26 (06) Нейронные сети

Page 117: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

матрицы). Идея метода настройки БНС к одной или нескольким функциямоснована на представлении каждой функции заданного набора в виде фрак-тального произведения, отвечающем структуре БНС. Для одной функциизадача фрактальной аппроксимации формулируется следующим образом.

Пусть на дискретном интервале длиной N = p0p1 . . . pκ−1 задана ве-щественная функция f (u). Ставится задача найти представление функциив виде произведения:

f (u) = ϕi0 (u0) ϕi1 (u1) . . . ϕiκ−1 (uκ−1) . (34)

Правило выбора образующих функций для каждого шага фрактальной ите-рации подчинено условию im = 〈uκ−1uκ−2 . . . um+1〉. Поскольку элемен-ты матрицы БНС представляются через элементы ядер:

h (U, V ) = w0i0 (u0, v0) w1

i1 (u1, v1) . . . wκ−1iκ−1 (uκ−1, vκ−1) , (35)

где im = 〈uκ−1uκ−2 . . . um+1vm−1vm−2 . . . v0〉, то столбец с номером V =〈vκ−1vκ−2 . . . v0〉 матрицы H будет совпадать с заданной функцией, еслиэлементы ядер совпадают с множителями фрактального разложения (34).Так как для нулевого слоя номер ядра i0 = 〈uκ−1uκ−2 . . . u1〉 не зависит отпеременных v, то, возможно, одновременно приспособить БНС к такомуколичеству функций, сколько значений может принимать переменная v0.Для нахождения фрактального разложения (34) введем последовательностьвспомогательных функций f0, f1, . . . , fκ−1, определив их рекуррентнымправилом:

f (u) = f0 〈uκ−1uκ−2 . . . u0〉 ,f0 〈uκ−1uκ−2 . . . u0〉 = f1 〈uκ−1uκ−2 . . . u1〉ϕi0 (u0) ,f1 〈uκ−1uκ−2 . . . u1〉 = f2 〈uκ−1uκ−2 . . . u2〉ϕi1 (u1) ,

...fκ−2 〈uκ−1uκ−2〉 = fκ−1 〈uκ−1〉ϕiκ−2 (uκ−2) ,fκ−1 〈uκ−1〉 = ϕiκ−1 (uκ−1) .

(36)

Из этих соотношений непосредственно следует:

ϕim (um) =fm 〈uκ−1uκ−2 . . . um〉

fm+1 〈uκ−1uκ−2 . . . um+1〉 , m = 0, 1, . . . κ − 2. (37)

Анализируя (36) нетрудно заметить, что последовательность вспомога-тельных функций представляют собой выходы цепочки фильтров нижних

УДК 004.032.26 (06) Нейронные сети 117

Page 118: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

фрактальностей (см. рис. 23 ) Для построения вспомогательных функцийможно использовать любой метод фрактальной фильтрации. Это означает,что задача построения приспособленного преобразования имеет множествовозможных решений.

0uF1uF

2uFf0(u) f1(u) f2(u) fk-1(u)= 11 ki u

00 ui 11 ui 22 ki u

РИС. 23. Схема расчета аппроксимирующих компонент

Положительным аспектом множественности является простое разре-шение проблемы цензурирования нулей для знаменателя выражения (37).Нулевое значение знаменателя всегда можно заменить на любое удоб-ное ненулевое (например, единичное). Это ведет к локальному изменениюфрактального фильтра, но не влияет на результат аппроксимации.

Множественное приспособление. Если область возможных значенийразрядной переменной v0 соответствует интервалу [0, g0 − 1], то с помо-щью выше изложенного алгоритма можно настроить преобразование точ-но на g0 функций. При этом остаются элементы ядер, которые могут бытьвыбраны произвольно.

На рис. 24 показано факторизованное представление быстрого преоб-разования приспособленного к двум функциям, размещенным в двух пер-вых столбцах матрицы. Символом «∗» выделены элементы ядер, которыевыбираются произвольно. Не задействованные степени свободы можно ис-пользовать для расширения опорной базы приспособления. Это можно ре-ализовать за счет использования фрактально фильтрованных образов доба-вочных функций. Рассмотрим алгоритм подобного приспособления.

Пусть F — это система из M = g0g1 . . . gk−1 функций заданных наинтервале длиной N = p0p1 . . . pκ−1. Для аппроксимации функций систе-мы F будем использовать БНС, реализующую перестраиваемое линейноепреобразование размерности N × M .

118 УДК 004.032.26 (06) Нейронные сети

Page 119: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

2

1

0

2 1 0

v 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1v 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1v 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1

u u u0 0 0 1 1 1 10 0 1 1 1 1 10 1 0 1 1 10 1 1 1 1 11 0 0 1 1 1 11 0 1 1 1 1 11 1 0 1 1 11 1 1 1 1 1

РИС. 24. Факторизованное преобразование приспособленное к однойфункции

Пусть x = 〈xκ−1xκ−2 . . . x0〉 — некоторый базовый столбец матрицыпреобразования, который должен быть точно приспособлен к соответству-ющей функции системы. Тогда все столбцы x = 〈xκ−1xκ−2 . . . x1v0〉, гдеv0 варьируется в интервале [0, g0 − 1], также будут точно приспособлены ксоответствующим функциям опорной системы. В алгоритме множествен-ного приспособления настройка БНС выполняется путем последователь-ной фрактальной фильтрации всего массива функций одновременно, приэтом на каждом шаге строится опорное множество функций, фрактальныемножители которых используются для заполнения нейронных ядер БНС.Опорные множества функций вложены друг в друга и последовательноокутывают базовый столбец. Правило формирование окутывающей после-довательности в зависимости от номера итерации (номера слоя) показанов табл. 3.

Сравнивая правило формирования опорных множеств с правилом ну-мерации нейронных ядер (последний столбец таблицы 3), можно сделатьвывод, что в результате последовательного выполнения алгоритма все яд-ра преобразования будут заполнены полностью. Перед выполнением алго-

УДК 004.032.26 (06) Нейронные сети 119

Page 120: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ТАБЛИЦА 3. Правило формирования опорных множеств аппроксими-руемых функций

Номерслояm

Опорное множествофункций

Размеропорногомножества

Нумерация нейрон-ных ядер im

0 〈xκ−1xκ−2 . . . x1v0〉 g0 〈uκ−1uκ−2 . . . u1〉1 〈xκ−1xκ−2 . . . x2v1v0〉 g1g0 〈uκ−1uκ−2 . . . u2v0〉2 〈xκ−1xκ−2 . . . x3v2v1v0〉 g2g1g0 〈uκ−1uκ−2 . . . u3v1v0〉. . . . . . . . . . . .κ − 2 〈xκ−1vκ−2 . . . v1v0〉 gκ−2 . . . g1g0 〈uκ−1vκ−3 . . . v1v0〉κ − 1 〈vκ−1vκ−2 . . . v1v0〉 gκ−1 . . . g1g0 〈vκ−2 . . . v1v0〉

ритма, функции опорной системы упорядочиваются по требуемой глубинеприспособления. Функции с номером базового столбца и ближайшие к ней,составляющие опорное множество для m = 0 будут точно приспособлены,функции опорного множества для m = 1 будут приспособлены по одно-кратно фильтрованным образам, функции опорного множества для m = 2— будут приспособлены по дважды фильтрованным образам и т. д.

Приспособленные преобразования в нечетком пространстве

Реализация приспособленных преобразований в нечетком пространствеимеет по крайней мере два преимущества: во-первых, обеспечивается вы-сокая вычислительная эффективность — поскольку логические операциивыполняются существенно быстрее арифметических и, во-вторых, отсут-ствует необходимость цензурирования нулей на выходе фрактальных филь-тров — поскольку при вычислении фрактальных компонент функции неиспользуется операция деления.

Геометрия нечеткого пространства определяется операциями min и max,действующих на ограниченном отрезке [0, 1] множества вещественных чи-сел. Пусть f (u) — произвольная вещественная функция, заданная на интер-вале длиной N = p0p1 . . . pκ−1. В нечетком пространстве область возмож-ных значений функции принадлежит диапазону [0, 1]. С целью упрощениязаписи для операций min и max далее будем использовать обозначения«◦» и «⊕», соответственно, рассматривая их как логическое умножение илогическое сложение.

120 УДК 004.032.26 (06) Нейронные сети

Page 121: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

Ставится задача построить быстрое преобразование в нечетком про-странстве, приспособленное к заданной функции. Будем использовать дляэтой цели БНС, в которой арифметические операции сложения и умноже-ния вещественных чисел заменены соответствующими логическими опе-рациями. Задача сводиться к нахождению для функции f (u) фрактальногологического разложения:

f (u) = f 〈uκ−1uκ−2 . . . u0〉 = ϕi0 (u0) ◦ ϕi1 (u1) ◦ . . . ◦ ϕiκ−1 (uκ−1) ,

где im = 〈uκ−1uκ−2 . . . um+1〉— позиционный номер функции-компонентымасштабного уровня m. Функции сомножители можно определить, рекур-рентно раскладывая исходную функцию в последовательность логическихпроизведений:

f (u) = f0 〈uκ−1uκ−2 . . . u0〉 ,f0 〈uκ−1uκ−2 . . . u0〉 = f1 〈uκ−1uκ−2 . . . u1〉 ◦ ϕi0 (u0) ,f1 〈uκ−1uκ−2 . . . u1〉 = f2 〈uκ−1uκ−2 . . . u2〉 ◦ ϕi1 (u1) ,

...fκ−2 〈uκ−1uκ−2〉 = fκ−1 〈uκ−1〉 ◦ ϕiκ−2 (uκ−2) ,fκ−1 〈uκ−1〉 = ϕiκ−1 (uκ−1) .

(38)

Существует определенная свобода в выборе вспомогательных функцийf1, . . . , fκ−1. Оставаясь в рамках нечеткого пространства, будем исполь-зовать для построения вспомогательных функций ранговый фрактальныйфильтр следующего вида:

fm+1 〈uκ−1uκ−2 . . . um+1〉 = maxum

(fm 〈uκ−1uκ−2 . . . um〉).

В этом случае из (38) следует, что функции-компоненты будут определятьсявыражением:

ϕim (um) = fm+1 〈uκ−1uκ−2 . . . um+1〉 ◦ fm 〈uκ−1uκ−2 . . . um〉 .

Дальнейшая процедура настройки БНС не отличается от аналогичной про-цедуры арифметического пространства. Преобразование, приспособленноек одной функции, имеет свободные элементы нейронных ядер, которые мо-гут быть заполнены при добавлении опорных функций, подобно тому, какэто было сделано для преобразований в арифметическом пространстве.

УДК 004.032.26 (06) Нейронные сети 121

Page 122: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

При обработке данных с помощью нейронной сети выполняются опе-рации «◦» и «⊕». Если входной образ совпадает с опорной функцией при-способленного преобразования, то на соответствующем выходе сети будетполучено максимальное значение. На этом может быть основано класси-фикационное правило распознавания сигналов.

В нечетком пространстве операции «◦» и «⊕» полностью симметрич-ны, поэтому существует двойственная форма фрактального представленияфункций, которая может быть задана выражениями:

f (u) = f 〈uκ−1uκ−2 . . . u0〉 = ϕi0 (u0) ⊕ ϕi1 (u1) ⊕ . . . ⊕ ϕiκ−1 (uκ−1)fm+1 〈uκ−1uκ−2 . . . um+1〉 = min

um

(fm 〈uκ−1uκ−2 . . . um〉),

ϕim (um) = fm+1 〈uκ−1uκ−2 . . . um+1〉 ⊕ fm 〈uκ−1uκ−2 . . . um〉 .

Спектральные приспособленные преобразования

Для задач классификации и распознавания сигналов существенное значе-ние имеют процедуры предварительной обработки, ориентированные наустранение избыточности и выделении информативных признаков. Ис-пользование спектральных преобразований для этих целей позволяет пред-ставить информацию, содержащуюся в исходном сигнале в виде взаимно-независимых ортогональных составляющих. Поскольку энергия сигналаопределяется суммой квадратов спектральных коэффициентов, то по вели-чине спектрального коэффициента можно непосредственно судить о зна-чимости информативного признака. Известно, что максимальное сокра-щение избыточности данных обеспечивается ортогональным преобразова-нием Карунена-Лоэва, которое образуется собственными векторами кова-риационной матрицы сигнальной группы. Однако использование данногопреобразования сопряжено со значительными вычислительными затрата-ми. По этой причине метод Карунена-Лоэва не применяется для обработ-ки данных высокой размерности. Если при построении преобразованияКарунена-Лоэва ограничиться только одним собственным вектором, име-ющим максимальный ранг (главной компонентой), то объем вычисленийрезко сокращается. Достаточно часто главную компоненту можно выделитьиз сигнала непосредственно, как опорный образ, относительно которогонаблюдаются все сигнальные вариации. Ортогональное преобразование,которое настроено на одну главную компоненту относится к классу при-способленных. В силу ортогональности результатом воздействия приспо-собленного преобразования на опорный образ является выходной вектор,

122 УДК 004.032.26 (06) Нейронные сети

Page 123: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

у которого одна из координат равна единице, в то время как все остальныекоординаты равны нулю. Таким образом, приспособленное ортогональноепреобразование идеально подходит для селективного распознавания эта-лонного сигнала. Построение быстрых приспособленных ортогональныхпреобразований для сигналов определенных на интервале с длиной крат-ной степени двойки рассматривалось в работе [5]. Ниже будет показаноиспользование БНС для синтеза приспособленного ортогонального преоб-разования любой составной размерности.

Достаточные условия приспособленности. Для спектральных пре-образований удобно использовать конструктивное определение приспо-собленности, которое можно сформулировать следующим образом. Орто-гональное преобразование, заданное матрицей h (u, v), приспособлено кфункции f (u) по столбцу, x если выполнены условия:⎧⎨

⎩∑u

h (u, v) f (u) = 1 , при v = x,∑u

h (u, v) f (u) = 0 , при v = x.(39)

Здесь предполагается, что опорная функция нормирована условием∑u

f2 (u) = 1.

Подставив в левую часть (39) выражения (34) и (35), после преобразованийполучим:∑

uh (u, v) f (u) =

∑u0

wi0 (u0, v0)ϕi0 (u0)∑u1

wi1 (u1, v1)ϕi1 (u1) × . . .

. . . × ∑uκ−1

wiκ−1 (uκ−1, vκ−1)ϕiκ−1 (uκ−1) .

Из данной формулы следует, что приспособленность спектрального пре-образования обеспечивается, когда нейронные ядра любого слоя m при-способлены к соответствующим компонентам фрактального разложенияопорной функции. Иначе это достаточное условие можно записать в видесистемы уравнений:⎧⎨

⎩∑um

wim (um, vm)ϕim (um) = 1 , при vm = xm,∑um

wim (um, vm)ϕim (um) = 0 , при vm = xm.

УДК 004.032.26 (06) Нейронные сети 123

Page 124: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Таким образом, задача настройки БНС сводится к построению приспо-собленных ортогональных ядер. Рассмотрим возможный алгоритм такогопостроения.

Алгоритм построения приспособленных ортогональных ядер. Пустькомпонента фрактального разложения представлена вектором вида ϕ =(ϕ0ϕ1 . . . ϕp−1), размерности p. Разместим этот вектор в первом столб-це ортогональной матрицы. Понятно, что существует множество способовдостроить остальные столбцы матрицы. Алгоритм построения во многомопределяется выбранной топологией матрицы. Поскольку никаких другихтребований на ортогональную матрицу не накладывается, то при выбореее топологии целесообразно руководствоваться принципом минимальнойдлины описания (иначе именуемым «бритва Оккама»).

Вектор-образ может содержать нулевые значения, не теряя общности,можно полагать, что все нулевые значения размещены в конце вектораначиная с позиции k + 1. Предлагаемая топология матрицы показана нарис. 25. В данной матрице y1, y2, . . . , yk неизвестные параметры, определя-емые из условий ортогональности столбцов:

0 0 0 0 0

1 1 1 1 1

2

2

1 1

0 0 0 00 0 0 0

0 0 0 0 00 0 0 0 0 00 0 0 0 0 0

0 0 0 0 0 00 0 0 0 0 1 0 0 00 0 0 0 0 0 1 0 00 0 0 0 0 0 0 1 00 0 0 0 0 0 0 0 1

k

k k

k k

yy

yy 0

РИС. 25. Топология матрицы приспособленного ядра

124 УДК 004.032.26 (06) Нейронные сети

Page 125: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

yαϕα +α−1∑u=0

ϕ2u = 0.

Для построения ортогонального ядра W достаточно в построенной матрицепроизвести нормировку столбцов, так чтобы выполнялись условия:

p−1∑u=0

w2 (u, v) = 1.

Множественное приспособление.Ортогональное приспособленное пре-образование не полностью использует степени свободы БНС. Если точкаприспособления совпадает с первым столбцом результирующей матрицы,то будут настроены только ядра

im = 〈uκ−1uκ−2 . . . um+10m−10m−2 . . . 00〉 .

На рис. 26 приведено факторизованное представление ортогонального пре-образования приспособленного к одной функции размещенной в первомстолбце. Символом «∗» отмечены элементы незаполненных ядер.

Для того чтобы преобразование было ортогональным, достаточно за-полнить свободные ядра элементами любых ортогональных матриц соот-ветствующей размерности. В практических алгоритмах, можно либо запол-нить свободные ядра единичными матрицами вида:

W =(

1 00 1

),

либо повторить ядра, уже найденные для текущего слоя. В первом слу-чае будут получены вейвлет-подобные ортогональные преобразования сявно выраженными свойствами пространственной локализации, во второмслучае базисные функции будут фрактально близки друг к другу (т. е. ихфильтрованные образы могут совпадать на некоторых масштабных уров-нях). Использовать более глубокое приспособление, например, к фильтро-ванным образам опорных функций (как это было сделано в предыдущемпараграфе) возможно только тогда, когда опорные функции фрактально ор-тогональны между собой (т. е. ортогональны на всех масштабных уровнях).В общем случае условие фрактальной ортогональности не выполняется.

УДК 004.032.26 (06) Нейронные сети 125

Page 126: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

2

1

0

2 1 0

v 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1v 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1v 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1

u u u0 0 0 1 1 1 1 1 10 0 1 1 10 1 0 1 1 1 10 1 1 1 11 0 0 1 1 1 1 1 11 0 1 1 11 1 0 1 1 1 11 1 1 1 1

РИС. 26. Топология ортогонального преобразования, приспособленно-го к одной функции

Быстрые нейронные сети в квантовых вычислениях

Квантовые вычисления (вычисления, основанные на методах квантовой ме-ханики) были инициированы в начале 80–х годов работами Ричарда Фей-нмана [25, 26]. В 1994 году Питер Шор показал, что NP–сложная задача —разложение целых чисел на множители — может быть решена на кванто-вом компьютере за полиномиальное время [27]. Это результат дал толчокк бурному развитию квантовых вычислений. В августе 2000 года агент-ством Reuters было объявлено о первом практическом успехе: “IBM saysit develops most advanced quantum computer («фирма IBM разработала пер-вый квантовый компьютер»). В данной разработке впервые был реализованквантовый регистр на 5 атомах. Практически была доказана принципиаль-ная возможность реализации квантовых компьютеров.

В классическом компьютере регистр длиной n имеет конечное множе-ство состояний равное 2n, поскольку каждый бит имеет только два состо-яния. В квантовом компьютере функциональным аналогом бита являетсяq–бит, который ассоциируется с двумерным комплексным пространством

126 УДК 004.032.26 (06) Нейронные сети

Page 127: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

и поэтому имеет континуум возможных состояний. В пространстве q–битавыделены два базисных вектора |0〉 и |1〉. Кроме базисных состояний дляq–бита возможны также состояния, представляющие собой любые линей-ные комбинации базисных векторов: |φ〉 = α |0〉 + β |1〉, где α2 + β2 = 1.Квантовый регистр представляет собой конечный набор q–битов. Базис-ными состояниями квантового регистра являются тензорные произведениябазисных состояний входящих в него q–бит. Для обозначения тензорныхпроизведений в квантовой механике используются сокращения:

|xn−1〉 ⊗ |xn−2〉 ⊗ . . . ⊗ |x0〉 = |xn−1xn−2 . . . x0〉 .

Согласно общим принципам квантовой механики, возможным состоя-нием квантового регистра длиной n может быть любой вектор единичнойдлины в комплексном пространстве размерности 2n. Квантовое состояниерегистра записывается в виде:

|ϕ〉 =∑

|x〉∈|xn−1xn−2...x0〉ax |x〉,

где суммирование производится по всем возможным базисным состояниям.Для вектора единичной длины сумма квадратов коэффициентов ax всегдаравна единице. Квантовые состояния в комплексном пространстве зада-ется с точностью до фазового множителя ejφ. Квадрат значения каждогокоэффициента ax интерпретируется как вероятность нахождения квантово-го регистра в данном базовом состоянии. Состояние квантового регистраназывается запутанным, если его не возможно представить в виде произ-ведения квантовых состояний входящих в него q–бит.

Эволюция состояний квантового регистра во времени описывается урав-нением Шредингера, решением которого являются унитарные преобра-зования размерности 2n. При квантовых вычислениях в q–регистре при-готавливается начальное состояние в виде базовых состояний q–бит. За-тем используется некоторое унитарное преобразование над отдельными q–битами, зависящее от решаемой задачи, в итоге возникает новое состояниеквантового регистра. Результатом вычислительной операции считается со-стояние квантового регистра, которое имеет вероятность достаточно близ-кую к единице. Эффективность квантовых вычислений достигается за счеттого, что одновременно с унитарным преобразованием над состояниями q–бита «бесплатно» выполняется тензорное произведение, экспоненциальнорасширяющее область действия унитарного преобразования. Наибольший

УДК 004.032.26 (06) Нейронные сети 127

Page 128: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

эффект достигается для факторизуемых квантовых состояниях, однако идля широкого класса запутанных состояний, возможна реализация полино-миально эффективных алгоритмов.

Элементарным квантовая операция на регистре определяется двумер-ным унитарным преобразованием, действующим в пространстве одногоq–бита. Данное преобразование (унарный вентиль) задается комплексно-значной матрицей размером 2 × 2:

W =|0〉 |1〉

|0〉 w00 w01

|1〉 w10 w11

В канонической форме унитарная матрица второго порядка может бытьзаписана в виде:

W =(

ejγ00 cos θ ejγ01 sin θejγ10 sin θ −ejγ11 cos θ

). (40)

Условие унитарности в этом случае сводится к соотношению между угламикомплексных экспонент:

γ00 − γ01 = γ10 − γ11.

Бинарные вентили задаются унитарными матрицами размера 4×4. При-мером может служить элемент «управляемый фазовый сдвиг» [28], задава-емый матрицей:

W =

|00〉 |01〉 |10〉 |11〉|00〉 1 0 0 0|01〉 0 1 0 0|10〉 0 0 1 0|11〉 0 0 0 ejϕ

Можно показать, что результирующее состояние регистра после би-нарного вентиля в общем случае является запутанным. Последователь-ная комбинация элементарных преобразований в принципе позволяет вы-полнить любое квантовое вычисление. Существенным вопросом являетсяэффективность вычислений. В работе [27] для построения эффективногоквантового вычисления Шор использовал модификацию быстрого алго-ритма Фурье с основанием 2. Как было показано в предыдущих разделах,

128 УДК 004.032.26 (06) Нейронные сети

Page 129: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

быстрое преобразование Фурье может быть реализовано в классе быстрыхнейронных сетей, а в общем случае БНС могут быть использованы дляформирования широкого набора унитарных факторизуемых преобразова-ний.

Применительно к квантовым вычислениям размерность нейронной се-ти должна быть равна степени двойки. Это ведет к тому, что все нейронныеядра сети структурно-подобны и представляют собой унитарные матрицыразмера 2 × 2. Если все ядра в пределах слоя параметрически одинаковы,то нейронный слой однозначно сопоставляется с одним q–битом квантово-го регистра. В этом случае эквивалентный унитарный оператор нейроннойсети, описывающий эволюцию состояния q–битного регистра размерностиn, выражается кронекеровским произведением матриц нейронных ядер:H = W0 × W1 × . . . × Wn−1. На рис. 27 показана квантовая схема по-добного вычисления. Для данной схемы число квантовых операций равноразмерности квантового регистра и, следовательно, данное преобразова-ние является максимально эффективным. Результирующие состояние дляданной квантовой схемы всегда факторизуемо.

W0x0 y0

W1x1 y1

Wn-1xn-1 yn-1

РИС. 27. Квантовая схема БНС с однородными ядрами в слое

Следует отметить, что моделирование квантового регистра на обычномкомпьютере приводит к NP–сложной задаче. На рис. 28 показана кванто-вая схема быстрого преобразования Фурье для размерности 23. В отли-чие от предыдущего случая квантовая схема содержит бинарные вентилиуправляемого фазового сдвига. Значение фазового сдвига и число бинар-

УДК 004.032.26 (06) Нейронные сети 129

Page 130: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ных вентилей зависит от номера нейронного слоя. Все унарные вентилиопределяются матрицей преобразования Адамара:

W =1√2

(1 11 −1

).

Детали построения квантовой схемы изложены в работе [29]. Результи-рующее состояние квантового регистра является запутанным, тем не менее,квантовая схема является полиномиально эффективной.

Wx0 y0

W y1

W y2

x1

x2

РИС. 28. Квантовая схема быстрого преобразования Фурье

Нейронная технология обычно имеет дело с образами. В квантовомварианте образом является квантовое состояние регистра. Задача распо-знавания образа сводится к построению такого унитарного преобразова-ния, которое формирует на выходе одно из базисных состояний регистрас вероятностью близкой или равной единице. По существу подобная за-дача была рассмотрена при построении приспособленных спектральныхпреобразований. Было показано, что настройка сводиться к фрактальнойдекомпозиции функции и выбору параметров нейронных ядер. Методы де-композиции основаны на фрактальной фильтрации, и отличаются толькокомплексным характером фрактальных фильтров.

Для нейронных ядер размерности два можно предложить более общийспособ выбора параметров ядер, чем было изложено ранее. Обозначим че-рез wi (u, v) коэффициенты нейронного ядра в слое i, а через ϕi (u) (здесь идалее точка над символом означает комплексную величину, а «черточка» —комплексно сопряженную) — соответствующую компоненту фрактального

130 УДК 004.032.26 (06) Нейронные сети

Page 131: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

разложения функции-образа f (u). Значениями функции f (u), заданной наинтервале длиной 2n, являются коэффициенты базисных векторов состоя-ния квантового регистра. Как было показано ранее, спектральный операторбудет приспособлен к функции, если нейронные ядра будут приспособленык соответствующим компонентам фрактального разложения функции. Дляунитарных ядер условие приспособленности имеет вид:⎧⎨

⎩∑um

wim (um, vm)ϕim (um) = 1 , при vm = xm,∑um

wim (um, vm)ϕim (um) = 0 , при vm = xm.

Например, для компоненты ϕim (um) = ϕim (um) ejαum и ядра вида (40)приспособленного по первому столбцу данные условия приводятся к виду:

ϕim (0) ej(γ00−α0) cos θ + ϕim (1) ej(γ10−α1) sin θ = 1,ϕim (0) ej(γ01−α0)Sinθ − ϕim (1) ej(γ11−α1) cos θ = 0.

Откуда следуют расчетные формулы для определения параметров ядер:

tg θ = ϕim (1)/ϕim (0), γ00 = α0, γ10 = α1, γ01 − α0 = γ11 − α1.

Данными формулами углы γ01, γ11 определяются неоднозначно, для опре-деленности можно положить γ01 = α0, γ11 = α1. Если исходное состояниеквантового регистра совпадает с функцией образа, то квантовое состояниепосле воздействия оператора нейронной сети будет в точности совпадать содним из базовых состояний. В общем случае БНС выполняет элементар-ные преобразования над состояниями квантового регистра, а не отдельныхq–бит. Поэтому в случае сильно запутанных состояний вычислительнаяэффективность квантовых БНС падает до NP–класса.

Многомерные БНС

Парадигма многослойных БНС достаточно просто распространяется намногомерное пространство. Грамматика формального языка полностью со-храняется, основные отличия заключаются в многомерной интерпретациибукв алфавита. Для d–мерной сети любая буква алфавита заменяется сим-вольным вектором, в котором каждая координата соответствует одной изразмерностей сети.

УДК 004.032.26 (06) Нейронные сети 131

Page 132: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Рассмотрим, например БНС размерности d = 2. Любая буква алфавитав этом случае представляется двумерным вектором. Будем кодировать ко-ординаты каждого вектора двухсимвольным набором, где первый символвыбирается из множества i, j, u, v и означает родовое имя буквы, а вто-рой символ (x либо y) означает пространственное направление. В такойинтерпретации номер ядра в слое λ обозначается символьным векторомiλ =

(ixλ iyλ

). Ядра слоя располагаются в плоскости, координаты ядер

задаются значениями компонент вектора iλ. Синаптическая карта каждогонейронного ядра представляет собой четырехмерную матрицу с элемен-тами wλ

iλ (uλ, vλ), где значения uλ = (uxλ uyλ) определяют локальныепространственные координаты рецепторов, а vλ = (vxλ vyλ) — локальныекоординаты аксонов ядра (см. рис. 29).

yx

РИС. 29. Нейронное ядро двумерной БНС

Структурная модель κ–слойной БНС как и прежде задается канониче-ским предложением состоящим из κ слов, упорядоченных по числу вхо-ждений двумерных букв с родовым именем i. При построении графическойинтерпретации, дугами соединяются нейронные ядра смежных слоев, ко-торые имеют совпадающие значения для одноименных двумерных букв.На рис. 30 показано правило построения структурной модели для канони-ческого предложения: [〈i1i2〉 〈i2j1〉 〈j1j0〉] .

132 УДК 004.032.26 (06) Нейронные сети

Page 133: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

Все разрядные переменные имеют основания равные двум. Простран-ственные координаты ядер определяются словами 〈ix1ix2〉 , 〈iy1iy2〉 — дляслоя 0, 〈ix2jx1〉 , 〈iy2jy1〉 — для слоя 1, и 〈jx1jx0〉 , 〈jy1iy0〉 — для слоя 2.

00

01

10

11

00

01

10

11

y x

РИС. 30. Правило построения двумерной БНС

Литература

1. Дорогов А.Ю., Алексеев А. А., Буторин Д. А. Нейронные сети со структуройбыстрого алгоритма //Нейроинформатика и ее приложения: 6 Всерос. семинар,20–25 октября 1998г., Красноярск. Тезисы докл. – Красноярск, КГТУ, 1998. –С. 53.

2. Good I. J. The Interaction Algorithm and Practical Fourier Analysis // Journal ofRoyal Statistical Society. – Ser. B. – 1958. – Vol. 20. – No. 2. – P. 361–372.

3. Andrews H. C., Caspari K. L. A General Techniques for Spectral Analysis // IEEETrans. Computers. – 1970. – Vol. C-19. – Jan., No. 1. – P. 16–25.

4. Эндрюс Г. Применение вычислительных машин для обработки изображений:Перевод с англ. под ред. Б.Ф. Курьянова. – М., 1977. – 160 с.

5. Солодовников А.И.,Спиваковский А.М. Основы теории и методы спектральнойобработки информации. – Л., 1986. – 272 с.

6. Лабунец В. Г. Единый подход к алгоритмам быстрых преобразований // При-менение ортогональных методов при обработке сигналов и анализа систем:Межвуз. Сб. – Свердловск: Уральск. Политехн. Ин-т. – 1980. – С. 4–14.

УДК 004.032.26 (06) Нейронные сети 133

Page 134: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

7. Cooley J.W., Tukey J.W. An Algorithm for the Machine Computation of ComplexFourier Series // Math. Comp. – 1965. – No. 19. – P. 297–301.

8. Рабинер Л., Гоулд. Теория и примененение цифровой обработки сигналов: Пер.с англ. – М.: Мир, 1978. – 848 с.

9. Трахтман А.М., Трахтман В. А. Основы теории дискретных сигналов на ко-нечных интервалах. – М.: Сов. Радио, 1975. – 208 с.

10. Дорогов А.Ю. Быстрые нейронные сети. – СПб.: Изд-во С.Петерб. ун-та, 2002.– 80 с.

11. Дорогов А.Ю. Структурный анализ слабосвязанных нейронных сетей // Управ-ление в социальных, экономических и технических системах. Кн. 3. Управлениев технических системах: Труды Межреспубликанской научной конференции,г. Кисловодск 28 июня–2 июля 1998 г. – С. 75–80.

12. Дорогов А.Ю. Структурный синтез модульных слабосвязанных нейронных се-тей. Часть 1. Методология структурного синтеза модульных нейронных сетей// Кибернетика и системный анализ. – 2001. – №2. – С. 34–42.

13. Дорогов А.Ю. Структурный синтез модульных слабосвязанных нейронных се-тей. Часть 2. Ядерные нейронные сети // Кибернетика и системный анализ. –2001. – №4. – С. 13–20.

14. Uhr L. Algorithm-Structured Computer Arrays and Networks: Parallel Architecturtsfor Perception and Modelling. – Academic Press, New York, 1984.

15. Дорогов А.Ю. Генезис слабосвязанных нейронных сетей // Всероссийскаянаучно-техническая конференция «Нейроинформатика–99», Москва, 20–22 ян-варя 1999 г. – Сб. науч. тр. Часть 1. – М.: 1999. – С. 64–70.

16. Эдельман Дж., Маункасл В. Разумный мозг: Кортикальная организация иселекция групп в теории высших функций головного мозга / Пер. с англ.Н.Ю.Алексеенко, под ред. Е. К. Соколова. – М.: Мир. – 1981. – 133 с.

17. Дорогов А.Ю. Фракталы и нейронные сети // Проблемы нейрокибернетики (ма-териалы Юбилейной международной конференции по нейрокибернетике по-священной 90–летию со дня рождения проф.А. Б. Когана, 23–29 октября 2002г., Ростов-на-Дону). Том 2. – Ростов-на-Дону. – 2002. – С. 9–14.

18. Дорогов А.Ю., Алексеев А. А. Пластичность многослойных слабосвязанныхнейронных сетей // Нейрокомпьютеры: разработка и применение №11, 2001,с. 22–40.

19. Малинецкий Г. Г., Потапов А. Б. Современные проблемы нелинейной динамики.– М.: Эдиториал УРСС, 2000. – 336 с.

20. Кроновер Р.М. Фракталы и хаос в динамических системах. – М.: Постмаркет,2000. – 350 с.

134 УДК 004.032.26 (06) Нейронные сети

Page 135: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

А.Ю.ДОРОГОВ

21. Макаренко Н. Г. Фракталы, аттракторы, нейронные сети и все такое // «Ней-роинформатика 2002»: 4-й Всеросс. науч. техн. конф. 23–25 января 2002 г.,Москва – Лекции по нейроинформатике. – Часть 2. – с. 136–169.

22. Stark J. Iterated function systems as neural networks // Neural Networks. – 1991. –V. 4. – pp. 679–690.

23. Астафьева Н.М. Вейвлет-анализ: основы теории и примеры применения// Успехи физических наук. – T. 166. – 1996. – №11. – С. 1145–1170.

24. Каппелини В. и др. Цифровые фильтры и их применение: Пер. с англ. – М.:Энергоатомиздат, 1983. – 360 с.

25. Feynman R. Simulating physics with computers // International Journal ofTheoretical Physics, 21, 6&7, 467–488, 1982.

26. Feynman R. Quantum mechanical computers // Optics News 11, 1985. Also inFoundations of Physics, 16: 507–531, 1986.

27. Shor P. W. Algorithms for quantum computation: Discrete log and factoring // In:Proceedings of the 35th Annual Symposium on Foundations of Computer. Science(Nov. 1994). pp. 124–134, 1994. Institute of Electrical and Electronic EngineersComputer Society Press.URL: ftp://netlib.att.com/netlib/att/math/shor/quantum.algorithms.ps.Z.

28. Риффель Э., Полак В. Основы квантовых вычислений // Квантовый компьютери квантовые вычисления. – Т.1, №1, 2000. – с. 4–57.

29. Ekert A., Hayden P., Inamori H. Basic concepts in quantum computation. – Centrefor Quantum Computation University of Oxford OX1 3PU, United Kingdom.

Александр Юрьевич ДОРОГОВ, кандидат технических наук, доцент ка-федры автоматики и процессов управления Санкт-Петербургского государ-ственного электротехнического университета («ЛЭТИ»). Области научныхинтересов: нейронные сети, быстрые перестраиваемые преобразования,фракталы, системный анализ. Автор более 100 печатных работ и одноймонографии.

Page 136: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

В. Г.ЯХНОИнститут прикладной физики РАН, Нижний Новгород

E-mail: [email protected]

НЕЙРОНОПОДОБНЫЕ МОДЕЛИ ОПИСАНИЯ ДИНАМИЧЕСКИХПРОЦЕССОВ ПРЕОБРАЗОВАНИЯ ИНФОРМАЦИИ

Аннотация

Приведено конспективное рассмотрение вариантов базовых нейроноподоб-ных моделей, описывающих динамические процессы преобразования ин-формационных потоков.

V.YAKHNOInstitute for Applied Physics, RAS,

Nizhny NovgorodE-mail: [email protected]

NEURON–LIKE MODELS DESCRIBING DYNAMICALTRANSFORMATION PROCESSES FOR INFORMATION FLOWS

Abstract

Some variants of basic neuron-like models for dynamical processes of informa-tion flow transformation are considered.

Введение

Распределенные системы называют нейроноподобными, если они состоятиз активных элементов с несколькими устойчивыми (или «квазиустой-чивыми») состояниями и взаимодействие между такими неравновеснымиэлементами осуществляется за счет нелокальных пространственных свя-зей. Динамические режимы преобразования информационных сигналов внейроноподобных системах и соответствие их экспериментальным даннымзависит от вида используемых базовых моделей.

136 УДК 004.032.26 (06) Нейронные сети

Page 137: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

В. Г. ЯХНО

Различные пространственно-временные решения базовых моделей опре-деляются:

• алгоритмами выделения признаков на различных уровнях описания;• вариантами алгоритмов управления;• модельными описаниями распознаваемых объектов и моделями ра-

боты самой распознающей системы.

Функциональные режимы сложных информационных систем обычнолегче понимать, если они рассматриваются с помощью блочных моде-лей, соответствующих разным функциональным уровням преобразованияи управления информационными сигналами. Например, однородные ней-роноподобные системы позволяют осуществлять режимы параллельноговыделения признаков из изображений.

Системы, позволяющие автоматически оценивать качество работыалгоритмов кодирования–декодирования, необходимы для повышения точ-ности распознающих систем и отслеживания особенностей обрабатывае-мых изображений.

Иерархически организованные взаимосвязанные распознающие систе-мы необходимы для понимания эволюционной динамики мотиваций в ра-боте таких сформировавшихся симбиозов. В них происходит обмен алго-ритмическими и «энергетическими» ресурсами, который приводит к про-цессам усовершенствования, модернизации алгоритмов, используемых втаких взаимосвязанных распознающих системах.

Модели для таких уровней описания могут быть представлены как ввиде уравнений, так и в виде функциональных схем, определяющих основ-ные пути и типы операций преобразования изображений. Обычно в рас-познающих системах информационный сигнал можно представить в видеизображений.

Для понимания особенностей динамики сложных систем очень важенвыбор «эффективных» переменных, т. е. тех переменных, которые лучшевсего соответствуют функциональному режиму системы. Известно, что бо-лее понятной выглядит модель, в которой число необходимых «эффектив-ных» переменных сведено к минимуму. С другой стороны, число исполь-зуемых переменных в модели должно обеспечивать адекватное описаниепроцессов.

Рассмотрим три типа «базовых» моделей для описания разных функ-циональных уровней, которые удовлетворяют этим требованиям. Последо-вательное использование таких моделей позволяет описать широкий круг

УДК 004.032.26 (06) Нейронные сети 137

Page 138: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

динамических процессов во взаимодействующих информационных систе-мах.

Модели с адаптацией параметров

Первый тип моделей представлен однородными нейроноподобными си-стемами, в которых особенности преобразования входного изображенияu = u0 (t0, �r) определяются изменением дополнительной переменнойgi (t, �r). Вариант такой системы имеет вид [1–4, 6–8, 13]:

du

dt= −du

τ1+ βF1(g) ∗ F1

[−θ1(g) +

∞∫−∞

Φ1

[(ξ − r), g

]u(ξ, t)dξ

]+

+ D1∂2u(t, �r)

∂r2,

(1)

dg

dt= −dg

τ2+ βF2(g) ∗ F2

[−θ2(g) +

∞∫−∞

Φ2

[(ξ − r, g)

]u(ξ, t)dξ

]+

+ D2∂2u(t, �r)

∂r2.

(2)

Двухкомпонентная модель (1)–(2) получена из уравнений, описываю-щих взаимодействие нейронов с возбуждающими и тормозными связями вучастке коры головного мозга животных, содержащем сотни тысяч нервныхклеток в приближении однородности рассматриваемого участка [1–3]. Приинтегральном описании активности многих ансамблей из нейроноподоб-ных элементов используются две наиболее важные (или можно назвать их— «эффективные») переменные u(t, �r) и g(t, �r). Первая переменная обыч-но описывает уровень активности популяций возбуждающих нейронов, авторая переменная — уровень активности популяций тормозных нейронов.Функции

Φmp

(t − τ, �ξ − �r

)имеют вид так называемого «латерального» торможения,

Φ(R) = (1 − akR2)e−aR2,

а F [· · · ] имеет ступенчатый вид. Система (1)–(2) применяется для описанияпроцессов в однородных нейронных сетях сетчатки глаза живых объектов,

138 УДК 004.032.26 (06) Нейронные сети

Page 139: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

В. Г. ЯХНО

коры некоторых отделов головного мозга и т. п. [1–4]. Показано, что в та-ких системах базовые пространственно-временные автоволновые процессыпредставлены:

• фронтами переключений между различными стационарными состо-яниями;

• разнообразными импульсными решениями;• автономными источниками волн;• разнообразными структурами синхронизации и фазировки для си-

стем из автоколебательных нейроноподобных элементов.

Примеры результатов исследований процессов подобного рода приве-дены в работах [1–7]. В моделях таких процессов выходной информаци-онный сигнал в момент времени t0 представляет собой u (t0, �r) и g (t0, �r)— два изображения структур пространственной активности нейроноподоб-ных элементов системы.

Модели адаптивных распознающих систем

Ко второму типу моделей относятся «элементарные» системы принятиярешений с фиксированными алгоритмами, в которых предполагается ис-пользование управляющих алгоритмов с целью оптимизации режимов рас-познавания, как под особенности вида сигнала, так и под задачи, решае-мые такой адаптивной распознающей системой. Функциональная модельдля элементарных распознающих систем с адаптивными свойствами (см.рис. 1) состоит из:

• блоков преобразования (кодирования и восстановления) информаци-онных сигналов;

• блоков сохранения кодового описания этих сигналов и используемыхдля их обработки алгоритмов (моделей);

• блоков оценки близости восстановленного сигнала к виду исходногосигнала, и принятия решений [7–13].

Если требуется использование режимов параллельного преобразования сиг-налов, то для выполнения операций во всех этих блоках могут быть за-действованы модели однородных нейроноподобных систем [4, 6–8]. Этоозначает, что модели второго типа можно полностью построить из слоев,преобразование сигналов в которых описывается моделями первого типа.

УДК 004.032.26 (06) Нейронные сети 139

Page 140: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Основная особенность представленной базовой модельной системы дляпроцессов адаптивного принятия решений заключается в формальном пред-ставлении необходимых и достаточных управляющих воздействий меж-ду информационными потоками и используемыми алгоритмами обработ-ки этих потоков. В частности, вычисленные параметры изображений ин-формационных сигналов (входные и промежуточные изображения, разно-образные кодовые описания, оценки точности соответствия, или «невяз-ки» — мотивационные оценки) влияют на величины управляющих пара-метров для каждой из операций An(Enn−1) — алгоритмов кодирования–декодирования, алгоритмов вычисления мотивационных оценок (невязок),принятия решений), которые в свою очередь изменяют параметры инфор-мационного потока. По виду динамики этого процесса вычисляются оцен-ки точности для используемых алгоритмов кодирования–декодирования иформируются мотивационные сигналы для реакций системы. По ним, на-пример, определяются условия, при которых необходимо корректироватьпараметры действующих алгоритмов или проводить замену «старых» алго-ритмов на «новые» алгоритмы кодирования. Важно обратить внимание, чтотермины «старые» и «новые» алгоритмы фактически обозначают различ-ные модельные представления распознающей системы о распознаваемомобъекте и условиях работы этой системы. В результате система в ответ навходной информационный сигнал In формирует выходной информацион-ный сигнал в виде

In+1

[Dn, Rn, An(Enn−1), Intn

].

Здесь используются следующие обозначения:

Dn — решения, принятые распознающей системой;

Rn — оценки уверенности, статистической достоверности принятого ре-шения;

An(Enn−1) — формализованное представление знаний в системе, включа-ющих используемые идеи, методы, модели и алгоритмы;

Enn−1 — описывает параметры среды, обеспечивающие активное состоя-ние распознающего устройства при работе того или иного алгоритма.В самом простом случае, этот параметр может описывать только од-ну величину: потребляемые энергетические ресурсы, требуемые дляработы конкретного алгоритма;

140 УДК 004.032.26 (06) Нейронные сети

Page 141: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

В. Г. ЯХНО

Intn — изображение, интерпретирующее входной информационный сиг-нал, которое генерируется распознающей системой из кодового опи-сания входного изображения;

In+1 сигнал на выходе распознающей системы, состоящий из набора ве-личин Dn, Rn, An(Enn−1), Intn.

Уровень выходной величины Enn определятся особенностями работыисполнительных механизмов, которые запускаются на основании решенияраспознающей системы Dn, Rn.

РИС. 1. Этапы трансформации потоков информационных данных и вза-имодействие между различными обрабатывающими блоками в адап-тивной системе принятия решений с An — фиксированным наборомалгоритмов и уровнем Enn «энергетического» обеспечения системы(нейроноподобные системы второй группы)

Используя схему адаптивной распознающей системы (рис. 1), можнодать формализованные определения для понятий, которые обычно вызыва-ют споры при обсуждении информационных систем.

Данными об изображениях называются наборы признаков или кодовыхописаний, которые хранятся в блоке 3 (см. рис. 1).

Знаниями в данной системе естественно назвать наборы алгоритмовAn(Enn−1) в блоке 6.

Ценность входного информационного сигнала определяется по величи-нам невязок в блоке 5, вычисляемых из сравнения наборов кодовых опи-

УДК 004.032.26 (06) Нейронные сети 141

Page 142: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

саний для исходно ожидаемых системой изображений (блок 4) и реальновычисленными кодами от входного изображения (блоки 1, 2).

Процесс поиска оптимальных алгоритмов системы, на основе контролявеличины на поле невязок, по-видимому, аналогичен одному из режимов,который в живых системах называют сознанием.

Рассмотрим, например, с помощью формализованной схемы на рис. 1некоторые, весьма понятные с житейской точки зрения, режимы непони-мания при общении между адаптивными распознающими системами [13].

1. Во взаимодействующих системах используются для распознаванияразные модели ситуаций и связанные с ними алгоритмы кодирования–декодирования (это может быть связано с разными целями, мотива-циями разных систем или просто с отсутствием подходящих алго-ритмов), в результате наблюдается ситуация полного непонимания(нарушения в блоках 1, 2). В частном случае, алгоритм одной изсистем может быть ориентирован на «образное» кодирование, ассо-циативные связи в семантической сети «образов», в то время какдругая система строит восприятие на логической модели из цепочкивыводов и опирается на оценки обоснованности выводов. Это при-мер взаимодействия людей с образным и логическим мышлением.Известно, что такие люди очень часто не понимают друг друга [14].

2. Входные сигналы, передаваемые между адаптивными системами, пред-ставлены в некотором заранее закодированном «жаргонном» виде(несоответствия алгоритмов в блоках 1, 2, 4). Взаимодействующиераспознающие системы либо имеют возможность (мотивации) про-извести перекодировку к уже имеющимся у них кодовым представ-лениям (адаптация в блоке 7), и тогда проявляются элементы по-нимания, либо не имеют такой возможности (например, потому чтоперестройка используемых моделей требует дополнительных затратэнергии), и тогда — непонимание (отсутствие настроек в блоке 7).

3. Во входных сигналах распознающая система в первую очередь вы-деляет такие признаки ситуации, которые препятствуют включениютех адекватных алгоритмов обработки, которые необходимы для рас-познавания принимаемого потока информации (нарушение работы вблоке 7 ведет к нарушениям в блоках 1, 2, 4). Например, распознаю-щий автомат для понимания потока информации должен затрачиватьопределенный уровень энергии, в то же самое время он получает сиг-

142 УДК 004.032.26 (06) Нейронные сети

Page 143: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

В. Г. ЯХНО

налы от соседей о малой важности этой информации. В этом случае,если приоритеты сигналов от соседей (или экономии своей энергии)оказываются выше, чем коэффициент мотивации к восприятию вход-ного информационного потока, адаптации алгоритмов распознаванияне происходит, и адаптивная система отключается от процесса ана-лиза входных информационных сигналов и т. д.

Приведенные примеры объединяются одним известным афоризмом:«Вы не воспринимаете нас не потому, что наши представления невер-ны или сложны, а потому, что наши представления не входят в вашипонятия».

РИС. 2. Схематическое представление трансформации входных пото-ка Enn−1; In−1 в выходной поток Enn; In информационных данныхв адаптивной системе принятия решений с фиксированным наборомалгоритмов

Один из известных выходов в ситуациях непонимания состоит в пред-ставлении внутренних кодовых описаний в такой форме, когда они понятныи другой распознающей системе, участвующей в общении. Например, вме-сто текстового описания архитектуры и функций базовых моделей, автормог бы представить варианты программного продукта, в которых нажати-ем кнопок вызываются демонстрации соответствующих преобразований сизображениями, выбираются адекватные алгоритмы, согласуются кодовыеописания, и т. д. Человеку такие действия воспринимать, конечно же, лег-че. Известно только, что подготовка такого «демонстрационного» решения

УДК 004.032.26 (06) Нейронные сети 143

Page 144: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

обычно требует дополнительных ресурсов Enn−1 и знаний An(Enn−1).Часто — очень немалых.

Сопоставления с данными нейрофизиологических исследований [14–17] показывают также, что разработанная базовая модель для адаптив-ных распознающих систем позволяет на количественном уровне описыватьразличные варианты психологических режимов реагирования животных впроцессе осознания ими действующих на них информационных сигналов.

Если опустить внутренние переменные в функциональной схеме адап-тивного распознавателя, показанной на рис. 1, то ее упрощенное изобра-жение можно представить в виде рис. 2. На этой схеме показаны толькоосновные переменные, участвующие в преобразовании входного инфор-мационного потока In, вместе с предоставляемыми для работы системыресурсами Enn−1, в выходной набор{

Dn;Rn;An(Enn); Intn}

информационного потока и новый уровень Enn — ресурсов для работыраспознающих систем на следующем слое иерархии.

Известно, что в реальной жизни адаптивные распознающие системы за-интересованы в получении точных решений Dn, Rn, Intn для того, чтобыобеспечить доступ к необходимым ресурсам Enn при выполнении постав-ленных целей, а также получить возможность усовершенствования илимодернизации доступного им набора знаний An(Enn−1).

Модели взаимодействующих распознающих систем

К третьему типу естественно отнести модели, описывающие различныеварианты возможных взаимодействий между «элементарными» адаптив-ными распознающими системами.

Из всех возможных комбинаций взаимодействия распознающих системрассмотрим иерархическую архитектуру, известную для многих популяци-онных систем (см., например, [19–20]) и показанную на рис. 3.

Процесс трансформации входных величин (Enn−1), (In−1), отвечаю-щих за «энергетические» ресурсы и информационный сигнал, в выходныезначения Enn; In на выделенном слое взаимодействующих адаптивных си-стем принятия решений зависит от используемого набора An алгоритмов.Особенности этого процесса зависят от распределения дополнительныхвоздействий ∆Enn−1 и ∆An−1 «энергетического» и «информационного»

144 УДК 004.032.26 (06) Нейронные сети

Page 145: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

В. Г. ЯХНО

РИС. 3. Схематическое представление базовых взаимовоздей-ствий между адаптивными распознающими системами при ихработе в иерархической организации

Трансформация входных величин (Enn−1) и (In−1), отвечающих за «энергети-ческие» ресурсы и информационный сигнал, соответственно, в выходные значе-ния Enn; In на выделенном слое взаимодействующих адаптивных систем при-нятия решений зависит от используемого набора An алгоритмов. Особенностиэтого процесса зависят от распределения дополнительных воздействий ∆Enn−1

и ∆An−1 «энергетического» и «информационного» характера (в общем случае,такое распределение имеет пространственно неоднородное распределение), ко-торые обычно контролируются принятыми решениями Dn−1, Rn−1, а также ре-шениями с вышележащих иерархических слоев.

УДК 004.032.26 (06) Нейронные сети 145

Page 146: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

характера (в общем случае, такое распределение будет пространственнонеоднородным), которые обычно контролируются принятыми решениямиDn−1, Rn−1, а также решениями с вышележащих иерархических слоев.

На схеме показан процесс передачи с нижних уровней на верхние фоно-вого потока ресурсов Enn и фонового потока информационных данных In.На каждом слое составляющие его системы могут взаимодействовать другс другом. Динамику их коллективного поведения можно описывать с помо-щью моделей первого типа. Каждый вышележащий слой систем имеет воз-можность управлять притоком дополнительных ресурсов из двух дополни-тельных, специализированных резервуаров как для энергетических ресур-сов ∆Enn, обеспечивающих активное состояние распознающих устройств,так и для знаний ∆An, обеспечивающих выполнение «правильных» дей-ствий. При этом управление на каждый нижележащий слой подается в видефильтров, которые в текущий момент разрешают нижележащему слою си-стем:

• дополнительную энергетическую поддержку с инструкциями ее ис-пользования и

• дополнительные знания (алгоритмы), необходимые для исполненияинструкций.

Представленная архитектура управления энергетическими ресурсамисчитается вполне привычной.

Гораздо больше вопросов вызывает происхождение и механизмы рабо-ты специализированного резервуара для знаний.

Достаточно хорошо известны две точки зрения на функционированиемеханизмов создания новых знаний (идей, методов, моделей, алгоритмов).

В соответствии с одной из них, новые знания создаются в результатекомбинирования из ранее известных алгоритмических блоков. Этим мо-гут заниматься, например, специализированные «распознающие системы».Это аналогично конструированию более совершенных алгоритмов из име-ющихся в распоряжении этих систем упрощенных базовых блоков — «ал-горитмических функций».

Другая точка зрения основана на представлении, что все необходимыевариации знаний или алгоритмических блоков уже существуют в некото-ром хранилище знаний (место этого хранилища разные авторы указываютпо-разному). По мере необходимости адаптивные распознающие системыполучают требуемые алгоритмы в уже готовом виде. Жизненный опыт по-казывает, что обычно такая доставка новых знаний происходит, если в них

146 УДК 004.032.26 (06) Нейронные сети

Page 147: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

В. Г. ЯХНО

возникает очень сильная потребность.В рамках схемы на рис. 3 можно рассматривать функционирование обо-

их этих механизмов. Было бы очень интересно рассмотреть другие возмож-ные варианты механизмов генерации новых знаний.

Разнообразные динамические режимы коллективной активности системв иерархической модели (рис. 3) получаются в зависимости от приоритетовдля каждой распознающей системы на такие параметры, как особенностиее взаимосвязей с соседями, ∆Enn или ∆An. Описание этих режимов,определение их устойчивости и классификация наиболее характерного по-ведения систем в такой иерархии представляет весьма интересную областьисследований.

Модели «элементарных адаптивных распознающих систем», а такжемодели для взаимодействующих ансамблей распознающих систем, позво-ляют формализовать описание гипотез, связанных с режимами реагирова-ния в социальных системах. Например, режимы оптимизации при выполне-нии поставленной задачи позволяют формализовать определение особенно-стей психологических реакций распознающих автоматов, включая разделе-ние на режимы, аналогичные реакциям сангвиника, флегматика, холерика имеланхолика. Можно построить интерпретацию режимов отстаивания сво-их интересов информационными системами за счет «латерального подав-ления» соседей; режимов проявления «двойной морали» в иерархическойорганизации, и ряда других режимов, присущих социальным системам.

Выводы

Приведенные здесь разные типы базовых моделей показывают перспектив-ность их практического применения. Известные автору примеры процессовпринятия решений активными информационными системами удается объ-яснить с помощью этих моделей. Было бы интересно найти ограниченияпредлагаемого модельного описания для объяснения экспериментальныхданных о динамике нейроноподобных систем. Важно, что за каждой функ-циональной связью или операцией в предложенных здесь моделях стоятстрого детерминированные правила преобразования сигналов. Вариантытаких систем уже сейчас могут программироваться или реализовывать-ся в аппаратуре. Конечно, следует признать, что в действительности раз-нообразие реакций в таких нейроноподобных системах определяется ис-пользованием достаточно обширного набора алгоритмов (возможных мо-

УДК 004.032.26 (06) Нейронные сети 147

Page 148: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

дельных преобразований). Однако разнообразие таких наборов модельныхпредставлений, как известно, наблюдаются и в реальной жизни.

Для описания динамики сложных систем сейчас, как известно, исполь-зуются разные виды базовых моделей. При этом результаты получаемыхописаний часто вполне адекватно соответствуют опытным данным. Основ-ная трудность состоит в переводе одних результатов на язык других мо-дельных представлений. Формирование набора модельных представленийдля нейроноподобных систем, ориентированного на использование его впрактике общения между заинтересованными исследователями, составля-ет основную цель данной лекции.

Работа выполнялась при частичной поддержке грантов INTAS–01–0690

и АФГИР RMO–10214–BNL №36943.

Литература

1. Wilson H. R., Cowan J. D. A mathematical theory of the functional dynamics ofcortical and thalamic neuron tissue // Kybernetic. – 1973. – v. 13. – pp. 55–80.

2. Сбитнев В.И. Преобразования потока спайков в статистических нейронныхансамблях // Биофизика. – V1975. – Т. 20. – C. 699–702; 1976. – Т. 21. – C. 1072–1076; 1977. – Т. 22. – C. 523–528.

3. Кудряшов А. В., Яхно В. Г. Распространение областей повышенной импульснойактивности в нейронной сети // Динамика биологических систем. – 1978. –Вып. 2. – C. 45–59.

4. Yakhno V.G., Belliustin N. S., Krasilnikova I. G., Kuznetsov S. O., Nuidel I. V.,Panfilov A. I., Perminov A.O., Shadrin A. V., Shevyrev A. A. Research decision-making system operating with composite image fragments using neuron-likealgorithms // Radiophysics. – Vol. 37, No. 8, pp. 961–986, 1994.

5. Vasiliev V. A, Romanovskii Y.M, Chernavskii D. C., Yakhno V.G. Autowave processesin kinetic systems. Spatial and temporal self-organization in physics, chemistry,biology, and medicine. – D. Reidel Publishing Company, 1987.

6. Belliustin N. S., Kuznetsov S. O., Nuidel I. V., Yakhno V.G. Neural networks withclose nonlocal coupling for analyzing composite images // Neurocomputing. – v. 3.– 1991. – pp. 231–246.

7. Yakhno V.G. Basic models of hierarchy neuron-like systems and ways to analysesome of their complex reactions // Optical Memory & Neural Network. – 1995. –v. 4, No. 2. – pp. 141–155.

148 УДК 004.032.26 (06) Нейронные сети

Page 149: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

В. Г. ЯХНО

8. Яхно В. Г. Процессы самоорганизации в распределенных нейроноподобных си-стемах. Примеры возможных применений // «Нейроинформатика 2001». Лек-ции по нейроинформатике. – М.: МИФИ, 2001. – C. 103–141.

9. Анохин П. К. Избранные труды. – М.: Наука, 1978. – 400 с.

10. Fukushima K. Neural network model of selective attention in visual patternrecognition and associative recall // Applied Optics. – 1983. – v. 26, No. 23. –pp. 4985–4992; Neural network for visual pattern recognition // Computer. – 1988.– pp. 65–67.

11. Zverev V. A. Physical Foundation of image formation by wave fields. – IAP RAS. –1998. – 252 pp.

12. Яхно В. Г., Нуйдель И. В., Тельных А. А., Бондаренко Б.Н., Сборщиков И.Ф.,Хилько А.И. Метод адаптивного распознавания информационных образов исистема для его осуществления. – Российский патент №2160467, 1999.

13. Яхно В. Г. Модели нейроноподобных систем. Динамические режимы преобра-зования информации. Нелинейные волны 2002 / Отв. ред. А. В. Гапонов-Грехов,В. И.Некоркин. – Нижний Новгород: ИПФ РАН, 2003, С. 90–114.

14. Грэй У. Живой мозг. – М.: Мир, 1966. – 295 с.

15. Иваницкий А.М. Физиологические основы психики // Природа. – 1999. – №8.– С. 156–162.

16. Иваницкий А.М. Главная загадка природы: как на основе работы мозга воз-никают субъективные переживания // Психологический журнал. – 1999. –том. 20,№3. – С. 93–104.

17. Архипов В.И. Воспроизведение следов долговременной памяти, зависимой отвнимания // Журнал высшей нервной деятельности. – 1998. – том. 48, вып. 5. –С. 836–845.

18. Сергин В. Я. Психофизиологические механизмы осознания: гипотеза самоотож-дествления // Журнал высшей нервной деятельности. – 1998. – том. 48, вып. 3.– С. 558–570.

19. Манифест эволюции, 2003. URL: http://www.sarasvati.comtv.ru

20. Пригожин И. Р. (ред.) Человек перед лицом неопределенности. – Москва-Ижевск: Институт компьютерных исследований, 2003. – 304 с.

УДК 004.032.26 (06) Нейронные сети 149

Page 150: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Владимир Григорьевич ЯХНО, ведущий научный сотрудник, доктор фи-зико–математических наук, заведует лабораторией в Институте приклад-ной физики РАН (Нижний Новгород). Научные интересы связаны с иссле-дованием процессов самоорганизации в распределенных неравновесныхсистемах и приложением автоволновых представлений для моделирова-ния процессов обработки сенсорных сигналов, развития компьютерныхалгоритмов кодирования сложных изображений, рассмотрения характер-ных адаптационных процессов при работе систем распознавания сложныхизображений. Имеет более 120 научных публикаций (в том числе 2 моно-графии и 4 патента).

Page 151: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н.Г.ЯРУШКИНАУльяновский государственный технический университет (УлГТУ),

г. УльяновскE-mail: [email protected]

НЕЧЕТКИЕ НЕЙРОННЫЕ СЕТИ С ГЕНЕТИЧЕСКОЙНАСТРОЙКОЙ

Аннотация

Нечеткие нейронные сети представляют собой реализацию систем нечетко-го логического вывода методами нейронных сетей. Такие сети включают всебя слои, состоящие из специальных И и ИЛИ нейронов. Для настройкинечетких нейронных сетей используются методы генетической оптимиза-ции. В лекции изложено краткое введение в построение и обучение нечеткихнейронных сетей. Важным преимуществом таких сетей является сочетаниеметодов машинного обучения и вербализации правил вывода.

N.G.YARUSHKINAUlyanovsk State Technical University (UlSTU),

UlyanovskE-mail: [email protected]

FUZZY NEURON NETWORKS WITN GENETIC OPTIMIZATION

Abstract

Fuzzy neuron networks with genetic optimization are fuzzy logical inferencesystems. These nets include special AND, OR neurons. Genetic algorithms op-timize a structure and parameters of fuzzy neuron networks. This survey lecturerepresens brief introduction to creation and learning of fuzzy neuron networks.Important practical advantage of fuzzy neuron networks is hybridization of ma-chine learning methods and fuzzy logical rules representation in linquistic terms.

УДК 004.032.26 (06) Нейронные сети 151

Page 152: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Введение

Исследования восприятия на искусственных моделях нейронных сетейуспешно развивались, начиная с 40-х годов прошлого века (МакКаллок иПиттс, 1947; Хебб, 1949). Со знаменитой ныне статьи Л. Заде [20] нача-лось постепенное развитие нечетких систем. В 1979 году Заде ввел теориюприближенных рассуждений [5]. Однако увлечение символьной обработкойв течение 70–80–х годов приводило к тому, что рождение и становлениевычислительного интеллекта оставалось почти не замеченным. Тем не ме-нее в 1982 году Хопфилд обеспечил математические основы пониманиядинамики нейронных сетей с обратными связями. В 1984 году Кохоненпредложил алгоритм обучения без учителя для самоорганизующихся се-тей. В 1986 году Румельхарт и МакКлелленд ввели алгоритм обратно-го распространения ошибки для нелинейных многослойных сетей. КнигаХолланда «Адаптация в природе и искусственных системах» (1975) [18] за-ложила основы эволюционного моделирования и генетические алгоритмыстали методом структурного синтеза в интеллектуальных системах. Успе-хи нейронных сетей, нечетких систем и генетических алгоритмов привелик формированию направления, которое можно обозначить, как «вычисли-тельный интеллект». В результате в 1994 году в Беркли в КалифорнииЛ. Заде ввел «зонтичный» термин «мягкие вычисления», который можнопояснить следующей формулой [21]:

Мягкие вычисления = нечеткие системы++ нейронные сети + генетические алгоритмы.

Появление термина «мягкие вычисления» обычно объясняют тем, чтомягкие или гибридные системы, такие как нечеткие нейронные сети сгенетической настройкой параметров, демонстрируют взаимное усилениедостоинств и погашение недостатков отдельных методов. Очевидно, чтопредставление знаний в нейронных сетях в виде матриц весов не позволя-ет строить объяснение проделанного распознавания или прогнозирования,в то время как системы вывода на базе нечетких правил позволяют строитьобъяснения как обратные протоколы вывода (ответы на вопрос ПОЧЕМУ?).Нейронные сети обучаются с помощью универсального алгоритма, то естьтрудоемкое извлечение знаний заменяется сбором достаточной по объемуобучающей выборки. Для нечетких систем вывода построение включаетв себя трудоемкие процессы формализации понятий, построения функций

152 УДК 004.032.26 (06) Нейронные сети

Page 153: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

принадлежности, формирования правил вывода. А нечеткие нейронныесети обучаются как нейронные сети, но строят объяснения как системынечеткого вывода. В гибридных системах генетические алгоритмы (ГА)способны выполнить настройку функций принадлежности. Функция при-надлежности задается параметризованной функцией формы, параметры ко-торой оптимизирует ГА. ГА может оптимизировать и состав больших базнечетких продукций или структуру нейронной сети, в результате возникаютгенетические нечеткие нейронные сети. Однако названные причины фор-мирования гибридных систем, которые составляют основное содержаниевычислительного интеллекта, являются технологическими прикладнымипричинами.

Существует, на наш взгляд, более важная и общая фундаментальнаяпричина развития вычислительного интеллекта. Эту причину можно обо-значить как необходимость объединить в единую систему восприятие илогическую обработку. Исторически исследование восприятия (нейронныесети, распознавание образов) развивается отдельно от классического ис-кусственного интеллекта, моделирующего логическое мышление.

Существуют разрыв между бионическим интеллектом искусственныхнейронных сетей, моделирующих восприятие, и логическим интеллектомсистем логического вывода. Между тем естественный интеллект, видимо,не имеет такой резкой границы. Грубую схему «слоев естественного ин-теллекта» можно описать следующей формулой [1]:

сенсорика + моторика + безусловные и условные рефлексы++ врожденные программы (инстинкты) + мышление = интеллект.

Возможно, эффективность человеческого интеллекта состоит в том, чтовсе такие слои работают согласованно, помогая ему решать многие недо-ступные искусственным системам задачи. Вычислительный интеллект объ-единяет в гибридные системы искусственные модели таких слоев. Сказан-ное позволяет рассматривать вычислительный интеллект не как технологи-ческое достижение, а как парадигму развития искусственного интеллектав XXI веке. Поэтому вычислительный интеллект, сочетающий восприятие(perception based theory) и мышление (computing with words), во всякомслучае, уместен в решении интеллектуальных задач.

Вычислительный интеллект в широком смысле ищет и предлагает мето-дологическую схему, содержащую неполную, нечеткую и неточную инфор-мацию, но решающую интеллектуальные задачи. Вычислительный интел-

УДК 004.032.26 (06) Нейронные сети 153

Page 154: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

лект в узком смысле ищет схемы гибридизации интеллектуальных техноло-гий, обладающие преимуществами перед их автономным использованием.Общая задача объединения моделей восприятия и логической обработкина уровне структуры должна проявляться в том, что появляются схемы,работающие с вещественными числами (перцепция) и дискретными сиг-налами истины (логика). Как мы увидим ниже, схемы гибридных системвключают в себя не только классические нейроны, но и И, ИЛИ– нейроны.

Наряду с термином «мягкие вычисления» используется и другой ин-тегрирующий термин — вычислительный интеллект. В рамках вычисли-тельного интеллекта очень многие исследователи разрабатывают системы,объединяющие составные части мягких вычислений. В настоящее времясуществуют в основном нейро-нечеткие системы. Однако растет числонечетко-генетических, нейро-генетических и нейро-нечетко-генетическихсистем. В данной лекции анализируется эффективное использование и по-лезные комбинации составных частей мягких вычислений (МВ): нечеткойлогики (НЛ) для контроля параметров генетических алгоритмов (ГА) и ней-ронных сетей (НС), ГА для формирования НС (топологии и весов), НС длянастройки нечетких контроллеров.

Нечеткие системы

Нечеткие множества

Нечеткие системы опираются на лингвистическое описание отношениймежду переменными процессов. В отличие от базовых значений нечеткиезначения представляют собой слова повседневного языка, то есть они могутописывать человеческий опыт и знания о процессах.

Пример 1. Определение множеств нечетких значений.Объектная переменная — дата.Множество нечетких значений:

F1 ={начало недели, середина недели, конец недели

}.

Функции принадлежности: Определение и смысл

В любой ситуации признак объекта проблемной области имеет одно итолько одно четкое значение из согласованного множества базовых и одно

154 УДК 004.032.26 (06) Нейронные сети

Page 155: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

ТАБЛИЦА 1. Функции принадлежности для понятия «дата»

b f1 f2 f3 µ(b, f)Пн. 1.0 0.0 0.0 1.0Вт. 0.6 0.6 0.0 1.2Ср. 0.0 1.0 0.0 1.0Чт. 0.0 0.6 0.3 0.9Пт. 0.0 0.0 0.7 0.7Сб. 0.0 0.0 0.9 0.9Вс. 0.0 0.0 1.0 1.0

или более чем одно нечеткое значение из соответствующего множестванечетких значений. Выберем для объектной переменной «дата» множествобазовых значений:

B ={Пн., Вт., Ср., Чт.,Пт., Сб., Вск.

}и множество нечетких значений:

F ={начало недели, середина недели, конец недели

}.

Сущности «дата» и четкому значению «среда», соответствует нечеткое— середина недели. «Среду» с трудом можно отнести на «начало недели»или «конец недели».

Интуитивное отношение между базовым и нечетким значением объ-ектной переменной выражают количественно с помощью функции принад-лежности, обозначаемой греческой буквой µ.

Функция µ(b, f) отображает базовое значение b и нечеткое значениеf в интервал [0; 1]. По определению, 0 � µ(b, f) � 1 для b и f . Еслиµ(b0, f0) = 0 для пары значений (b0, f0), то четкое значение b0 не при-надлежит нечеткому f0 и не является членом f0. Если µ(b0, f0) = 1, тоb0 ∈ f0. Частичная или неопределенная принадлежность выражается зна-чением функции, лежащими в интервале между 0 и 1.

Рассмотрим таблицу значений µ(b, f) для объектной переменной «дата»(табл. 1). Сумма чисел по горизонтали часто, но не обязательно близка к1.0. Реально это означает, что нечеткие значения не покрывают формальноспектр базовых значений.

УДК 004.032.26 (06) Нейронные сети 155

Page 156: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Нечеткие числа

Часто признаки объектов проблемной области с одной стороны описыва-ются четкими числами как базовыми значениями, а с другой — нечеткими,такими как ∼ 1, ∼ 2.5, «грубо 6.0». Соответствующие функции принад-лежности строятся как кривые Гаусса или треугольные функции.

Нечеткие интервалы

Рассмотрим объектную переменную с базовыми упорядоченными действи-тельными числами и нечеткими значениями, заданными в виде нечеткихинтервалов, например: грубо между 1 и 5, приблизительно в интервалеот 100 до 120, вероятно, между 5 и 6. Функция принадлежности обычностроится как трапециевидная по форме.

Операции с нечеткими множествами

Дополнительное множество НЕ . Рассмотрим определение операциидополнения в классической теории множеств. Пусть M — нечеткое множе-ство элементов из множества базовых значений B, тогда дополнительноемножество ¬M , определяется как множество из тех базовых элементов B,которые не принадлежат множеству

M : ¬M = {b; b ∈ B, b /∈ M}.

Определим дополнение в теории нечетких множеств. Рассмотрим нечеткоемножество M = {(b, µ); b ∈ B, 0 � µ � 1}, дополнительное нечеткомумножеству ¬M , определяемому как

¬M = {(b, (1 − µ)), b ∈ B, 0 � µ � 1}.

Пересечение И . Рассмотрим определение операции пересечения в тра-диционной теории множеств. Пусть заданы два множества M1 и M2 эле-ментов из множества базовых значений B, тогда пересечение множествM = M1 ∩ M2 определяет множество, элементы которого из B принадле-жат к обоим множествам M1 и M2 одновременно

M = M1 ∩ M2 = {b; b ∈ M1 и b ∈ M2}.

156 УДК 004.032.26 (06) Нейронные сети

Page 157: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

Определим операцию пересечения в теории нечетких множеств. Пусть за-даны два нечетких множества

M1 = {(b, µ1) |b ∈ B, 0 � µ1 � 1},M2 = {(b, µ2) |b ∈ B, 0 � µ2 � 1}.

Пересечение нечетких множеств определяется как

M = M1 ∩ M2 = {(b, min(µ1, µ2))}.

Значение b0 ∈ M1 и b0 ∈ M2 полностью содержится в M1 ∩ M2:

µ1(b0) = 1; µ2(b0) = 1 ⇒ min(µ1, µ2) = 1.

Значение b0, частично содержащееся в M1 или в M2, только частичносодержится в M1 ∩ M2:

0 � µ1(b0) � 1; 0 � µ2(b0) < 1 ⇒ 0 � min(µ1, µ2) � 1.

Если значение b0 /∈ M1 и b0 /∈ M2, то оно не содержится в

M1 ∩ M2 : µ1(b0) = 0, µ2(b0) = 0 ⇒ min(µ1, µ2) = 0.

Объединение ИЛИ . Рассмотрим определение операции объединения втрадиционной теории множеств. Пусть даны два множества M1 и M2 эле-ментов базового множества B, тогда объединением множеств M = M1∪M2

называется множество, содержащее такие элементы B, которые принадле-жат множествам M1 или M2 или обоим одновременно:

M = M1 ∪ M2 ⇒ {b; b ∈ M1 или b ∈ M2}.

Определим объединение в теории нечетких множеств. Пусть даны дванечетких множества

M1 = {(b, µ1)| b ∈ B, 0 � µ1 � 1},M2 = {(b, µ2)| b ∈ B, 0 � µ2 � 1},

тогда объединением множеств M = M1 ∪ M2 называется

M = {(b,max(µ1, µ2))| b ∈ B, 0 � µ1 � 1, 0 � µ2 � 1}.УДК 004.032.26 (06) Нейронные сети 157

Page 158: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Для заданного множества F = {f} нечетких значений объектной пере-менной A, мы можем добавить новые термины, используя связку ИЛИ.Функция принадлежности нового значения объектной переменной A опре-деляется как:

µ(b, f1 ИЛИ f2) = max[µ(b, f1), µ(b, f2)], ∀f1 ИЛИ f2 ∈ A.

M(f1 ИЛИ f2) = {b | µ(b, f1 ИЛИ f2)} == {b | max(µ(b, f1), µ(b, f2))} = M(f1) ∪ M(f1).

Следовательно, нечеткое множество, принадлежащее к нечетким значениямf1 ИЛИ f2, это нечеткая дизъюнкция множеств, принадлежащих f1 и f2.

Обобщенные определения пересечения и объединения нечетких мно-жеств . Выше мы определили операции пересечения и объединения двухнечетких множеств следующим образом:

• пересечение:

M1 ∩ M2 = {b | min(µ1, µ2)},

• объединение:

M1 ∪ M2 = {b | max(µ1, µ2)}.

Фактически эти определения — специальные случаи общего, использу-ющего понятия T–норм и S–конорм [19]. Эти выражения обозначают функ-ции со специальными свойствами, которые будут детально обсуждаться да-лее. T–нормы и S–конормы обладают двумя важными свойствами. T (x, y)и S(x, y) — это функции двух действительных переменных x и y, опре-деленных на интервалах [0, 1] × [0, 1]. Значения функций T (x, y) и S(x, y)также находятся в интервале 0 � T (x, y) � 1 и 0 � S(x, y) � 1. Исполь-зуя любые T–нормы T (x, y) и S–конормы S(x, y), обобщим определенияопераций над нечеткими множествами:

• пересечение:

M1 ∩ M2 = {b | T (µ1, µ2)},

158 УДК 004.032.26 (06) Нейронные сети

Page 159: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

ТАБЛИЦА 2. T–нормы

T (x, y) Имя функции

y ={

0 , если max(x, y) > 1min(x, y) , если max(x, y) � 1 ограниченное произведение

max(0, x + y − 1) усиленная разностьx∗y

1+(1−x)∗(1−y) произведение Эйнштейнаx ∗ y алгебраическое произведениеx∗y

1−(1−x)∗(1−y) произведение Гамахераmin(x, y) минимум

• объединение:

M1 ∪ M2 = {b | S(µ1, µ2)}.

• операция И:

µ(b, f1 И f2) = T (µ(b, f1), µ(b, f2)).

• операция ИЛИ:

µ(b, f1 ИЛИ f2) = S(µ(b, f1), µ(b, f2)).

Далее будет показано что для 0 � x � 1 и 0 � y � 1 функция min(x, y)соответствует T–норме и функция max(x, y) — S–конорме. В табл. 2 и 3перечислены некоторые широко известные T–нормы и S–конормы [3].

Общие свойства T-норм и S-конорм

T–нормы и S–конормы имеют следующие общие свойства:

• интервалы определения:

0 � x � 1, 0 � y � 1;

• интервал значений:

0 � T (x, y) � 1, 0 � S(x, y) � 1;

УДК 004.032.26 (06) Нейронные сети 159

Page 160: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

ТАБЛИЦА 3. S–конормы

S(x, y) Имя функции

max(x, y) максимум1 − (1 − x) ∗ (1−y)

(1−x∗y) сумма Гамахера1 − (1 − x) ∗ (1 − y) алгебраическая сумма1 − (1 − x) ∗ (1−y)

(1+x∗y) сумма Эйнштейнаmin(1, x + y) ограниченная сумма

y ={

1 , если min(x, y) > 0max(x, y) , если min(x, y) = 0 усиленная сумма

• коммутативность:

T (x, y) = T (y, x), S(x, y) = S(y, x);

• ассоциативность:

T [T (x, y), z] = T [x, T (y, z)],S[S(x, y), z] = S[x, S(y, z)];

• монотонность:

Если x = u и y = v, то T (x, y) = T (u, v), S(x, y) = S(u, v);

• специальные значения:

T (0, y) = 0,S(0, y) = y,

T (1, y) = y,

S(1, y) = 1.

Каждая функция со свойствами T называется T–нормой или триангу-лярной нормой, а со свойствами S — S–конормой или триангулярной ко-нормой. Каждая пара триангулярных норм и конорм, которые подчиняютсяобобщенным отношениям Де-Моргана, называется парой относительныхтриангулярных норм. Все функции принадлежности (как для И, так и дляИЛИ–связок нечетких значений) выбираются такими же далекими друг

160 УДК 004.032.26 (06) Нейронные сети

Page 161: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

от друга, как пары относительных триангулярных T–норм и S–конорм.T–нормы выбираются для И, S–конормы — для ИЛИ. Функции называюттриангулярными потому, что соотношения

T (x, y) = T (y, x) и S(x, y) = S(y, x)

выполняются только в треугольной области 0 � x � 1, 0 � y � x.

Нечеткие отношения

Общие определения. В практических приложениях бывает полезно со-единить два стандартных нечетких множества в одно комбинированноенечеткое множество, называемое декартовым произведением. Подобнаяконцепция широко используется в традиционной теории множеств.

Предположим имеется два объекта проблемной области A и B с двумямножествами базовых значений {a} и {b}, нечетких значений {f} и {g}, ифункциями принадлежности p(a, f) и q(b, g), соответственно. Сущности Aи B могут быть как различными, так и фактически идентичными.

Рассмотрим два нечетких множества P (f) = {a|p(a, f)} объектной пе-ременной A и Q(g) = {b|q(b, g)} переменной B. Операция n(x, y) будетнормой или конормой, соответственно. Определим произведение множествP (f) и Q(g) следующим образом:

Z(f, g) = P (f) ⊗ Q(g) = {(a, b)| n[p(a, f), q(b, g)]},{a, p(a, f)} ∈ P (f), {b, q(b, g))} ∈ Q(g).

Другими словами, Z — это множество всех триплетов a, b, n, где a и b ба-зовые значения A и B, f и g нечеткие значения A и B, а n[p(a, f), q(b, g)] =µ[(a, b), (f, g)] определяет комбинированную принадлежность базовых зна-чений (a, b) нечетким значениям (f, g).

Если пара (f, g) нечетких значений связывается связкой И, т. е. (f, g) =f И g, то требуется выбрать T–норму n(x, y). Если (f, g) = f ИЛИ g,то необходимо связывать f и g функцией n(x, y), которая должна бытьS–конормой.

Двухместные нечеткие множества. Нечеткое бинарное отношение.Пусть X и Y — непустые множества. Нечеткое отношение R — это нечет-кое подмножество X ⊗Y . Другими словами, R ∈ F (X ⊗Y ). Если X = Y ,

УДК 004.032.26 (06) Нейронные сети 161

Page 162: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

то говорят, что R — это бинарное нечеткое отношение на X . Если R — этобинарное нечеткое отношение на X ⊗X , тогда R(x, y) можно интерпрети-ровать как степени принадлежности упорядоченных пар (x, y).Пример 2. Бинарное нечеткое отношение.

Бинарное нечеткое отношение на множестве U = {1, 2, 3} назовем«приблизительно равно»

R(1, 1) = R(2, 2) = R(3, 3) = 1,R(1, 2) = R(2, 1) = R(2, 3) = R(3, 2) = 0.6,

R(1, 3) = R(3, 1) = 0.2.

Значимость нечетких отношений обусловлена тем, что они описывают вза-имодействие между переменными.

Операции над нечеткими отношениями. Пусть R и S — два бинар-ных нечетких отношения на X × Y . Пересечение R и S определяетсяследующим образом:

(R ∩ S)(x, y) = min(R(x, y), S(x, y)),

где R,S : X × Y → [0, 1].Объединение R и S определяется как

(R ∪ S)(x, y) = max(R(x, y), S(x, y)).

Проекции двухместных функций принадлежности. Если в двух-местных функциях принадлежности [(a, b), (f, g)] = n[p(a, f), q(b, g)], пе-ременные b и g зафиксировать на уровне значений b = b0 и g = g0 объект-ной переменной B, то функция ν(a, f) = µ[(a, b0), (f, g0)] называется про-екцией µ[(a, b), (f, g)] на значения (b0, g0) переменной B. Функция ν(a, f)зависит только от двух переменных a, f и представляет собой принад-лежность базовых значений объектной переменной A к нечетким, причемимеется столько проекций ν(a, f) двухместных функций принадлежностиµ[(a, b), (f, g)], сколько возможно комбинаций (b0, g0). Проекцией нечетко-го отношения является тоже нечеткое множество. Для того чтобы задатьпроекции, необходимо указать их функции принадлежности. Нечеткие про-екции [15] нечеткого отношения определяются следующим образом:

ΠXR(x, y) = supR(x, y) | y ∈ Y,

ΠY R(x, y) = supR(x, y) | x ∈ X.

162 УДК 004.032.26 (06) Нейронные сети

Page 163: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

Определение проекций позволит в дальнейшем определить композициюнечетких отношений и композицию нечеткого множества c нечетким отно-шениям.

Графически проекция нечеткого отношения приведена на рис. 1.Нечеткое множество A нормально тогда и только тогда, когда supx µA(x) =

1. Если A и B — нормальные множества, то

Πy(A ⊗ B) = B,

Πx(A ⊗ B) = A,

Πx(x) = sup{(A ⊗ B)(x, y) | y ∈ Y

}=

= sup{A(x) ∩ B(y) | y ∈ Y

}=

= min{A(x), sup{B(y)} | y ∈ Y

}=

= min{A(x), 1

}= A(x).

Функции нечетких переменных

Функции с одной независимой переменной. Для описания проблем-ной области используются либо четкие числа x из некоторого множествачетких {x}, либо нечеткие числа f из некоторого множества нечетких зна-чений {f}. Представления связаны друг с другом функцией принадлежно-сти µ(x, f) соответствующего нечеткого множества X(f) = {(x, µ(x, f))}.

Функция w = fun(x) может быть задана алгоритмом, который каж-дому четкому числу x из {x} ставит в соответствие только одно чет-кое число w из определенного множества {w} действительных чисел.Функция w = fun(x) — это «образ» x после выполнения преобразованияfun(x) : x → w. Существует ли подобное определение функции для нечет-ких чисел? Пусть f0 — некоторое нечеткое число (например, f0 = «около3.4»), а X(f0) = {(x|µ(x, f0)} — соответствующее нечеткое множество.Тогда найдем нечеткое множество W .

• Пусть (x0, µ0) — любой элемент нечеткого множества X(f0), тогдачеткое значение w0 определяется по формуле w0 = fun(x0).

• Принадлежность r(w0) вычисляется следующим образом:– соберем все (x, µ) ∈ X(f0) с fun(x) = w0 , пусть этими элемен-

тами будут (x0, µ0), (x1, µ1), . . . , (xN , µN ),– вычислим r0 = S(µ0, µ1, . . . , µN ) по некоторой ранее согласо-

ванной S–конорме,

УДК 004.032.26 (06) Нейронные сети 163

Page 164: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 1. Проекция и композиция нечеткого отношения

164 УДК 004.032.26 (06) Нейронные сети

Page 165: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

• В результате W = {(w, r)} будет множеством всех пар (w, r) =(w0, r0), вычисленных для всех возможных элементов (x0,m0) ∈X(f0).

Рассмотрим W как нечеткое множество нечетких чисел p0, определен-ных на множестве {w} базовых значений w. Нечеткое число p0 рассматри-вается как «образ» p0 = fun(f0). Так W получает значения W (fun(f0)). Вобщем случае для любого нечеткого числа из {f} справедливо:

x → w = fun(x), f → p = fun(f), X(f) → W (p).

Если нечеткое множество W получено из нечеткого множества X , то гово-рят, что существует отношение между X и W или X → W [13].

Композиция нечеткого множества и отношения. Выразим процеду-ру вычисления функции от нечеткого значения с помощью формул опера-ций sup−min [15]. Композиция sup−min нечеткого множества C ∈ F (X)и нечеткого отношения R ∈ F (X ⊗ Y ) определяется как

(C ◦ R)(y) = supx∈X

min{C(x), R(x, y))

для всех y ∈ Y .Композицию нечеткого множества C и нечеткого отношения R можно

представить как тень отношения R на нечеткое множество C (рис. 1).Пусть A и B — нечеткие числа, а R ⊂ A ⊗ B будет нечетким отноше-

нием. Очевидны следующие свойства композиции

A ◦ R = A ◦ (A ⊗ B) = A,

B ◦ R = B ◦ (A ⊗ B) = B,

Определим sup−min композицию нечетких отношений. Пусть R ∈(X⊗Y ) и S ∈ F (Y ⊗Z). Тогда sup−min композиция R и S, обозначаемаяR ◦ S, определяется как

(R ◦ S)(u,w) = supx∈X{R(u, v), S(v, w)}.

Очевидно, что R ◦S — бинарное нечеткое отношение на X и Z (рис. 1).

УДК 004.032.26 (06) Нейронные сети 165

Page 166: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Нечеткие системы

Определение лингвистической переменной. Системы нечетких про-дукций строятся на основе понятия лингвистической переменной, которойназывают пятерку объектов:

(x, T (x), U,G,M),

где x — собственное имя переменной; T (x) — терминальное множество,т. е. набор значений переменной (нечетких меток); U — множество объ-ектов (или универсум); G — синтаксические правила употребления; M —семантические правила употребления [8]. Примерами лингвистических пе-ременных служат: количество денежных средств в финансовых решениях;температура, давление воздуха в технических процессах; средняя отметкав процессах образования; плотность населения в социальных процессах.Количество денежных средств может быть выражено как: большое, малое,1000 рублей, значительное, незначительное; динамика давления воздуха— выросло, осталось прежним, максимально низкое, 1023 Pa; отметка —отлично, хорошо, удовлетворительно, неудовлетворительно; численностьнаселения — значительная, средняя, малая.

Схема приближенного логического вывода. Задача интерполяции.Рассмотрим логический вывод по нечетким продукциям на основе теорииприближенных вычислений. Пусть

y = f(x) — предпосылка,

x = x′ — факт,

y′ = f(x′) — заключение.

Предпосылку рассуждения f(x) зададим с помощью N значений функ-ции:

R1 : если x1, то y1;R2 : если x2, то y2;

· · ·Rn : если xn, то yn.

Текущее значение x = x′.

166 УДК 004.032.26 (06) Нейронные сети

Page 167: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

Необходимо найти значение y′, зависящее от x′. Нечеткая задача ин-терполяции формулируется с использованием зависимостей нечетких мно-жеств:

R1 : если A1(x1), то B1(y1);R2 : если A2(x2), то B2(y2);

· · ·Rn : если An(xn), то Bn(yn);

и нечеткого значения входной переменной — C(x′).Необходимо найти значение D(y′), входящего в заключение.Обобщив нечеткую зависимость переменных x и y, получим продук-

цию: если A(x), то B(y). Цель нечеткого логического вывода — опреде-лить значения выходной переменной B′(y) от входной переменной C(x′).Результирующее нечеткое множество B′ = C ◦ (A → B) — композициянечеткого множества C и импликации нечетких множеств A → B. Нечет-кое множество B′ заключения вычисляется как композиция двух нечеткихмножеств — факта и импликации. Композиция факта и импликации пред-ставляет собой проекцию импликации на факт.

A′ ◦ (A → B) = sup min(A′, A → B); y ∈ Y.

На основании задачи нечеткой интерполяции строят оболочку экспертнойсистемы, осуществляющей вывод на словах [15].

Основные правила умозаключений. Основными правилами умоза-ключений являются два силлогизма: modus ponens (MP) и modus tollens(MT). Рассмотрим изменение основных правил вывода в случае, если пред-посылка и заключение выражаются в терминах нечетких множеств.

Нечеткий modus ponens (Fuzzy MP):

если A(x) → B(x), A′(x), то B′(x).

Нечеткий modus tollens (FMT):

если A(x) → B(x), ¬B′(x), то ¬A′(x).

При использовании систем нечеткого вывода особое значение имеетдефазификация, т. е. определение четкого представляющего элемента по

УДК 004.032.26 (06) Нейронные сети 167

Page 168: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

нечеткому множеству. Самым распространенным методом дефазификацииявляется определение центра тяжести фигуры, образуемой функцией при-надлежности и осью абсцисс (центроидный метод). С его помощью вычис-ляют центр тяжести фигуры:∫

wz ∗ C(z)dz∫W

C(z)dz⇒

∑ni=1 zi ∗ C(zi)∑n

i=1 C(zi).

На практике используют метод выбора максимума:

Z = min{Z|C(Z) = max(C(Z))}.

В некоторых системах применяют также методы минимального и среднегомаксимума. Правильно выбранная дефазификация существенно влияет наэффективность работы системы нечеткого вывода.

Универсальная аппроксимация с помощью систем нечеткого вы-вода. Свойство универсальности применения систем нечеткого выводадоказано следующей фундаментальной теоремой. В 1992 году У. Ванг по-казал, что справедливо следующее утверждение: если нечеткая импликацияоснована на использовании операции минимум, функция принадлежностизадается гауссовым распределением:

µ(t) = exp(−1/2 ∗ ((a − t2)/b))

и используется центроидный метод дефазификации, то система нечеткоговывода является универсальным аппроксиматором.

В 1995 году К. Кастро доказал справедливость следующей теоремы:если импликация основана на использовании операции произведения поЛарсену, а функции принадлежности — треугольные, то при использова-нии центроидной дефазификации нечеткий контроллер является универ-сальным аппроксиматором [11].

Схемы нечеткого вывода Рассмотрим различные схемы вывода на базенечетких правил. Пусть входная переменная x является каким-либо нечет-ким множеством A, и y — нечетким множеством B, тогда выходная пере-менная z является нечетким множеством C. Если задан факт x = x0, y = y0,то необходимо найти z = z0.

168 УДК 004.032.26 (06) Нейронные сети

Page 169: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

Схема вывода на базе нечетких правил сводится к решению следующейзадачи:

База правил

R1 : если (X is A1) И (Y is B1) тогда (Z is C1),в противном случае

R2 : если (X is A2) И (Y is B2) тогда (Z is C2),в противном случае

· · ·Rn : если (X is An) И (Y is Bn) тогда (Z is Cn).

Факт: x = x0, y = y0.Следствие z =?Для реализации интеллектуальной системы логического вывода по базе

нечетких правил, необходимо определить функции:• представления в системе нечетких понятий (функций принадлежно-

сти);• вычисления логических выражений условных частей правил с логи-

ческими связками И, ИЛИ;• вычисления импликации;• усреднения результата, получаемого по разным правилам путем ком-

позиции.

Каждая из четырех перечисленных выше функций задает вариативностьсхемы нечеткого вывода.

Интеллектуальная система осуществляет логический вывод по базенечетких правил по этапам.

• Фазификация фактических данных, т. е. точное значение x0 интер-претируется как нечеткая точка.

• Композиция входной переменной и условной части правила: x0 ◦Ai, y0 ◦ Bi, т. е. вычисляется уровень пригодности правила к ситу-ации. Если факт задан нечеткой точкой, то композиция сводится квыявлению соответствующей степени принадлежности.

• Вычисление нечеткой импликации.

((x0 ◦ Ai) ∩ (y0 ◦ Bi)) → Ci

для ∀R. Результатом выполнения для всех правил являются N нечет-ких значений для выхода Z.

УДК 004.032.26 (06) Нейронные сети 169

Page 170: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

• Агрегация среднего значения, т. е. построение нечеткого значения вы-хода по результатам предыдущих этапов.

C = ∪ni=1Ci.

• Дефазификация, т. е. выбор представляющего элемента по агрегиро-ванному нечеткому понятию.

Схемы нечеткого вывода у разных авторов уточняются тем не менеетолько до оператора нечеткой импликации. Распространены пять схемнечеткого вывода [15]. В схеме 1 нечеткого вывода Мамдани импликациямоделируется минимумом, а агрегация — максимумом (рис. 2).

Схема 2 разработана Цукамото для монотонных функций принадлеж-ности.

На рис. 2 использованы следующие обозначения: L′1, L

′2 — уровни до-

стоверности применения правил, z1, z2 — значения выходной переменнойпо первому и второму правилу,

z′1 = C−11 (L1),

z′2 = C−12 (L2),

z =L′

1z1 + L′2z2

L′1 + L′

2

.

Ввиду монотонности функций вычисления выходной переменной сводят кусреднению значений, полученных по разным правилам.

Схема 3 по Суджено ограничивает правые части правил вывода линей-ным случаем:

Если (x is A1) И (y is B1) тогда (z = a1 ∗ x + a2 ∗ y),Если (x is A2) И (y is B2) тогда (z = b1 ∗ x + b2 ∗ y).

Схема 4 по Ларсену выполняет импликацию с помощью произведения.Схема 5 — это упрощенная схема нечеткого вывода:

Если (x is Ai) И (y is Bi) тогда (z = Zi),

где Zi — четкое значение.Так как правые части правил в упрощенной схеме логического вывода

задаются четко, то в результате вывода получается дискретное множестворешений, для каждого элемента которого задана определенная степень уве-ренности. В качестве значений выходной переменной выбирается значениес максимальной уверенностью.

170 УДК 004.032.26 (06) Нейронные сети

Page 171: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

РИС. 2. Схемы нечеткого вывода по Мамдани и Цукамото

УДК 004.032.26 (06) Нейронные сети 171

Page 172: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Генетические вычисления

Генетические алгоритмы

Генетические алгоритмы — это адаптивные методы поиска, которые в по-следнее время часто используются для решения задач функциональнойи структурной оптимизации. Генетическими они называются потому, чтостроятся на принципах эволюции биологических организмов Ч. Дарвина.Популяции развиваются в течение нескольких поколений, подчиняясь за-конам естественного отбора, т. е. принципу «выживает наиболее приспо-собленный» (survival of the fittest). Генетические алгоритмы (ГА) способны«развивать» решения реальных задач, если те закодированы соответству-ющим образом. ГА могут использоваться для проектирования структурымеханизмов, поиска оптимальной формы детали, раскроя ткани. Напри-мер, израильская компания Schema на основе ГА разработала программныйпродукт Channeling для оптимизации работы сотовой связи путем выбораоптимальной частоты, на которой будет вестись разговор.

Основные принципы ГА были сформулированы Дж. Голландом. ГА при-ближенно моделирует процессы, происходящие в популяциях. В природеособи в популяции конкурируют друг с другом за различные ресурсы, завозможность породить потомство. Наиболее приспособленные к окружаю-щим условиям особи будут иметь больше шансов воспроизвести потомков.Следовательно, гены высоко адаптированных особей распространяются впопуляции и количество их потомков возрастает в каждом последующемпоколении, т. е. вид развивается за счет приспособления к среде обитания.ГА по аналогии с эволюционным механизмом работают с популяцией, каж-дая из хромосом которой представляет возможное решение данной зада-чи. Каждая хромосома оценивается мерой ее «приспособленности» (fitnessfunction), которую называют также функцией оптимальности. В частно-сти, мерой приспособленности хромосом, кодирующих монтажную схемурадиотехнического изделия, может служить длина проводников в задачеразмещения элементов. Наиболее приспособленные особи получают воз-можность «воспроизвести» потомство с помощью «перекрестного скре-щивания» (recombination) с другими особями популяции. В результате по-являются новые особи, сочетающие в себе характеристики, наследуемыеими от родителей. Наименее приспособленные особи постепенно исчезаютиз популяции в процессе эволюции. Новое поколение обладает лучшимихарактеристиками по сравнению с предыдущим. Скрещивание наиболее

172 УДК 004.032.26 (06) Нейронные сети

Page 173: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

приспособленных особей приводит к тому, что эволюция отыскивает пер-спективные решения в широком пространстве поиска. В конечном итоге,популяция сходится к оптимальному решению задачи. Существует многоспособов реализации идеи биологической эволюции в рамках ГА. Традици-онным считается ГА, представленный ниже с использованием псевдокода.Большими буквами записаны управляющие операторы алгоритма, а курси-вом — генетические операторы [4, 10]:

НАЧАЛО — генетический алгоритмСоздать начальную популяциюОценить приспособленность каждой особиостанов := ЛОЖЬ

ПОКА НЕ останов ВЫПОЛНЯТЬНАЧАЛО — создать популяцию нового поколенияПОВТОРИТЬ ( размер популяции / 2) РАЗНАЧАЛО — цикл воспроизводства

Выбрать две особи с высокой приспособленностьюиз предыдущего поколения для скрещивания

Скрестить выбранные особи и получить двух потомковОценить приспособленности потомковПоместить потомков в новое поколение

КОНЕЦЕСЛИ приспособленность лучшего потомка > порога ТО

останов := ИСТИНАКОНЕЦКОНЕЦ

Применение генетических алгоритмов

ГА применяются для решения многих конкретных научных и техническихпроблем, но самое популярное приложение генетических алгоритмов — оп-тимизация многопараметрических функций. Эффективность ГА заключенав его способности манипулировать одновременно многими параметрами,которая использовалось во многих прикладных программах, включая про-ектирование интегральных схем, настройку параметров алгоритмов, поискрешений нелинейных дифференциальных уравнений и др.

Эффективность применения ГА [9] зависит от характеристик задачи.Если пространство поиска в задаче небольшое, то решение можно най-ти методом полного перебора и ГА не нужен для решения задачи. Если

УДК 004.032.26 (06) Нейронные сети 173

Page 174: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

пространство гладкое и унимодальное, то любой градиентный алгоритмбудет эффективнее ГА. Если существует дополнительная информация опространстве поиска, то методы поиска, использующие эвристики, частопревосходят ГА.

Если существует дополнительная информация о пространстве поиска,то методы поиска, использующие эвристики, часто превосходят ГА. Об-ласть применения ГА — задачи с большим пространством поиска решенийи отсутствием эвристической информации. Эффективность ГА зависит нетолько от параметров задачи, но и от характеристик метода кодировки ре-шений, выбора генетических операторов, настройки параметров.

Стандартный ГА

Для реализации ГА сначала выбирают подходящую структуру для пред-ставления оптимизируемых решений. С точки зрения задачи поиска, однорешение представляет точку в пространстве поиска всех возможных ре-шений. Популяция решений состоит из одной или большего количествахромосом. Обычно хромосома — это битовая строка, хотя ГА используютне только бинарное представление. Хромосомы строят с использованиемвекторов вещественных чисел, строк фиксированной или переменной дли-ны. Каждая хромосома представляет собой конкатенацию ряда подстрок,называемых генами. Гены располагаются в различных позициях или локу-сах хромосомы, и принимают значения, называемые аллелями, т. е. ген —бит, локус — его позиция в строке, и аллель — его значение (0 или 1). Био-логический термин «генотип» относится к полной генетической модели исоответствует структуре хромосомы в ГА. Термин «фенотип» относитсяк внешним наблюдаемым признакам и соответствует вектору в простран-стве параметров. Обычно, методика кодирования реальной переменной xсостоит в ее преобразовании в двоичные целочисленные строки заданнойдлины.

С помощью пропорционального отбора назначают каждой i-ой хро-мосоме вероятность Ps(i), равную отношению ее приспособленности ксуммарной приспособленности популяции:

Ps(i) =f(i)∑ni=1 f(i)

Отбор и замещение всех n особей происходит в соответствии с величи-ной Ps(i). Простейший оператор пропорционального отбора — «рулетка»

174 УДК 004.032.26 (06) Нейронные сети

Page 175: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

(roulette-wheel selection), которая отбирает особей с помощью n «запус-ков» рулетки. Колесо рулетки содержит по одному сектору для каждогочлена популяции. Размер i-ого сектора пропорционален соответствующейвеличине Ps(i). При таком отборе члены популяции с более высокой при-способленностью выбираются чаще, чем особи с низкой. ГА выполняетоператор рекомбинации (кроссовер) для n выбранных особей с заданнойвероятностью Pc, для чего n строк разбиваются на (n/2) пар случайнымобразом.

Для каждой пары применяется кроссовер с вероятностью Pc. Выра-жение (1 − Pc) выражает вероятность сохранения особей, которые пере-ходят на стадию мутации. Потомки, полученные с помощью кроссовера,заменяют собой родителей и также переходят к мутации. Одноточечныйкроссовер работает следующим образом. Сначала, случайным образом вы-бирается одна из (l − 1) точек разрыва. Точка разрыва — граница междусоседними битами в строке. Родительские структуры разрываются в этойточке на два сегмента. Затем, соответствующие сегменты различных роди-телей склеиваются и получаются два генотипа потомков.

После стадии кроссовера выполняются операторы мутации, которыес вероятностью Pm изменяют случайный бит в каждой строке на про-тивоположный. Популяция, полученная после мутации, замещает старуюи обработка одного поколения завершается. Последующие поколения об-рабатываются в вышеописанной последовательности: отбор, кроссовер имутация. В настоящее время используют разные операторы отбора, кроссо-вера и мутации. Например, турнирный отбор реализует n турниров, чтобывыбрать n особей. Каждый турнир построен на выборке k элементов изпопуляции, и выбора лучшей особи среди них. Наиболее распространентурнирный отбор с k = 2. Элитные методы отбора гарантируют, что приотборе обязательно будут выживать лучшие члены популяции [9]. Двухто-чечный и равномерный кроссовер могут использоваться вместо одноточеч-ного оператора. В двухточечном кроссовере выбираются две точки разрыва,и родительские хромосомы обмениваются сегментом, который находитсямежду двумя этими точками. В равномерном кроссовере, каждый бит пер-вого родителя наследуется первым потомком с заданной вероятностью; впротивном случае этот бит передается второму потомку.

УДК 004.032.26 (06) Нейронные сети 175

Page 176: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Гибридные системы

Нечеткие нейронные сети

Преимущества аппарата нечетких нейронных сетей Эффективностьаппарата нейросетей определяется их аппроксимирующей способностью,причем НС являются универсальными функциональными аппроксиматора-ми. С помощью НС можно выразить любую непрерывную функциональ-ную зависимость на основе обучения НС, без предварительной аналитиче-ской работы по выявлению правил зависимости выхода от входа. Недостат-ком нейросетей является невозможность объяснить выходной результат, таккак значения распределены по нейронам в виде значений коэффициентоввесов. Основной трудностью в применении нечетких экспертных системслужит необходимость явно сформулировать правила проблемной областив форме продукции. В нечетких экспертных системах легко построить объ-яснение результата в форме протокола рассуждений. Поэтому в настоящеевремя создаются гибридные технологии, сочетающие преимущества нечет-ких систем и нейронных сетей. Примером гибридной технологии служитреализация системы нечетких правил на основе нейросети. База нечеткихправил для двух входных и одной выходной переменных имеет следующуюструктуру:

Ri : ЕСЛИ x1i is A1i И x2i is A2i ТО zi is Ci.

Для реализации базы нечетких правил будем интерпретировать ее кактаблицу определения некоторой функции, т. е. базу правил можно предста-вить обучающей выборкой:

{((A1i, A2i), Ci)

}. Например,

{((малое, боль-

шое), около нуля)}. Для интеграции двух технологий — нечетких систем

и нейрокомпьютинга, необходимо предложить способ четкого дискретно-го представления непрерывных функций принадлежности, для чего выбе-рем максимально большой интервал [x1, x2], в котором представлены всенечеткие множества условных частей правил. Если разбить интервал с рав-ным шагом, то любое нечеткое значение представляется четким вектором.Другой способ представления нечеткого понятия в виде четких данных со-стоит в представлении нечеткого множества в виде совокупности α–срезов(рис.3).

При использовании α–срезов каждое αj–подмножество представляетсядвумя числами — левой и правой границами: αLij , αRij , где j — номер

176 УДК 004.032.26 (06) Нейронные сети

Page 177: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

РИС. 3. α–срез, И-ИЛИ нейроны

УДК 004.032.26 (06) Нейронные сети 177

Page 178: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

α–среза, а i — номера точек на его левой и правой границах, т. е. α–срезычетко представляют непрерывную функцию принадлежности.

Понятие нечеткой нейросети. Глубинная интеграция нечетких системи нейросетей связана с разработкой моделей нейронов, функции которыхотличаются от функций традиционного нейрона. Модификация моделинейрона для адаптации к нечетким системам касается выбора функции ак-тивации, реализации операций сложения и умножения, так как в нечеткойлогике сложение моделируется любой треугольной конормой (например,max, a + b − a ∗ b, . . . ), а операция умножения — треугольной нормой(min, a∗b, . . . ).

И-нейроном называется нейрон, в котором умножение веса w на входx моделируется конормой S(w, x), а сложение — нормой T (w, x).

Для двухвходового И-нейрона справедлива формула:

Y = T (S(w1, x1), S(w2, x2)).

ИЛИ-нейроном называется нейрон, в котором умножение веса w ивхода x моделируется нормой T (w, x), а сложение взвешенных весов —конормой S(w, y). Для двухвходового ИЛИ-нейрона справедлива формула:

Y = S(T (w1, x1), T (w2, x2)).

Если выбрать в качестве T–нормы min, а S–нормы — max, то формулапреобразования ИЛИ-нейрона уточняется следующим образом:

max(min(w1, x1),min(w2, x2)).

В качестве функции активации обычно используют радиальную базиснуюфункцию F (x) = exp(−b ∗ (x2 − a)).

Нечеткой нейронной сетью (ННС) называют четкую нейронную сетьпрямого распространения сигнала, которая построена на основе много-слойной архитектуры с использованием И-ИЛИ-нейронов [11,13,15]. Нечет-кая нейросеть функционирует стандартным образом на основе четких дей-ствительных чисел. Нечеткой является только интерпретация результатов.При создании гибридной технологии можно использовать нейрокомпью-тинг для решения частной задачи нечетких экспертных систем, а именнонастройки параметров функции принадлежности. Традиционно функциипринадлежности формируют двумя способами: методом экспертной оценки

178 УДК 004.032.26 (06) Нейронные сети

Page 179: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

или на основе статистики. Гибридные технологии предлагают третий спо-соб: в качестве функции принадлежности выбирается параметризованнаяфункция формы (например, параметризованная гауссова кривая), парамет-ры которой настраиваются с помощью нейросетей. Настройка параметровможет быть получена с помощью алгоритма обратного распространенияошибки.

Рассмотрим применение алгоритма обратного распространения ошибкидля обучения ННС. Пусть задана следующая система нечетких правил:

ЕСЛИ x1 is A1j И . . . xn is Anj ТО zj is Cj .

где Aij — нечеткие числа; Cj — действительные числа. Значение αj =Πiaji — сила или достоверность правила, αji — степень принадлежностинечеткого множества условной части j-го правила

x1 is A1i И . . . xn is Ani,

i = 1, . . . , n — номер входной переменной, j = 1, . . . ,m — количество пра-вил. Значение выхода вычисляется по формуле средневзвешенного выхода:

z =

∑mj=1 αj ∗ zj∑m

j=1 αj.

Допустим, что разработана нейросеть с n входами и одним выходом. Какимобразом такая НС может аппроксимировать базу нечетких правил? Любаясовокупность нечетких продукций может рассматриваться как нелинейноесоответствие, заданное таблицей определения {(xk, yk)}, где k = 1, . . . , K— номер строки-образца в обучающей выборке, x — вектор входа, y —желаемое значение выхода, а z — значение выхода, вычисляемое нейро-сетью. Если определить текущую ошибку с помощью формулы Ek =1/2 ∗ (zk − yk)2, то можно применить стандартный алгоритм коррекцииошибки, корректируя выход Z по следующему правилу:

Z(t + 1) = Z(t) − η ∗(

∂Ek

∂Z

),

где η — уровень обучения, (∂Ek/∂Z) — направление градиента сниженияошибки. Подставляя в правило формулу для средневзвешенного выходаННС, получим:

Z(t + 1) = Z(t) − η ∗ (Zk − Yk) ∗[

αj

a1 + a2 + ... + am

].

УДК 004.032.26 (06) Нейронные сети 179

Page 180: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

При применении стандартного алгоритма обратного распространения ошиб-ки для настройки выхода ННС, необходимо изменить параметры функцийпринадлежности условных частей правил, т. е. обучение сети позволит ихнастроить на обучающую выборку.

Структуры гибридных систем (ГС)

Рассмотрим структуры ГС, решающих задачу управления, выделим осо-бенности архитектуры и алгоритмов обучения для каждого конкретноготипа ГС [7, 13, 15].

NNFLC — нечеткий контроллер на основе НС. Структура NNFLCприведена на рис. 4.

Структурно NNFLC — это многослойная сеть прямого распространениясигнала, причем различные слои выполняют разные функции. Опишемкратко функции слоев.

• Слой 1:y(1)i (x) = exp[−(xi − ci)2/2 ∗ σ2

i ].

Слой 1 представляет функции принадлежности, реализованные какрадиальные базисные нейроны.

• Слой 2:y(2)i = min[y(1)

1 , . . . , y(1)n ].

Слой 2 моделирует И–условия правил.

• Слой 3:y(3)i = max[y(2)

1 , . . . , y(2)n ].

Слой 3 представляет собой ИЛИ–комбинацию правил с одинаковымитермами в консеквентах. Слой 3 выполняет разные функции в рабо-чем режиме и в режиме обучения. В режиме обучения слой настраи-вает параметры функций принадлежности выходных переменных. Врабочем режиме формирует значение выхода.

• Слой 4:В рабочем режиме нейроны выполняют дефазификацию:

z(4)i =

∑j

wji ∗ y(3)i

180 УДК 004.032.26 (06) Нейронные сети

Page 181: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

РИС. 4. Структура NNFLC

УДК 004.032.26 (06) Нейронные сети 181

Page 182: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

и нормализацию:

y(4)(z(4)i ) =

∑j

y(3)i ∗ wji∑

j wji,

а в режиме обучения — это дополнительный вход, позволяющий на-строить функцию принадлежности выходной переменной. СтруктураННС NNFLC инициализируется по принципу формирования полнойматрицы правил. Если xi — входные переменные, τ(xi) — количествонечетких меток (разбиений) xi, то исходное количество правил:

T = Πni=1τ(xi).

Обучение ННС сложной архитектуры (с различными функциональны-ми слоями) обычно происходит многоэтапно, причем, на каждом этапеиспользуются различные алгоритмы обучения: предобучение (оffline), опе-ративное (online), без учителя, с учителем. Общая схема обучения ННСNNFLC содержит следующие этапы:

• формирование обучающих данных;• самоорганизующаяся кластеризация (настройка функций принадлеж-

ности);• соревновательное обучение (алгоритм победителя);• удаление правил;• комбинирование правил;• окончательная настройка параметров (тюнинг) функций принадлеж-

ности с помощью алгоритма обратного распространения ошибки.

Приведем содержательные характеристики этапов обучения. Настройкапараметров функций принадлежности включает в себя определение цен-тров ci и ширины σi для функций принадлежности, представленных функ-циями формы:

y(1)i (x) = exp[−(xi − ci)2/2 ∗ σ2

i ].

Алгоритм победителя выявляет ci : ∆cw(t) = η(t)(x − cw(t)), где η(t)— монотонно убывающий уровень обучения. Настройка ширины σi осу-ществляется эвристически, например, по принципу «первого ближайшегососеда»: σi = (σi − σw)/λ, λ — параметр перекрытия. Алгоритм победи-теля ищет матрицу весов wji, которая оценивает качество связей левой иправой частей правил:

∆w = y(3)j ∗ (y(2)

i − wji).

182 УДК 004.032.26 (06) Нейронные сети

Page 183: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

Комбинирование правил часто целесообразно выполнять с участием экс-перта. Окончательная настройка функций принадлежности выполняетсяс помощью алгоритма обратного распространения ошибки для функцииошибки ei = (y(4)

i − dk)2. Цепочка правил распространяет ошибку до слоя1 с обратным роутингом. Таким образом, можно сделать вывод о том, чтоархитектура NNFLC может быть проинтерпретирована как система нечет-кого вывода Такаджи-Суджено.

ANFIS — адаптивная НС, основанная на системе нечеткого выво-да. Приведем на рис. 5 структуру ANFIS (Adaptive Network Based FuzzyInference System) — адаптивной НС для двух правил:

ЕСЛИ x1 = A1 И x2 = B1 ТО y1 = c11 ∗ x1 + c12 ∗ x2

ЕСЛИ x1 = A2 И x2 = B2 ТО y2 = c21 ∗ x1 + c22 ∗ x2.

Выход ННС формируется по формуле:

y =(w1 ∗ y1 + w2 ∗ y2)

(w1 + w2)

Слои ННС ANFIS выполняют следующие функции.

• Слой 1 представлен радиальными базисными нейронами и модели-рует функции принадлежности.

• Слой 2 — это слой И-нейронов, которые моделируют логическуюсвязку И произведением wi = µAi

(x1) ∗ µBi(x2).

• Слой 3 вычисляет нормированную силу правила:

wi =wi

(w1 + w2).

• Слой 4 формирует значение выходной переменной:

y(x1, x2) = wiyi = wi(ci1 ∗ x1 + ci2 ∗ x2).

• Слой 5 выполняет дефазификацию:

y = w1 ∗ y1 + w2 ∗ y2.

Гибридная сеть архитектуры ANFIS обучается с помощью алгоритма об-ратного распространения ошибки.

УДК 004.032.26 (06) Нейронные сети 183

Page 184: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 5. Структуры ANFIS и NNDFR

184 УДК 004.032.26 (06) Нейронные сети

Page 185: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

NNDFR — НС для нечетких умозаключений. ННС NNDFR (NeuronNetwork Driven Fuzzy Reasoning) (рис. 5) способна выполнять кластериза-цию в пространстве, содержащем нелинейные границы кластеров.

Обозначим через MPi двухслойный перцептрон с одним скрытым сло-ем, который служит для описания желаемой кривой поверхности решений,т. е. MPi выражает правило:

ЕСЛИ x1 = A1 И xni = Ani ТО yi = fi(xi).

Для обучения NNDFR предложен алгоритм «удаления правил назад».Алгоритм включает в себя следующие шаги.

• Шаг 1. Удаление малозначимых входных переменных. Обучаютсяотдельные MPi. После отдельного обучения многослойные перцеп-троны объединяются и обучаются вместе. Если изменение некоторойвходной переменной не влияет на сумму квадратов ошибок, то соот-ветствующая переменная удаляется.

• Шаг 2. Формирование обучающей и тестовой выборок. Обучающаявыборка {xk, dk} делится на обучающие и контрольные образцы —паттерны.

• Шаг 3. Обучение «многослойного перцептрона (МП) памяти». Эври-стически определяется количество кластеров (правил). МП памятиобучается выделять кластеры X . Если xk принадлежит к Aj , то вы-ход МП памяти wj(xk) = 1, иначе выход равен 0.

• Шаг 4. Обучение MPi. Многослойные перцептроны MPi обучаютсяотдельно методом обратного распространения ошибки.

• Шаг 5. Обратное исключение. Используется обратное исключениепеременных для каждого MPi. Общая схема рабочего режима ННСподчиняется следующим правилам:

ЕСЛИ X = A1 ТО MP1(x1, . . . , xn),ЕСЛИ X = A2 ТО MP2(x1, . . . , xn),ЕСЛИ X = An ТО MPmem(x1, . . . , xn).

УДК 004.032.26 (06) Нейронные сети 185

Page 186: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

GARIC — интеллектуальное управление, основанное на обобщен-ном приближенном выводе. Архитектура GARIC (Generalized Approxi-mate Reasoning Based Intelligent Control) имеет в своем составе две НСразличного функционального назначения: НС оценки состояния и НС вы-бора действия. Используемые алгоритмы обучения — алгоритм усиления иобратного распространения ошибки.

Рассмотрим место GARIC в контуре управления (рис. 6). Рис. 6 и рис. 7отражают структуру НС управления и НС оценки.

ННС GARIC реализует схему вывода Цукамото. НС управления обуча-ется с помощью алгоритма обратного распространения ошибки. Сложнееобучить НС оценки, которая тренируется алгоритмом усиления:

ynj (t + 1) = f

[∑i

wij(t) ∗ xi(t + 1)],

f(z) =[1 + exp(−z)

]− 1,

σ(r, rp) = r − rp,

σ(r, rp) ≈ r − rp + γ ∗ rp,

0 � γ � 1,

где σ(r, rp) — разница реального и «внутреннего» r. Случайная модуля-ция y выполняется колоколообразной, случайно распределенной функциейс центром y и разбросом σ(r, rp), что необходимо для покрытия входно-го пространства. НС оценки представляет собой линейный многослойныйперцептрон. Матрицы B и C изменяются стратегией «награда–штраф».

∆bi(t) = η ∗ σ(t+1) ∗ xti,

∆cj(t) = η ∗ σ(t+1) ∗ ytj .

Матрица W обучается упрощенным алгоритмом обратного распростра-нения ошибки:

∆w(t)ij = η ∗ σ(t+1) ∗ sign[c(t)

j ] ∗ ytj ∗ (1 − y

(t)j ) ∗ x

(t)i .

Нечеткая сеть Fuzzy Net (FUN) Нечеткая нейронная сеть FUN (рис. 7)предложена для управления перемещениями мобильного робота. В этой се-ти осуществляется структурное и параметрическое обучение — последова-тельный стохастический поиск в пространствах правил и входов. Обучение

186 УДК 004.032.26 (06) Нейронные сети

Page 187: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

РИС. 6. Нейро-нечеткий контроллер GARIC.НС управления

УДК 004.032.26 (06) Нейронные сети 187

Page 188: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 7. Структура НС оценки GARIC

188 УДК 004.032.26 (06) Нейронные сети

Page 189: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

правил построено следующим образом. Случайно выбранная связь правилдо и после слоя 2 изменяется и проверяется сеть на улучшение ценовойфункции. Плохие изменения отменяются, а хорошие сохраняются. Пара-метры функций принадлежности итерационно изменяются от некоторогослучайного значения: D(t)

p −Dp(t − 1) = −η∗D(t−1)p , где η = 10−3 . . . 10−2

— фактор сходимости.Таким образом, анализ конкретных архитектур нечеткой нейронной се-

ти позволяет сделать следующий вывод. Наряду с классическими ней-ронами, являющимися пороговыми суммирующими элементами, должнавключать в себя «логические» нейроны, моделирующие логические связ-ки. Фундаментальная задача объединения методов перцепции (восприятия)и логического (абстрактного) мышления не могла не отразиться на уровнеструктуры ГС. В нечеткой нейронной сети любой из известных архитек-тур, слои нейронов становятся специализированными. Существуют слои,выполняющие распознавание, и слои, вычисляющие логические формулыи импликации (правила ЕСЛИ . . . ТО). Причем конкретная схема нечеткойнейронной сети зависит от решаемой задачи.

Нечеткий нейронный контроллер. Рассмотрим особенности приме-нения нечетких нейронных сетей на примере нечеткого регулятора длястиральной машины, то есть построим теперь fuzzy-neuro контроллер. Вы-берем для демонстрации технологии нечетких нейронных сетей архитекту-ру ANFIS. Основа интеграции нейронных сетей и систем нечеткого выводазаключается в том, что оба метода представляют нелинейное отношение впространстве входов и выходов. Важная задача нечеткого моделирования— это настройка функций принадлежности, являющаяся по существу зада-чей оптимизации. Для ее решения используются как нейронные сети, таки генетические алгоритмы. Самый простой подход к настройке функцийпринадлежности заключается в том, что выбирают определенную парамет-ризованную функцию формы и подбирают ее параметры на основе обуче-ния нейронной сети. Рассмотрим простой контроллер с тремя нечеткими

УДК 004.032.26 (06) Нейронные сети 189

Page 190: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

правилами вывода в базе знаний:

R1 : ЕСЛИ «количество белья» = «много»

И «температура воды» = «высокая»

И «загрязненность» = «высокая»

ТО «длительность» = «высокая» ;R2 : ЕСЛИ «количество белья» = «много»

И «температура воды» = «высокая»

И «загрязненность» = «низкая»

ТО «длительность» = «низкая» ;R1 : ЕСЛИ «количество белья» = «мало»

И «температура воды» = «низкая»

И «загрязненность» = «низкая»

ТО «длительность» = «низкая» .

Зададим следующие функции формы для правил. Пусть выражению«количество белья» = «мало» соответствует функция L1(x), а «количествобелья» = «много» функция H1(x):

L1(x) =1

(1 + exp(b1(x − c1)),

H1(x) =1

(1 + exp(−b1(x − c1)),

L1(x) + H1(x) = 1.

Аналогично для выражения «температура воды» = «высокая» будем ис-пользовать функцию L2(t), а для «температура воды» = «низкая» функциюH2(t):

L2(t) =1

(1 + exp(b2(t − c2)),

H2(t) =1

(1 + exp(−b2(t − c2)),

L2(t) + H2(t) = 1.

190 УДК 004.032.26 (06) Нейронные сети

Page 191: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

Для выражения «загрязненность» = «высокая» определим функциюL3(z) и для «загрязненность» = «низкая» функцию H3(z):

L3(z) =1

(1 + exp(b3(z − c3)),

H3(z) =1

(1 + exp(−b3(z − c3)),

L3(z) + H3(z) = 1.

Для выходов «длительность» = «высокая» и «длительность» = «малая»аналогично определим функции

L4(y) =1

(1 + exp(b4(y − c4)),

H4(y) =1

(1 + exp(−b4(y − c4)),

L4(x) + H4(x) = 1.

Система нечеткого вывода по Цукамото представлена на рис. 8.Для четких значений «количество белья», «температура воды» и «за-

грязненность»: A1, A2, A3 определим релевантность (силу) правил αi, какпоказано на рис. 8:

α1 = H1 ∩ H2 ∩ H3,

α2 = H1 ∩ H2 ∩ L3,

α3 = L1 ∩ L2 ∩ L3.

Выходы по каждому из правил определяется с помощью обратныхфункций принадлежности правых частей правил.

Y1 = H−14 (α1),

Y2 = H−14 (α2),

Y3 = L−14 (α3).

Общий выход из системы нечетких правил определяется как

y0 =(α1 ∗ Y1 + α2 ∗ Y2 + α3 ∗ Y3)

(α1 + α2 + α3).

УДК 004.032.26 (06) Нейронные сети 191

Page 192: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

РИС. 8. Нечеткий вывод и структура нейро-нечеткого контроллера

192 УДК 004.032.26 (06) Нейронные сети

Page 193: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

Далее построим нечеткую нейронную сеть, идентичную системе нечетко-го вывода и обучим функции принадлежности анцедента и консеквентаправил (рис. 8):

• Слой 1. Выходы узлов — это степени, c которыми заданные входыудовлетворяют функциям принадлежности, ассоциированным с эти-ми узлами.

• Слой 2. Каждый узел вычисляет силу правила. Выход верхнего ней-рона α1 = H1 ∩H2 ∩H3, выход среднего нейрона α = H1 ∩H2 ∩L3,а выход нижнего: α3 = L1 ∩ L2 ∩ L3. Все узлы помечены T , так какможно выбрать любую T–норму для моделирования логического И.Узлы этого слоя называются узлами правил.

• Слой 3. Каждый узел помечен N , чтобы показать, что узлы норма-лизуют силу правил

βi =αi

(α1 + α2 + α3).

• Слой 4. Выход нейронов — это произведение нормализованной силыправила и индивидуального выхода соответствующего правила.

Y1 = H−14 (α1),

Y2 = H−14 (α2),

Y2 = L−14 (α3).

• Слой 5. Одиночный выходной нейрон вычисляет выход сети

y0 = β1 ∗ Y1 + β2 ∗ Y2 + β3 ∗ Y2.

Алгоритмы обучения для нечеткой нейронной сети контроллера.Пусть задана четкая обучающая выборка

{(x1, t1, z1, y1), . . . , (xk, tk, zk, yk)},

где x, t, z — входные условия «количество белья», «температура воды» и«загрязненность», а y — длительность стирки. Ошибку на k-ом образцеопределим как обычно Ek = 1

2 ∗ (Oi − Yi)2). Можно настроить параметры

УДК 004.032.26 (06) Нейронные сети 193

Page 194: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

функций принадлежности в ходе обучения нечеткой нейронной сети, ис-пользуя следующие соотношения как правила изменения весов в алгоритмеобратного распространения ошибки:

b4(t + 1) = b4(t) − η ∗ ∂E

∂b4,

c4(t + 1) = c4(t) − η ∗ ∂E

∂c4,

· · ·c1(t + 1) = c1(t) − η ∗ ∂E

∂c1.

Нечеткие нейронные сети с генетической настройкой Настройкафункций принадлежности с помощью нейронной сети или ГА устраня-ет принципиальную слабость теории нечетких систем — субъективностьфункций принадлежности. Если настроить функцию принадлежности спомощью нейронной сети, то окончательная форма функции будет ап-проксимацией обучающей выборки. С помощью ГА, т. е. стохастическойоптимизации также можно настроить функции принадлежности. Исполь-зуем традиционный градиентный метод для обучения параметров левой иправой частей нечетких правил. Покажем, как можно настроить параметрыфункции формы.

Генетической нечеткой системой называют нечеткую систему, функ-ции принадлежности и база правил которой спроектирована с помощьюгенетического алгоритма. Для применения ГА необходимо выполнить сле-дующие действия:

• выбрать единицу кодирования, т. е. хромосому;• уточнить эволюционные операторы рекомбинации, мутации и селек-

ции;• сформировать функцию оптимальности (fitness function, performance

index).

В настоящее время ГА используют либо для настройки функций при-надлежности (базы данных), либо для формирования базы правил (базызнаний), либо для одновременного формирования и функций принадлежно-сти, и правил. В соответствии с объектами оптимизации выбирают едини-цу кодирования — хромосому. Для настройки функций принадлежности захромосому выбирают одно правило (мичиганский подход), для настройки

194 УДК 004.032.26 (06) Нейронные сети

Page 195: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

базы правил за хромосому выбирают вариант базы правил (питтсбургскийподход, подход итеративного обучения правил) [12, 17]. В соответствии скодированием уточняются правила генерации новых хромосом.

Функция оптимальности представляет собой механизм нечеткого выво-да, который для каждого варианта базы правил строит либо управляющеевоздействие для нечеткого контроллера, либо экспертное заключение длядиагностической экспертизы. Как видно из описания механизма нечеткоговывода, все нечеткие правила вносят вклад в окончательный результат, тоесть правила сотрудничают. Но при отборе правил (хромосом) ГА сохра-няет только правила, внесшие максимальный вклад в общий результат, т.е. хромосомы конкурируют. Говорят о проблеме «конкуренции и коопера-ции» в генетических нечетких системах (a competition vs. а cooperation).Решение проблемы в каждом конкретном случае строится эвристически,например, при подходе итеративного обучения правил используют два эта-па оптимизации. На первом шаге правила конкурируют за право войти вбазу правил, а на втором — взаимодействуют при формировании общегорезультата.

Системы генетического проектирования нечетких нейронных сетейРассмотрим возможности генетических вычислений, как средства струк-турной оптимизации нечетких нейронных сетей. Генетические вычисле-ния можно применить на этапе проектирования нейронной сети, как пре-диктора временных рядов, в том числе можно проектировать и нечеткуюнейронную сеть. Возможности нейронных сетей интерполировать значе-ния временных рядов широко используют для оценки поведения макро-экономических показателей, в том числе индексов деловой активности илиуровня ценных бумаг. Задача построения нейронного предиктора связа-на с принятием решений на разных этапах проектирования. Необходимоисследовать входные данные и решить, по какому отрезку входных дан-ных рационально делать предсказания, сколько точек в будущем разумнопредсказать. Пространство перебора решений огромно для развитых рын-ков ценных бумаг, накопивших статистические сведения за десятки лет.Необходимо принять решение и о типе нейронной сети: многослойныйперсептрон, радиально базисная сеть, вероятностная нейронная сеть, сетьрегрессии и т. д. Для выбранного типа НС необходимо определить количе-ство скрытых слоев, количество нейронов в них, виды функций активациии другие. Для каждой сети необходимо выбрать алгоритм обучения и его

УДК 004.032.26 (06) Нейронные сети 195

Page 196: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

параметры, например, использование моментов (уровень моментов), уро-вень обученности, целевой уровень накопленной ошибки и т.д. Для нечет-кой нейронной сети необходимо определить архитектуру сети, параметрыфункций принадлежности. В результате пространство решений при фор-мировании нечеткого нейронного предиктора становится необозримым дляисследователя и целесообразно применить ГА как средство эволюционногопроектирования.

Примером такого средства может служить программная система Neuro-Forecaster GENETICA (NFGA Copyright 1993–1998, NIBS Pte Ltd, 62 FowlieRoad, Republic of Singapore 428501.) Программа NFGA — это программапоиска и оптимизации НС, основанная на генетических алгоритмах, со-зданная для поиска лучшей комбинации входных данных, лучшего периодапрогноза (т. е. количества прогнозируемых значений) для данной пробле-мы.

Заключение

В настоящее время рассмотренные технологии «вычислительного ин-теллекта» являются успешными прикладными технологиями. Самыми яр-кими событиями были [1,4] запуск в 1987 году системы управления новымметро в г. Сендай около Токио, достижение японского экспорта изделийс fuzzy logic к 1991 году цифры в 25 млрд. долл. США. Это, в первуюочередь, товары культурно-бытового назначения — фотоаппараты, видеока-меры, стиральные машины, холодильники, пылесосы, микроволновые пе-чи и многое другое. Международный научно-исследовательский институт(LIFE — Laboratory for International Fuzzy Engineering Research), созданныйв Японии располагал в 1993 году бюджетом в 64 млн. долл. Таким образом,«вычислительный интеллект» — это успешная электронная и программнаяиндустрия.

Литература

1. Абдусаматов Р.М., Беркинблит М. Б., Фельдман А. Г., Чернавский А. В. Мото-рика и интеллект // Интеллектуальные процессы и их моделирование. – М.:Наука, 1987.

2. Аверкин А.Н. и др.Нечеткие множества в моделях управления и искусственногоинтеллекта / Под ред. Д. А.Поспелова. – М.: Наука, 1986.

196 УДК 004.032.26 (06) Нейронные сети

Page 197: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

Н. Г. ЯРУШКИНА

3. Аверкин А.Н., Федосеева И.Н. Параметрические логики в интеллектуальныхсистемах управления. – М.: Вычислительный центр РАН, 2000.

4. Васильев В. И., Ильясов Б. Г. Интеллектуальные системы управления с исполь-зованием генетических алгоритмов. Учебное пособие. – Уфа: УГАТУ, 1999.

5. Заде Л. А. Понятие лингвистической переменной и его применение к принятиюприближенных решений. – М.: Мир, 1976.

6. Клир Дж. Системология. Автоматизация решения системных задач: Пер. с англ.– М.: Радио и связь, 1990.

7. Кофман А. Введение в теорию нечетких множеств. – М.: Радио и связь, 1982.

8. Мелихов А.Н., Берштейн Л. С., Коровин С. Я. Ситуационные советующие си-стемы с нечеткой логикой. – М.: Наука, 1990.

9. Наместников А.М., Ярушкина Н. Г. Эффективность генетических алгоритмовдля задач автоматизированного проектирования //Известия РАН. Теория и си-стемы управления. – 2002. – №2.

10. Скурихин А.Н. Генетические алгоритмы // Новости искусственного интеллекта.– 1995. – №4.

11. Ярушкина Н. Г. Нечеткие нейронные сети // Новости искусственного интеллек-та. – 2001. – №2–3.

12. Ярушкина Н. Г. Гибридные системы, основанные на мягких вычислениях: опре-деление, архитектура, возможности // Программные продукты и системы. –2002. – №3.

13. Bothe H.-H. Fuzzy Neural Networks. – Prague: IFSA, 1997.

14. Deichelmann H.. Linguistishe Systeme und ihre Anwendung. – Darmstadt:Fachhochschule Darmstadt, 1996.

15. Fuller R. Fuzzy systems.URL: http://www.abo.fi/∼rfuller/

16. Goldberg D. E. Genetic Algorithms in Search, Optimization and Machine Learning.– Adison–Wesley Publishing Company Inc., 1989.

17. Herrera F., Magdalena L. Genetic fuzzy systems. – Prague: IFSA, 1997

18. Holland Y. Adaptation in Natural and Artificial Systems. – University of Michigan,Press, Ann Arbor,1975.

19. Schweizer B., Sklar A. Associative functions and abstract semigroups // Publ. Math.,No. 10, 1963.

20. Zadeh L. A. Fuzzy Sets // Information and Control, 8 (1965), 338–353.

21. Zadeh L. What is soft computing? // Soft Computing, 1997, 1, pp.1–2.

УДК 004.032.26 (06) Нейронные сети 197

Page 198: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

ISBN 5–7262–0526–X ЛЕКЦИИ ПО НЕЙРОИНФОРМАТИКЕ

Надежда Глебовна ЯРУШКИНА, доктор технических наук, заведующаякафедрой Информационные системы Ульяновского государственного тех-нического университета. Область научных интересов — теория нечеткихмножеств и систем, искусственные нейронные сети, генетические алго-ритмы, гибридные системы. Автор 2 монографий и более 150 научныхпубликаций.

Page 199: VI Всероссийская научно-техническая конференция ''Нейроинформатика-2004''. Лекции по нейроинформатике

НАУЧНАЯ СЕССИЯ МИФИ–2004

НЕЙРОИНФОРМАТИКА–2004

VI ВСЕРОССИЙСКАЯНАУЧНО-ТЕХНИЧЕСКАЯ

КОНФЕРЕНЦИЯ

ЛЕКЦИИПО НЕЙРОИНФОРМАТИКЕ

Часть 1

Оригинал-макет подготовлен Ю.В. Тюменцевымс использованием издательского пакета LATEX2ε

и набора PostScript–шрифтов PSCyr

Подписано в печать 25.11.2003 г. Формат 60 × 84 1/16Печ. л. 12, 5. Тираж 200 экз. Заказ №

Московский инженерно-физический институт(государственный университет)

Типография МИФИ115409, Москва, Каширское шоссе, 31