А   Б  В  Г  Д  Е  Є  Ж  З  І  Ї  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Ю  Я 


Мережа - зустрічне поширення

Мережа зустрічного поширення проста. Вона дає можливість отримувати статистичні властивості з множин вхідних сигналів. Кохоненом показано, що для повністю навченої мережі ймовірність того, що випадково обраний вхідний вектор (відповідно до функцією щільності ймовірності вхідного безлічі) буде найближчим до будь-якого заданого вагового вектора, дорівнює 1 /р, р - число нейронів Кохонена.

мережа зустрічного поширення функціонує подібно столу довідок, здатному до узагальнення. У процесі навчання вхідні вектори асоціюються з відповідними вихідними векторами. Ці вектори можуть бути двійковими, що складаються з нулів і одиниць, або безперервними. Коли мережа навчена, додаток вхідного вектора приводить до необхідного вихідного вектору. Узагальнююча здатність мережі дозволяє отримувати правильний вихід навіть при додатку вхідного вектора, який є неповним або злегка неправильним. це дозволяє використовувати дану мережу для розпізнавання образів, відновлення образів та посилення сигналів.

Система стиснення зображень. Мережа зустрічного поширення може бути використана для стиснення даних перед їх передачею, зменшуючи тим самим число бітів, які повинні бути передані. Припустимо, що потрібно передати деяке зображення. Тоді кожне подізображеніе є вектором, елементами якого є пікселі, з яких складається подізображеніе. Якщо в подізображеніі є п пікселів, то для його передачі буде потрібно п біт. Якщо допустимі деякі спотворення, то для передачі типового зображення потрібно істотно менше число бітів, що дозволяє передавати зображення швидше. Це можливо через статистичного розподілу векторів подізображеніі.

Система стиснення зображень. Мережа зустрічного поширення може бути використана для виконання векторного квантування.

Мережа зустрічного поширення проста. вона дає можливість отримувати статистичні характеристики з множин вхідних сигналів. Кохоненом показано, що для повністю навченої мережі ймовірність того, що випадково обраний вхідний вектор (відповідно до функцією щільності ймовірності вхідного безлічі) буде найближчим до будь-якого заданого вагового вектора, дорівнює Ml, /- число нейронів Кохонена.

Мережа зустрічного поширення має два шари з послідовними зв'язками. Перший шар - шар Кохонена, другий - шар Гроссберга. Кожен елемент вхідного сигналу подається на всі нейрони прошарку Кохонена. Кожен нейрон шару Кохонена з'єднаний з усіма нейронами шару Гроссберга. Відмінність мережі зустрічного поширення від інших багатошарових мереж з послідовними зв'язками складається в операціях, які виконуються нейронами Кохонена і Гроссберга.

Можливості мережі зустрічного поширення, розробленої в[5-7], Перевершують можливості одношарових мереж. Час же навчання в порівнянні зі зворотним поширенням може зменшуватися в сто раз. Зустрічне розповсюдження не настільки загально, як зворотне поширення, але воно може давати рішення в тих додатках, де довга навчальна процедура неможлива. Буде показано, що крім подолання обмежень інших мереж зустрічну поширення володіє власними цікавими і корисними властивостями.

Повною моделі мережі зустрічного поширення є можливість отримувати вихідні сигнали по вхідним і навпаки. Цим двом діям відповідають пряме і зворотне поширення сигналів.

У процесі навчання мережі зустрічного поширення вхідні вектори асоціюються з відповідними вихідними векторами. Ці вектори можуть бути двійковими або безперервними. Після навчання мережа формує вихідні сигнали, відповідні вхідним сигналам. Узагальнююча здатність мережі дає можливість отримувати правильний вихід, якщо вхідний вектор неповний або спотворений.

Повною моделі мережі зустрічного поширення є можливість отримувати вихідні сигнали по вхідним і навпаки. Цим двом діям відповідають пряме і зворотне поширення сигналів.

У процесі навчання мережі зустрічного поширення вхідні вектори асоціюються з відповідними вихідними векторами. Ці вектори можуть бути двійковими або безперервними. Після навчання мережа формує вихідні сигнали, відповідні вхідним сигналам. Узагальнююча здатність мережі дає можливість отримувати правильний вихід, якщо вхідний вектор неповний або спотворений.

На рис. 4.4 показана мережа зустрічного поширення цілком. У режимі нормального функціонування пред'являються вхідні вектори X і Y, і навчена мережа дає на виході вектори X і Y, які є апроксимаціями відповідно для X і Y. Вектори X і Y передбачаються тут нормалізованими одиничними векторами, отже, породжувані на виході вектори також матимуть тенденцію бути нормалізованими.

Структура нейронної мережі зустрічного поширення.

Одними з визначальних характеристик мережі зустрічного поширення є її хороші здібності до узагальнення, що дозволяють отримувати правильний вихід навіть при неповним або багатого на перешкоди вхідному векторі.

Роберт Хехт-Нільсон, творець мережі зустрічного поширення (СЗР), усвідомлював її обмеження: СЗР, звичайно, поступається зворотному поширенню в більшості додатків, пов'язаних з мережевими відображеннями.

Одними з визначальних характеристик мережі зустрічного поширення є її хороші здібності до узагальнення, що дозволяють отримувати правильний вихід навіть при неповним або багатого на перешкоди вхідному векторі. Це дозволяє ефективно використовувати дану мережу для розпізнавання і відновлення образів, а також для посилення сигналів.

За своїми можливостями будувати відображення мережа зустрічного поширення значно перевершує одношарові пер-септрони.

На приймальному кінці ідентичним чином навчена мережа зустрічного поширення приймає двійковий код і реалізує зворотну функцію, аппроксимирующую початкове подізображеніе.

Структура нейронної мережі зустрічного поширення. На рис. 2.7 показана структура мережі зустрічного поширення.

До цього можна додати, що мережа зустрічного поширення швидко навчається, і при правильному використанні вона може заощадити значну кількість машинного часу. Вона корисна також для швидкого моделювання систем, де велика точність зворотного поширення змушує віддати йому перевагу в остаточному варіанті, але важлива швидка початкова апроксимація.

Рішення такого завдання проведемо із застосуванням мережі зустрічного поширення так, як це показано нижче.

На рис. 4.1 показана спрощена версія прямої дії мережі зустрічного поширення. На ньому ілюструються функціональні властивості цієї парадигми. Повна двунаправленная мережу заснована на тих же принципах, вона обговорюється в цьому розділі пізніше.

До недоліків моделі також слід віднести слабку теоретичну опрацювання модифікацій мережі зустрічного поширення.

Час навчання в порівнянні зі зворотним поширенням може бути в 100 разів менше. За своїми можливостями будувати відображення мережа зустрічного поширення значно перевершує одношарові персептрони.

У процесі навчання вектори X і Y подаються одночасно і як вхідні вектори мережі, і як бажані вихідні сигнали. Вектор X використовується для навчання виходів X, а вектор Y - для навчання виходів Y шару Гроссберга. Мережа зустрічного поширення цілком навчається з використанням того ж самого методу, який описувався для мережі прямої дії.

Повна мережа зустрічного поширення. В як результуючий виходить одиничне відображення, при якому пред'явлення пари вхідних векторів породжує їх копії на виході. Якщо F - функція, що відображає X в Y, то мережу аппроксимирует її. Унікальна здатність породжувати функцію і зворотну до неї робить мережу зустрічного поширення корисної в ряді програм.

Мережа зустрічного поширення має два шари з послідовними зв'язками. Перший шар - шар Кохонена, другий - шар Гроссберга. Кожен елемент вхідного сигналу подається на всі нейрони прошарку Кохонена. Кожен нейрон шару Кохонена з'єднаний з усіма нейронами шару Гроссберга. Відмінність мережі зустрічного поширення від інших багатошарових мереж з послідовними зв'язками складається в операціях, які виконуються нейронами Кохонена і Гроссберга.