А   Б  В  Г  Д  Е  Є  Ж  З  І  Ї  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Ю  Я 


Ваговий коефіцієнт - зв'язок

Вагові коефіцієнти зв'язків Wy, i2 7 j2 7 рівні величинам, зворотним кількості приходять зв'язків цього типу на вхід j - того нейрона, і взятим зі знаком мінус.

Якщо вагові коефіцієнти зв'язків випадкові випадкової буде і реакція такої системи - формується на її виході зображення. Завдання навчання полягає в тому, щоб шляхом підбору вагових коефіцієнтів зв'язків домогтися необхідної реакції системи на пропоновані зображення. 
N відповідно; w - вагові коефіцієнти зв'язків; р () - нелінійна і двічі диференційована функція активації нейрона; Н - число нейронів в прихованому шарі.

Процес навчання зводиться до зміни вагових коефіцієнтів зв'язків /-, наближається умовні ймовірності тп[(3 а), які породжуються внутрішньої моделлю, до умовних можливостям тг (0 а), характерним для навколишнього світу.

Якщо результат розпізнавання збігається з заданим, вагові коефіцієнти зв'язків не змінюються.

Хромосома буде являти собою вектор дійсних чисел, що кодують вагові коефіцієнти зв'язків нейронів вхідного шару з нейронами одного або декількох прихованих шарів, а також зв'язку між нейронами прихованих шарів і нейронами вихідного шару.

Метод зворотного поширення помилок використовує детермінований алгоритм оптимізації при пошуку необхідних вагових коефіцієнтів зв'язків. Зважаючи на це є небезпека, що при русі строго вниз по градієнту функції помилки Е буде досягнуто якоїсь з локальних мінімумів цієї функції і процес навчання призупиниться, не знайшовши істинного рішення. Якщо помилка залишається значною, часто досить додати ще кілька елементів. В результаті розмірність простору вагових коефіцієнтів зростає і виникають шляхи обходу бар'єрів, що відокремлюють погані локальні мінімуми в підпросторі більш низької розмірності.

Якщо інформація може оброблятися штучної нейросе-ма, то вона повинна зберігатися в вагових коефіцієнтах зв'язків Wjj. Теорема Розенблата відповідає на це питання позитивно. У своїй роботі Розенблат вказав також і наближену процедуру навчання з учителем, яка крок за кроком підлаштовує синаптичну карту ваг по помилках, вимірюваним на виході нейронної мережі. Ваги Wjj прийнято називати синаптическими, так як вони імітують силу сина-птіческой зв'язку між біологічними нейронами.

Вихідні сигнали нейронів шару 1 розподіляються на відповідні моделям технологічного обладнання входи нейронів шару 2 помножені на вагові коефіцієнти зв'язків Wj, які дорівнюють кількості верстатів, необхідних для виконання i-тої операції, взятому з протилежним знаком.

Тут під навчанням розуміється настройка архітектури мережі і ваг зв'язків для ефективного виконання спеціального завдання. Зазвичай нейронна мережа повинна налаштувати вагові коефіцієнти зв'язків за наявною навчальною вибіркою. Функціонування мережі поліпшується у міру итеративной настройки вагових коефіцієнтів. Властивість нейромереж навчатися на прикладах робить їх більш привабливими в порівнянні з системами, які функціонують за фіксованими правилами, сформульованим експертами. Однак і у нейронних мереж є чимало недоліків з точки зору моделювання інтелектуальних процесів, які в першу чергу обумовлені їх досить примітивними базовими елементами. Крім того, час навчання мережі часом буває досить тривалим, причому аж ніяк не завжди гарантується збіжність.

Якщо вагові коефіцієнти зв'язків випадкові випадкової буде і реакція такої системи - формується на її виході зображення. Завдання навчання полягає в тому, щоб шляхом підбору вагових коефіцієнтів зв'язків домогтися необхідної реакції системи на пропоновані зображення.

Подача певної картини полягає в тому, що ми фіксуємо в потрібних станах вхідні елементи, дозволяючи іншим елементам мережі здійснювати переходи між станами відповідно до описаного нижче алгоритму. Зауважимо, що постійні зміщення Ь в (20) можна вважати результатом зв'язку елемента i з додатковим вхідним елементом, який весь час перебуває у включеному (активному) стані; Ь; тоді є ваговий коефіцієнт зв'язку, що з'єднує елемент /с цим додатковим елементом.

Аналогічні завдання можуть бути вирішені і без використання евристичних методів. Припустимо, що необхідно побудувати схему з елементів таким чином, щоб кожен елемент був певним чином пов'язаний з сусідніми. Тоді при заданій довжині зв'язку між елементами (при заданому ваговому коефіцієнті зв'язку) завдання побудови оптимальної схеми може бути поставлена як завдання відшукання такої послідовності елементів в схемі при якій сумарна довжина всіх зв'язків в системі мінімальна. Аналогічним чином основні особливості побудови схем поділу багатокомпонентних сумішей полягає в тому, що в процесі синтезу схеми поділу з'являються деякі підгрупи компонентів (фракції), які в подальшому можливо повинні бути розділені на окремі компоненти або в свою чергу на деякі фракції. Методи, які можуть бути використані для реалізації подальшого поділу кожної з таких фракцій обмежені з тієї точки зору, що в результаті синтезу повинна бути отримана реалізована послідовність процесів поділу, що об'єднуються в загальну схему.

Вхідні сигнали поширюються по мережі породжуючи деякий вихідний вектор. Для роботи алгоритму потрібно, щоб характеристика вхід-вихід нейроподібних елементів була неубивающей і мала обмежену похідну. Зазвичай для цього використовують Сигмоїдальні функції. Якщо вони збігаються, то вагові коефіцієнти зв'язків не змінюються. В іншому випадку обчислюється різниця між фактичними і необхідними вихідними значеннями, яка передається послідовно від вихідного шару до вхідного. На основі цієї інформації проводиться модифікація зв'язків відповідно до узагальненим дельта-правилом, яке має вигляд: & pWji T 8jpyip, де зміна в силі зв'язку Wj, для /ьй навчальної пари ApWjj пропорційно твору сигналу помилки у - го нейрона 8Jp, що одержує вхідний сигнал по зв'язку з цим, і вихідного сигналу /- го нейрона, що посилає сигнал по зв'язку з цим. Визначення сигналу помилки є рекурсивним процесом, який починається з вихідних блоків. Для вихідного блоку сигнал помилки 6 i, y j (Tjp - Rjp), де Tjp і Rjp - відповідно бажане і дійсне значення вихідного сигналу у - го блоку; yj - похідна від вихідного сигналу у - го блоку.

Вхідні сигнали поширюються по мережі породжуючи деякий вихідний вектор. Для роботи алгоритму потрібно, щоб характеристика вхід-вихід нейроподібних елементів була неубивающей і мала обмежену похідну. Зазвичай для цього використовують Сигмоїдальні функції. Якщо вони збігаються, то вагові коефіцієнти зв'язків не змінюються. В іншому випадку обчислюється різниця між фактичними і необхідними вихідними значеннями, яка передається послідовно від вихідного шару до вхідного. На основі цієї інформації проводиться модифікація зв'язків відповідно до узагальненим дельта-правилом, яке має вигляд: ApWji Л /Руф де зміна в силі зв'язку wjf для р-тл навчальної пари ApWjj пропорційно твору сигналу помилки У-ГО нейрона 6 який отримує вхідний сигнал по зв'язку з цим, і вихідного сигналу /- го нейрона, що посилає сигнал по зв'язку з цим. Визначення сигналу помилки є рекурсивним процесом, який починається з вихідних блоків. Для вихідного блоку сигнал помилки 8jp y j (Tip - Rjp), де Tjp і Rjp - відповідно бажане і дійсне значення вихідного сигналу у - го блоку; у - - похідна від вихідного сигналу у - го блоку.