А   Б  В  Г  Д  Е  Є  Ж  З  І  Ї  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Ю  Я 


Робоча вибірка

Точки робочої вибірки індексуються відповідно до положення щодо цієї гіперплощини.

Вектори робочої вибірки класифікуються відповідно до обраного вирішального правилом.

Серед векторів робочої вибірки фіксуються такі століття тори xt, які входять в число інформативних.

Селекція елементів робочої вибірки дозволяє за рахунок відмови від класифікації деяких елементів збільшити загальне число правильно класифікуються векторів.

Остаточна класифікація векторів робочої вибірки визначається шляхом голосування з урахуванням їх до класифікацій в різних обраних околицях до робочих точок.

При проведенні індексації векторів робочої вибірки подальше зменшення числа помилок класифікації за допомогою лінійних вирішальних правил може бути досягнуто за рахунок селекції вибірки і відшукання інформативного простору ознак.

Прогноз значень в точках Xi робочої вибірки виходить підстановкою векторів Xi в отримане наближення регресії.

Програма FOP для кожної точки робочої вибірки переглядає послідовник, ність вкладених околиць цієї точки і для кожного варіанту будує за допомогою базового алгоритму оптимальну розділяє площину.

Формується повна вибірка векторів: вектори робочої вибірки з індексом зі 0 додаються до навчальної вибірки векторів, що належать до першого класу, а вектори з індексом cdj 1 додаються до навчальної вибірки векторів, що належать другого класу.

Однак число векторів, виключених з робочою вибірки для різних завдань різний.

За допомогою алгоритму SUMR класифікуються точки робочої вибірки.

Підпрограма SUMR призначена для класифікації точок робочої вибірки з використанням інформації про повну (навчальної та робочої) вибірці.

Видається на друк остаточна класифікація векторів робочої вибірки. У режимі LOKOP (IKL 6) результат класифікації накопичений в масиві NKL. У режимі SUMLOK до 1-го класу відносяться ті вектори, для яких значення відповідного елемента масиву NOK позитивно, а до 2-го - ті, для яких це значення негативно.

Отримаємо тепер рівномірну оцінку ризику на робочої вибірці.

Всі алгоритми даної групи призначені для класифікації робочої вибірки.

На малюнку виділені (заштриховані) точки робочої вибірки, які класифікуються гіперплоскостямі Г0 і 1 по-різному.

Описуваний алгоритм призначений для вирішення задачі класифікації векторів робочої вибірки. Це завдання може вирішуватися двома - способами: відновленням індикаторної функції і наступним обчисленням її значень на векторах робочої вибірки, або безпосередньо відновленням значень індикаторної функції на векторах робочої вибірки.

Зауважимо, що одні й ті ж вектори робочої вибірки належать околицях різних векторів, а класифікація деяких векторів робочої вибірки, дана в різних рядках другого шпальти таблиці, може не збігатися.

У вираженні (1059) підсумовування ведеться по тим векторах х робочої вибірки, які належать оптимальної околиці; у - справжні (але невідомі нам) значення функціональної залежності в точках робочої вибірки, F (xi9 a) - обчислені значення.

Прочерк в стовпці таблиці означає, що відповідний вектор робочої вибірки не належить околиці, для якої проведена індексація.

У вираженні (536) підсумовування ведеться по тим векторах х робочої вибірки, які належать оптимальної околиці; yt - справжні (але невідомі нам) значення функціональної залежності в точках робочої вибірки, Fixt, а) - обчислюва-лені значення.

Параметр 1К (4) вказує, чи використовуються вектори робочої вибірки при побудові таксонів структури. Вектори, для яких MB (z) 2 приєднуються до найближчого таксону.

Розглянемо приклад, який ілюструє різницю в рішенні задачі класифікації векторів робочої вибірки за допомогою вирішального правила, що мінімізує середній ризик по навчальної послідовності, і за допомогою правила, що доставляє мінімум сумарному ризику.

За допомогою блоку FORM AS виділяється до векторів, що належать робочої вибірці.

У групі інформативних векторів позначаються ті вектори, які належать робочої вибірці.

Вирішення цієї приватної завдання полягає в тому, щоб так індексувати точки робочої вибірки першим і другим класом, щоб відстань між опуклими оболонками безлічі векторів навчальної та робочої вибірок першого класу і безлічі векторів навчальної та робочої вибірок другого класу було максимальним.

Така схема рішення задачі спирається на повний перебір всіх варіантів індексації векторів робочої вибірки. Для дуже малих довжин робочої вибірки (2 - f - 8) цей шлях допустимо.

Тут же розглянемо приклад, який ілюструє різницю в рішенні задачі класифікації векторів робочої вибірки методом мінімізації сумарного ризику і за допомогою вирішального правила мінімізує емпіричний ризик на навчальної послідовності. На рис. 20 вектори першого класу навчальної послідовності позначені хрестиками, вектори другого класу - кружечками. Чорними точками показані вектори екзаменаційної вибірки.

За допомогою знайденого правила F (x, a8) класифікуються елементи робочої вибірки.

Група векторів навчальної вибірки, що належать до 1-го класу, поповнюється векторами робочої вибірки, віднесених]г при класифікації до 1-го класу. Група векторів навчання з 2-го класу поповнюється елементами робочої вибірки, віднесеними до 2-го класу.

За допомогою знайденого правила F (х, а) класифікуються елементи робочої вибірки.

Формується масив М, що характеризує розподіл векторів по класах навчальної та робочої вибірці.

Алгоритм SUMR закінчує роботу, Повідомляються результати - інформація про належність кожного вектора робочої вибірки одного з двох класів.

На безлічі я, що складається з /елементів навчальної послідовності і з k елементів робочої вибірки, задається таксонів структура.

У першому випадку рекомендується скористатися алгоритмом побудови лінійного вирішального правила з урахуванням положення точок робочої вибірки.

Надалі нам знадобиться рівномірна по Fix, а) оцінка частоти помилок на робочої вибірці.

При знаходженні таксонів структури також використовується повна вибірка, причому відразу фіксується приналежність кожного елемента робочої вибірки того чи іншого таксону.

Критерій, що оцінює середній ризик, дозволяє зважити ці фактори і вибрати для кожної точки робочої вибірки оптимальну околиця і відповідне наближення регресії.

Далі лінійні оцінки регресії в локальних околицях використовуються для прогнозу значень вихідної величини в точках робочої вибірки.

Потрібно за допомогою лінійного вирішального правила F (x, a) так індексувати точки робочої вибірки, щоб Мінімізувати число помилок класифікації.

Нехай Х[- деяка околиця, яка містить /точок навчальної вибірки і ki точок робочої вибірки.

Тут 2j (r) означає, що підсумовування ведеться лише за класифікаціями тих векторів робочої вибірки, які належать обраної, околиці точки ХГ.

Алгоритм SUMR призначений для визначення за допомогою лінійних вирішальних правил значень індикаторної функції в точках робочої вибірки.

Алгоритм SUMKL призначений для визначення за допомогою кусково-лінійних вирішальних правил значень індикаторної функції в точках робочої вибірки.

Для алгоритму ЛОР в масиві YPMIN накопичуються середні значення побудованих оцінок регресії на тих векторах робочої вибірки, які належать оптимальним околицях, отриманим в блоці МНК.

Для того, щоб геолого-статистичні моделі були надійні, проводять класифікацію об'єктів, і в робочу вибірку включають тільки об'єкти, близькі за комплексом геолого-фізичними параметрами.

Алгоритм SUMKL реалізує аналогічну процедуру, але більш ефективно використовує додаткову інформацію, що міститься в робочій вибірці. Програма FOP для кожного рівня структури проводить оптимізацію кусочно-лінійного поділу з урахуванням положення точок робочої вибірки.

Розглянутий алгоритм використовує локальне поведінка-функції, яка визначає класифікацію об'єктів в просторі опису, поблизу кожної точки робочої вибірки. Навіть в тих випадках, коли вирішальне правило істотно нелінійно, в деякій околиці воно наближається до лінійного. З ростом околиці якість лінійного наближення падає. З іншого боку, зростає частка навчальної та робочої вибірок, яка потрапляє в околицю. Алгоритм шукає компроміс між цими протиборчими факторами.