Комп'ютерні системи штучного інтелекту

Тема. Класифікація алфавітно-цифрової інформації з використанням штучних нейронних мереж.

Мета. Вивчити сучасні методи класифікації образів із використанням штучних нейронних мереж.

1. Теоретичні відомості

1.1 задача розпізнавання образів

Істотною особливістю процесу сприйняття є наявність вродженого механізму класифікації певних груп подій або образів за їх найхарактернішими ознаками. Не будучи спроможними класифікувати явища, ми змушені були б запам'ятовувати безліч конкретних об'єктів навколишнього світу. Так, для читання книг необхідно було б вивчити шрифти всіх друкарень, бо кожна з них має власні, відмінні від інших, набори друкарських літер. А встановлення медичних діагнозів було б дуже складним, тому що майже не існує абсолютно тотожних симптомів однієї хвороби.

Насправді все не настільки трагічно. Ми читаємо книги, видані в різних місцях, розрізняємо незнайомий почерк, безліч предметів, побачених уперше, можемо передбачати характер хвороби.

Рис. 1. Приклади різних написань літери «а».

\

Розпізнавання безлічі об'єктів або ситуацій, що належать до одного класу, за обмеженою кількістю їхніх ознак пов'язане з характерною лише людині здатністю до узагальнення та абстрактного мислення.

Людський мозок спроможний формувати деякі загальні уявлення, що охоплюють подібні за своїми зовнішніми ознаками явища. Тому процес сприйняття в людини базується на попередньому досвіді, коли на стадії навчання при показі обмеженої кількості об'єктів утворилося поняття образу, що включає безліч подібних об'єктів, які людина "впізнає" надалі. Так,

Це пояснюється тим, що в процесі сприйняття ми вчимося розбивати всі явища навколишнього світу на групи, що мають характерні ознаки. Всі фігури, подані на рис. 1, можна назвати літерою «а», хоча їхнє написання значно відрізняється.

Наприклад, учень, який вивчив літери в тому зображенні, що йому подав вчитель, розпізнає їх, скажемо, у слов'янському тексті. Таким чином, мета навчання полягає в успішному впізнанні всієї множини об'єктів після ознайомлення з його частиною.

Нині, незважаючи на широкий спектр експериментальних досліджень, найґрунтовніше вивчені лише біологічні аналізатори — приймаючі пристрої, в яких здійснюють первинну обробку та кодування інформації, що надходить потім по нервових каналах у відповідні ділянки мозку.

Між фоторецепторами і мозком увімкнена складна нейронна мережа, що виконує деяку первинну обробку зорової інформації. У цій мережі можна визначити рухи зображення за рахунок передачі сигналів лише в момент зміни освітленості та встановити контури зображення. Крім того, безпосередньо в сітківці відбувається визначення за контурами найпростіших конфігурацій — кривизни, кутів, відрізків ліній. Цей механізм вроджений і його здійснюють спеціальні нейрони, що пов'язані з групами рецепторів, що збуджуються при певних конфігураціях деталей зображення. Так визначають елементарні ознаки.

У результаті досліджень зорового органа людини і тварин сконструйована значна кількість цікавих приладів, що дають змогу класифікувати за простими ознаками деякі об'єкти незалежно від їхніх розмірів, орієнтації в просторі або перспективних змінах. При спробах з'ясувати механізм подальшої переробки інформації, пов'язаний з асоціативними процесами в корі мозку, виникають певні складнощі. Тому головну роль у вивченні розпізнавання складних явищ відіграють різні аналітичні методи, у яких дані біологічних експериментів використовуються для оцінки «істинності» запропонованих моделей.

1.2. Структура персептрона

При аналітичному моделюванні нервових структур можливі три підходи.

Використовуючи дані про будову елементарної нервової клітини — нейрона, можна описати його математично, щоб надалі спробувати синтезувати складну мережу, що має комплекс заданих властивостей.

Найцікавіші в цьому напрямку роботи американських учених — рашевського і значно пізніші дослідження ходжкіна і хакслі, у яких емпіричні властивості окремих нейронів описані за допомогою диференціальних рівнянь. У них автори прагнуть із достатньою точністю врахувати всі параметри передачі сигналу через нейрон: просторове і тимчасове підсумовування, постійність часу, іонну проникність тощо. Однак додати отримані вирази до інформаційних процесів у багаторівневих мережах неможливо через складність математичного апарата.

Інший метод полягає у формалізації нейронних мереж за допомогою представлення нейрона у вигляді граничної ключової схеми, що має два стани - «увімкнений» або «вимкнений» - і спрацьовує, якщо алгебраїчна сума вхідних сигналів перевищує поріг. Вхідні імпульси можуть бути або позитивними (збудливими), або негативними (гальмуючими). Група таких схем утворює універсальний обчислювальний елемент, який використовують для побудови логічної мережі, що реалізує будь-які функції алгебри логіки.

Уперше такий підхід до моделювання складних систем запропонували мак-калок і пітс для вирішення логічних завдань, у тому числі навчання і розпізнавання. Застосування такого підходу потребує переважно написання таблиці істинності, що встановлює зв'язок вхідних і вихідних співвідношень. А це, у свою чергу, потребує попереднього знання про очікувану поведінку всієї системи, у відповідь на кожну комбінацію вхідних сигналів. Зрозуміло, що для складних систем складання такої таблиці створює значні складнощі.

Експериментальні дані про будову нервової тканини свідчать про випадковий характер зв'язків між її елементами. Під мікроскопом добре видно хаотичне переплетення сполучних волокон, що мають різну довжину і кількість відгалужень. Уявлення про випадковість міжнейронних з'єднань є основою статистичного підходу до моделювання нервових структур.

Такий підхід не означає, що в нервовій системі відсутні певні обмеження, які забезпечують цілеспрямовану діяльність організму. Навпаки, ці обмеження, реалізовані або у формі щільності статистичного розподілу зв'язків, їхньої спрямованості, або в якісних властивостях нейронів тощо, - це необхідні умови при моделюванні розпізнаючих пристроїв.

Вперше принцип статистичної організації використав американський учений ф. Розенблат для створення моделі розпізнавальної машини, яка отримала назву персептрон (від perception - сприйняття). Персептроном називатимемо будь-яку модель нейронної мережі, що складається з рецепторних, асоціативних і реагуючих елементів і має механізм, спроможний впливати на зв'язки між деякими з цих елементів, змінюючи їх цілеспрямованим способом. Блок-схема персептрона подана на рис. 2. Як рецепторний пристрій використана матриця, що складається з фотоелементів і є за суттю спрощеною моделлю рецепторного поля сітківки. Зображення - літери, картинки, фотографії - проектуються на це поле, створюючи конфігурацію світлих і темних місць. Кожен фотоелемент - це світлочутливий датчик, на виході якого або існує, або відсутній сигнал залежно від того, падає чи ні на цей елемент контур проектованої фігури.

Рис. 2. Принципи організаційної структури персептрона

Сі

О і-

С ф

^ ф

0_

Наступний блок персептрона - це набір граничних елементів, що утворюють так зване асоціативне поле, у якому визначають основні ознаки зображення. Всі елементи цього поля однакові і є різновидом формальної моделі нейрона. Кожен такий нейрон (л-елемент) має один вихід і кілька входів, на які надходять сигнали від фоторецепторів.

У процесі формування персептрона входи кожного а-елемента довільно під'єднують до виходів кількох рецепторів. При цьому кожне з'єднання може передавати залежно від увімкнення позитивне або негативне значення сигналу.

Таким чином, на кожному а-елементі відбувається підсумовування сигналів від з'єднаних із ним сенсорів. У випадку, якщо вхідний сигнал а- елемента перевищує значення власного порога (однакового для всіх нейронів асоціативного поля), то цей а-елемент збуджується і подає сигнал на спеціальний реагуючий пристрій (я-елемент). Я-елемент, вхід якого зв'язаний із певною групою а-елементів, залежно від їх стану показує наявність або відсутність потрібної ознаки зображення, подаючи сигнал +1, якщо алгебраїчна сума вхідних сигналів позитивна, і -1, якщо ця сума негативна. У випадку нульового сигналу реакція невизначена.

Розглянемо тепер процес навчання елементарного персептрона за схемою рис. 3, що складається з моделі зовнішнього середовища а, що має набір деяких образів, навчаючої системи б і власне персептрона в. Як навчальну систему можна використати автоматичний пристрій або експериментатора. Ця система порівнює інформацію, отриману від об'єкта, який сприймають в даний момент, із реакцією персептрона на об'єкт і спроможна впливати на а-елементи,

Рис. 3. Схема навчання персептрона

Функції «вчителя» у цьому випадку зводяться до потрібної зміни вагових коефіцієнтів зв'язків між асоціативним полем і реагуючим елементом. У найпростішому випадку можна уявити, що розмір сигналів від збуджених а- елементів змінюється за допомогою підсилювачів зі змінними коефіцієнтами підсилення, що з'єднують вихід кожного а-елемента з я-елементом.

Вимагаючи правильної відповіді.

Таким чином, на я-елемент надходить сумарний сигнал від збуджених а- елементів, у кожному з яких присутні значення власної ваги зв'язку (коефіцієнта підсилення я). Роботу я-елемента визначають за такою умовою:

 

+1, якщо е яіуі > 0 і=1 п

(1.1),

R =

-1, якщо еііуі < 0

 

І=1

Де уі - вихідний сигнал від а-елемента, збудженого в тому випадку, якщо алгебраїчна сума сигналів від фоторецепторів перевищує його власний поріг 0.

Описаний персептрон має один я-елемент і може розпізнавати з усієї множини показаних йому об'єктів лише два класи образів, кожному з який відповідають два можливих стани я-елемента: +1 і -1. На вхідний пристрій персептрона послідовно проектують зображення, що належать одному з двох образів, наприклад різні написи літер «а» і «б». Навчальна система залежно від правильної або неправильної реакції впливає на ваги зв'язків. Для того, щоб персептрон міг розпізнавати більшу кількість образів, наприклад усі літери алфавіту, потрібно збільшити кількість я-елементів. На кожному я-елементі будуть підсумовуватися сигнали, що відповідають певним ознакам об'єкта. Дані про наявність або відсутність цих ознак, що знімають із виходів а- елементів, визначать приналежність показаного об'єкта до якогось образу.

Процес навчання в цьому випадку аналогічний до описаного і полягає в підсиленні корисних ваг зв'язків.

Перша розпізнаюча машина, названа «марк-1», створена в 1958 р. Під керівництвом ф. Розенблата. Зображення проектували на матрицю з 20x20 фотоопорів, яку могли встановити у фотоапарат замість пластинки або яка могла бути екраном для діапозитивів. Сигнали з цієї матриці надходять на 512 асоціативних елементів, які використовують електромеханічні реле, спеціальні інтегратори і ваги а-елементів. Виходи а-елементів можна подавати на вісім а-елементів із двома стійкими станами, пов'язаними з візуальними індикаторами. Всі з'єднання між рецепторною, асоціативною і реагуючою частинами персептрона можуть набиратися на двох комутуючих панелях, що зв'язують фотоматрицю з а-елементами і а-елементи з я-елементами. Дослідження проводилися в трьох напрямках. У першому розглядали можливості персептрона розрізняти прості геометричні фігури.

Навчання «марк-1», тобто зміну ваг зв'язків від а-елементів, здійснюване вручну та автоматично, можна проводити двома способами.

У першому випадку на сітківку персептрона проектують деяку літеру й одночасно повідомляють правильну відповідь шляхом установки я-елемента в потрібний стан зміною ваги а-елементів. Потім показують іншу літеру, для якої знову повідомляють правильну відповідь. Після певної кількості таких показів асоціативні елементи мають взаємодіяти з я-елементами залежно від «розглянутої» літери, забезпечуючи їхнє розпізнавання в будь-якій послідовності. Результат такого способу навчання, що полягає в примусовій зміні ваг при кожному показі, незалежно від характеру відповіді («пасивне» навчання), показаний на рис. 4 (крива а). Очевидно, що якість розпізнавання в цьому випадку явно незадовільна. Якщо ж роль «вчителя» полягає в корекції неправильних відповідей, то результати є доволі пристойними (крива б). Для цього потрібний вплив на асоціативні елементи здійснюють лише при помилкових показах персептрона («активне» навчання). Навчений «марк-1» розпізнав 26 латинських літер у тому випадку, якщо вони були правильно орієнтовані та розташовані у визначеному місці сітківки.

Другий напрямок досліджень полягав у розгляді впливу перешкод у частині зображення, випадкових помилок навчального і поступового відімкнення частини асоціативних елементів на нормальне функціонування персептрона. Тут найцікавіші результати ті, що показують збереження стійкої роботи при виході з ладу певної кількості а-елементів. Як видно з графіків рис. 5, «марк-1» зберігає набуті в процесі навчання властивості і при значному порушенні своєї структури. В цьому ще раз виявляється подібність персептрона до мозку, який, як відомо, спроможний відновлювати багато своїх функцій навіть при значному видаленні його частини.

Навчання з корекцією

Ш

50

Очікуване значення при ^випадковій відповіді

/ & *

Й

 

Е

Д

 

Ві о

5

П д

Ї ї

Ві

Ф

*

X

 

И н ь

Иль

О <о

В

Та

А

Ї

Р

 

П

\о еч

 

Примусове навчання

Кількість експозицій кожної букви при дослідженні аб

 

£ ї

50

15

X -о

3                       ї

1 (0 (0

(0 і &

Рис. 4. Криві навчання по розпізнаванню 8 букв.

Т

?5

 

/д а-еле- ментів виключено

% а-еле- ментів виключено

% а-еле-

Ментів виключено

Непошкоджений персептрон (240 а-еле- ментів)

 

Рис. 5. Вплив зменшення а-елементів на навчений персептрон:

1 - відсутність шуму, 2 - наявність шуму, 3 - очікуване значення при випадковій відповіді.

І насамкінець, ряд експериментів мали за мету визначити здатність персептрона до узагальнень на основі нагромадженого досвіду. Це розуміємо як наступне. Якщо персептрон навчений розрізняти кілька образів, наприклад літери чи геометричні фігури, у визначеному місці поля сітківки, то перенесення об'єкта в інше місце потребує нового перенавчання. Це відбувається тому, що потрібні ваги зв'язків були встановлені для визначення групи рецепторів, які після переміщення об'єкта не збурюються.

Аналогічно через порушення сталих ваг зв'язків помилкові відповіді персептрона виникають при наявності деформацій в об'єктах, що демонструються: розтяганні, стиску, поворотах. Результати експериментів у цій сфері, проведені на «марк-1», доволі скромні. Але завдяки їм вдалось

Сформулювати деякі вимоги до організаційної структури персептрона, що відображене у подальших розробках.

1.3. Методи узагальнення сприйняття

Наступним кроком моделювання сприйняття і розпізнавання було використання перехресних зв'язків між а-елементами і створення чотирьохрівневих персептронів. Чотирьохрівневі персептрони мають два рівні асоціативних елементів (рис. 6). Розглянемо чотирьохрівневу організацію з одним я-елементом.

4і-елементи

Рис. 6. Схема чотирьох- рівневого персептрона.

 

Кожен нейрон другого рівня зв язаний із групою нейронів першого рівня, причому поріг елементів а2 вибирають так, щоб сигнал від одного елемента а1 із групи, пов'язаної з а2, був достатній для його збурення. Елементи першого рівня з'єднані з рецепторами, що утворюють на фотоматриці конфігурації, які охоплюють всі можливі деформації і переноси зображення.

Пояснимо це на прикладі. Припустимо, що з елементом рівня а2 з'єднано к елементів а11, а12, ...а1к першого рівня. Установимо тепер такі зв'язки елементів к-групи з рецепторним полем, щоб елемент а11 розпізнавав заданий образ, наприклад літеру «а», у лівій верхній частині фотоматриці, елемент а12 розпізнавав ту ж літеру в лівій нижній частині, елемент а13 - відповідно у правій частині, тощо. Далі ми можемо встановити такі зв'язки з іншими елементами цієї групи, які розпізнавали б стиснуті або розтягнуті зображення літери «а».

Таким чином, асоціативний елемент другого рівня а2 зможе узагальнювати припустимі зміни зображення (літери «а») настільки, наскільки це закладено в розподілі зв'язків елементів к-групи з фотоматрицею. Аналогічно інший елемент другого рівня а2 зможе узагальнювати будь-які з к- перетворень іншого способу (літери «б») і т. Д.

Необхідно зазначити, що спочатку модель багаторівневого персептрона

Розглядали переважно як деяку штучну систему, що становить суто теоретичний інтерес. У жорстких вимогах, запропонованих до організації з'єднань а-елементів першого рівня з рецепторами, вбачався відхід від концепції випадкових, статистичних зв'язків, властивих біологічним нервовим системам. Однак у результаті досліджень х'юбеля і візеля на зоровій корі кішок виявили велику подібність структури їхніх асоціативних ділянок з ієрархічними персептронами.

Це ще один переконливий приклад двостороннього зв'язку між дослідженнями над живими організмами і біонікою. Опираючись на дані про побудову біологічних систем, біоніка реалізує їхні технічні моделі, що у свою чергу розширюють наше уявлення про процеси в нервових мережах і спрямовують діяльність експериментаторів на нові відкриття.

1.4. Деякі модифікації розпізнавальних пристроїв

Дотепер розглядався процес навчання розпізнавання зорових образів. Нині відомі конструкції персептронів, здатні розрізняти окремі звуки і навіть слова команди.

Зміни, які необхідно ввести в персептрон, щоби він зміг розпізнавати звукову інформацію, впливають переважно на рецепторну частину. Замість матриці фоторецепторів використовують спеціальні резонансні сенсори, настроєні на певні звукові коливання. Успішно виконана програма «tobermory» у корнельському університеті (сша) була названа так за іменем казкового кота, який розумів людську мову. На тих же принципах можна створити пристрої, що класифікують і впізнають запахи, відчувають дотик або смак. Нині у різних країнах сконструйовані дуже цікаві модифікації класичного персептрона розенблата.

Значний інтерес становить оригінальна машина італійського вченого гамба. У ній за допомогою окремого пристрою вдалося позбутися багатьох асоціативних елементів, замінивши їх послідовним відтворенням об'єкта по тактах, кожний із яких відповідає одному а-елементові. Крім того, у машині гамба дуже просто можна досягти деякого збільшення кількості рецепторів, що приводить до зниження «зернистості» зображення і підвищення розподільної спроможності системи.

Дуже перспективні роботи штайнбуха (фрн), під керівництвом якого створена універсальна матриця, призначена для розпізнавання різних образів за великою кількістю ознак.

Конструктивно матриця - це правильна решітка, за вертикальною складовою якої подають безліч ознак образу, а за горизонтальною - навчальні сигнали про приналежність ознак тому чи іншому образові. У процесі навчання відбувається зміна провідностей у вузлах перетинання стовпчиків матриці з відповідними рядками, здійснюване автоматично і спрямоване на виділення потрібних ознак об'єкта і зведення до мінімуму впливу несуттєвих ознак. Після закінчення навчання матриця може вирішувати завдання розпізнавання образів, видаючи на виході рядків умовний код, що відповідає класу образу, що показують. Простота конструкції матриці дає змогу сподіватися на її мікромініатюрне виконання, що є обов'язковою умовою при створенні асоціативної матриці з кількістю елементів, близькою до кількості нейронів у біологічних мережах.

Цінні також роботи ешбі й анджела, присвячені розпізнаванню складних об'єктів. Асоціативні елементи анджела - це 40 прямокутних решіток, складених із 1000 однакових логічних комірок, здатних розрізняти будь-які рукописні літери. Діюча система ешбі розпізнає після деякого навчання об'єкти на екрані локатора й автоматично вмикає сигнал тривоги, якщо, наприклад, з'являються літаки визначеної форми. Таким чином, ідея персептрона доволі плідна для реалізації великої кількості класифікуючих і «впізнаючих» автоматів.

Донині вважали, що в процесі навчання персептрона має бути обов'язково присутня людина, функції якої полягають у попередній класифікації об'єктів, введенні даних цієї класифікації в автомат і, крім того, у «навчанні» персептронів методом «заохочення» і «покарання», як це було описано на початку розділу.

Насправді людський мозок має вроджений механізм класифікації за визначеними ознаками без участі «вчителя». Якщо, наприклад, запропонувати дитині розсортувати колоду карт за подібністю окремих листків, то вона, напевне, через певний час знайде подібні картинки і буде їх відкладати окремо. При цьому вона керуватиметься власними розуміннями, робити це самостійно без заохочення. Кожен живий організм здатний класифікувати сприйняті з зовнішнього середовища порушення і визначати з них групи подібних подій і ситуацій. Зрозуміло, якщо б пристрої типу персептронів мали таку властивість самостійного виявлення загальних за своїм характером або поведінці об'єктів, то це означало б значний якісний стрибок у створенні «розпізнавальних машин» і відчинило б надзвичайно широке поле для їхнього застосування.

2. Хід роботи

2.1.      Ознайомитись із вищеподаними теоретичними відомостями.

2.2.      Отримати завдання від викладача згідно з варіантом (додаток 3).

2.3.       Створити матриці алфавітно-цифрової інформації для навчання нейронної мережі (кількість символів і кирилицю вибирають відповідно до варіанта), виконавши наступні етапи.

2.3.1. Скопіювати файл «а1рь8х8.хіб» або «а1рь7х5.хіб» (далі іменуватиметься як

«alfabet.xls») залежно від варіанта у свій робочий каталог.

2.3.2.       Відкрити файл «alphabet.xls» за допомогою програми ms excel. При цьому, залишити підімкненим наявний у файлі макрос, призначений для автоматизації процесу формування матриць.

2.3.3.     Активувати <лист1>.

2.3.4.         Заповнити матриці алфавітно-цифрової інформації, ввівши нулі та одиниці у відповідні клітинки (одиниця - це ознака того, що відповідний піксель зображення замальований).

2.3.5.      Після формування матриць алфавітно-цифрової інформації перемістити курсор у положення верхнього лівого пікселя кожного сформованого символу і виконати макрос <ctrl+m>. Після закінчення формування зберегти файл із матрицями під відповідним ім'ям.

2.3.6.         Активувати <лист2>. При цьому з'явиться «бітова матриця», яка подається на вхід нейронної мережі. Визначити і записати «бітову матрицю» у форматі <csv (ms-dos) *.csv>. Для цього вибрати пункт <сохранить как> в меню <файл> ms excel, вказати ім'я фала і тип: <csv (ms-dos) (*.csv)>.

2.3.7.     Відкорегувати створений файл <*.csv> засобами ms-dos (наприклад, за допомогою програми far manager), видаливши першу стрічку, що складається із розділювачів <;>.

2.4.     Подати у звіті матриці входів нейронної мережі.

2.5.     Виконати програму «prog_charrec.p» за допомогою засобів matlab.

2.6.      У висвітленому діалоговому вікні (рис. 7) вказати ім'я файла з вхідними даними нейронної мережі, похибку та кількість епох навчання нейронної мережі (відповідно до варіанта), структуру нейронної мережі, розмір одного символу (кількість пікселів), діапазон шумів, кількість тестів емуляції нейронної мережі для кожного рівня шуму (для всіх варіантів прийнятне число 5). Натиснути на клавішу «ок».

Рис. 7. Діалогове вікно виконання програми.

2.7. Процес виконання програми супроводжується:

• показом діаграми процесу навчання нейронної мережі (рис. 8);

Рис. 8. Діаграма процесу навчання нейронної мережі.

Симуляцією роботи нейронної мережі (<яеа1 уа1ие> - реальні значення, на яких навчалась нейронна мережа; <коібед іприіб> - зашумлені значення,

Що подають на вхід нейронної мережі, <с1ав8іїїса1ііоп ке2икб> - класифікація символів нейронною мережею). У верхній стрічці вікна відображена інформація про рівень шуму (<коібє 1еуе1>) і номер тесту (<тебіі>) при заданому шумі (рис. 9); • результатом розпізнавання образів нейронною мережею, при всіх тестах програми.

Рис. 9. Симуляція роботи нейронної мережі.

2.8.      У звіті подати графік похибки навчання нейронної мережі (рис. 10), один рисунок розпізнавання образів для кожного досліджуваного рівня шуму, графік похибки розпізнавання образів.

2.9.     Оформити звіт і захистити роботу у викладача.

3.       Зміст звггу

3.1.      Тема та мета роботи.

3.2.      Короткі теоретичні відомості.

3.3.      Роздруківка програми з коментарями.

3.4.      Копія з екрана результатів роботи програми.

3.5.      Результати розпізнавання образів (до кожного рівня шуму) та графік відносної похибки розпізнавання.

3.6.      Висновки.

4.     Контрольн! Запитання

4.1. Задачі розпізнавання образів.

4.2.     Що таке персептрон.

4.3.     Перші машини для розпізнавання образів.

File edit window help

Percentage of recognition

123456789 10 noise level

Рис. 10. Графік похибки розпізнавання образів.

4.4.     Модифікації розпізнаючих пристроїв.

4.5.     Методи навчання персептрона.

4.6.      Правила вибору структури нейронної мережі для виконання лабораторної роботи.

5. Література (додаток 1)

Лабораторна робота № 3

Тема. Використання технології olap в системах підтримки прийняття рішень (сппр)

Мета. Дослідити можливості використання технології olap засобами ms excel.

1. Теоретичні відомості 1.1. Сппр

Донині немає загальновизнаного визначення сппр. Наприклад, сппр розуміють як «інтерактивну прикладну систему, яка забезпечує кінцевим користувачам, які приймають рішення, легкий і зручний доступ до даних і моделей з метою прийняття рішень у напівструктурованих і неструктурованих ситуаціях з різних галузей людської діяльності». Існують інші визначення, а саме: «сппр базується на використаннях моделей ряду процедур з обробки даних і думок, що допомагають керівнику в прийнятті рішень»; «сппр - це інтерактивні автоматизовані системи, що допомагають особам, які приймають рішення, використовувати дані та моделі, щоб вирішувати неструктуровані та слабоструктуровані проблеми»; «сппр - це комп'ютерна інформаційна система, використовувана для підтримки різних видів діяльності при прийнятті рішень у ситуаціях, де неможливо або небажано мати автоматичну систему, що повністю виконує весь процес рішень». Нарешті, існує твердження, відповідно до якого сппр - це специфічний і добре описуваний клас систем на основі персональних комп'ютерів.

Таке різноманіття визначень систем підтримки прийняття рішень означає широкий діапазон різних форм, розмірів, типів сппр (додаток 4). Але практично всі види цих комп'ютерних систем мають чітку структуру, що включає три головних компоненти: підсистему інтерфейсу користувача; підсистему управління базою даних і підсистему управління базою моделей. Ці компоненти забезпечують у сппр реалізацію ряду важливих концепцій побудови інформаційних систем: інтерактивність, інтегрованість, потужність, доступність, гнучкість, надійність, робастність, керованість: • інтерактивність сппр означає, що система відгукується на різні дії, якими людина хоче вплинути на обчислювальний процес, зокрема, при діалоговому режимі. Людина і система обмінюються інформацією в темпі, порівнюваному з темпом обробки інформації людиною. Але практика підтверджує, що лише невелика кількість керівників бажає і вміє вести прямий діалог з комп'ютером. Багато з них віддають перевагу взаємодії з

Системою через посередника або в режимі непрямого доступу, де можлива пакетна обробка інформації. Разом з тим, властивість інтерактивності необхідна при досліджені нових проблем і ситуацій, при адаптивному проектуванні складних сппр;

•            Інтегрованість сппр забезпечує сумісність складових частин системи управління даними і засобів спілкування з користувачами в процесі підтримки прийняття рішень;

•            Потужність сппр означає спроможність системи відповідати на найсуттєвіші питання;

•            Доступність сппр - це здатність забезпечувати видачу відповідей на запити користувача в потрібній формі та в необхідний час;

•            Гнучкість сппр характеризує можливість системи адаптуватись до змін потреб і перемін у ситуаціях;

•            Надійність сппр полягає в здатності системи виконувати потрібні функції протягом заданого проміжку часу;

•           Робастність (robustness) сппр - це міра здатності систем відновлюватися при виникненні помилкових ситуацій зовнішнього і внутрішнього походження. Наприклад, у робастній системі допускають помилки у вхідній інформації або несправності апаратних засобів. Хоча між надійністю і робастністю існує певний зв'язок, але ці дві характеристики систем різні: система, що ніколи не буде поновлюватися при виконанні помилкових ситуацій, може бути надійною, не будучи робастною; систему з високим рівнем робастності, що може відновлюватися і продовжувати роботу при багатьох помилкових ситуаціях, можна все-таки віднести до ненадійних, бо вона не спроможна завчасно до пошкодження виконати необхідні службові процедури;

•            Керованість сппр означає спроможність з боку користувача контролювати дії системи і втручатись у хід розв'язання задачі.

1.2. Технологія olap

Технологія olap - це сучасний інструмент підтримки прийняття рішень, що недавно привернув значну увагу виробників і споживачів інформаційних послуг.

Дванадцять визначальних принципів olap сформулював у 1993 р. Е. Ф. Код, «винахідник» реляційних баз даних. Olap - це online analytical processing, тобто оперативний аналіз даних. Пізніше визначення кода переробили у так званий тест fasmi (fast analysis of shared multidimensional information - швидкий аналіз розподіленої багатовимірної інформації), що потребує, щоб olap-застосування забезпечувало такі можливості швидкого

Аналізу розподіленої багатовимірної інформації:

•            Високу швидкість (fast): аналізувати потрібно однаково швидко за всіма аспектами інформації. При цьому припустимий час відгуку має становити не більш як 5 секунд;

•            Аналіз (analysis): повинна бути можливість здійснювати основні типи числового та статистичного аналізу, визначеного розробником застосування або користувачем;

•            Поділ доступу (shared): доступ до даних повинні мати багато користувачів, при цьому потрібно контролювати доступ до конфіденційної інформації;

•            Багатомірність (multidimensional): основна, найістотніша характеристика olap. Система має забезпечити багатовимірне концептуальне подання даних, включаючи повну підтримку для ієрархій і множинних ієрархій, оскільки це безперечно найлогічніший спосіб аналізувати бізнес та організації;

•            Роботу з інформацією (information): застосування повинно мати змогу звертатися до будь-якої потрібної інформації, незалежно від її обсягу та місця збереження.

Olap дає організаціям максимально зручні та швидкі засоби доступу, перегляду й аналізу ділової інформації. Найважливіше те, що olap забезпечує користувача природною, інтуїтивно зрозумілою моделлю даних, організовуючи її у вигляді багатовимірних гіперкубів (cubes). Осі (dimensions) багатовимірної системи координат - це головні атрибути аналізованого бізнес-процесу. Наприклад, для процесу продажу це може бути категорія товару, регіон, тип покупця. Практично завжди як один з вимірів використовують час. Усередині куба знаходяться дані, що кількісно характеризують процес - так звані міри (measures). Це можуть бути обсяги продажу в штуках або в грошах, залишки на складі, витрати тощо. Користувач, який аналізує інформацію, може «нарізати» куб у різних напрямках, отримувати зведені (наприклад, по роках) або, навпаки, детальні (по тижнях) дані та здійснювати інші операції, необхідні йому для аналізу.

Оскільки аналітик завжди оперує деякими сумарними (а не детальними) даними, у базах даних olap практично завжди зберігають поряд із детальними даними і так звані агрегати, тобто заздалегідь обчислені сумарні показники. Прикладом агрегатів є сумарний обсяг продажів за рік або середній залишок товару на складі. Збереження заздалегідь обчислених агрегатів - це основний спосіб підвищення швидкості виконання olap-запитів.

Термін «olap» нерозривно пов'язаний із терміном «сховище даних» (data warehouse).

Сховище даних - це предметно-орієнтована, пов'язана з часом і незмінна сукупність даних для підтримки процесу прийняття управлінських рішень.

Дані в сховище надходять з оперативних систем (oltp, online transaction processing), призначених для автоматизації бізнес-процесів. Крім того, сховище можна поповнювати за рахунок зовнішніх джерел, наприклад статистичних звітів.

Аналізувати дані оперативних систем відразу неможливо або дуже важко. Це пояснюється різними причинами, у тому числі розрізненістю даних, збереженням їх у форматах різних субд і в різних частинах корпоративної мережі. Але навіть якщо на підприємстві всі дані зберігають на центральному сервері бд (що буває вкрай рідко), аналітик майже напевно не розбереться в їх складних, інколи заплутаних структурах. Крім того, складні аналітичні запити щодо оперативної інформації гальмують

Зацікавило?

Змiст

Нові надходження

Всього підручників:

292