Главная Обратная связь

Дисциплины:

Архитектура (936)
Биология (6393)
География (744)
История (25)
Компьютеры (1497)
Кулинария (2184)
Культура (3938)
Литература (5778)
Математика (5918)
Медицина (9278)
Механика (2776)
Образование (13883)
Политика (26404)
Правоведение (321)
Психология (56518)
Религия (1833)
Социология (23400)
Спорт (2350)
Строительство (17942)
Технология (5741)
Транспорт (14634)
Физика (1043)
Философия (440)
Финансы (17336)
Химия (4931)
Экология (6055)
Экономика (9200)
Электроника (7621)


 

 

 

 



Класифікація на основі байєсовської теорії рішень



Байєсовський підхід

Байєсовський підхід виходить із статистичної природи спостережень. За основу береться припущення про існування імовірнісної міри на просторі образів, яка або відома, або може бути оцінена. Мета полягає в розробці такого класифікатора, який буде правильно визначати найбільш вірогідний клас для пробного образу. Тоді задача полягає у визначенні "найбільш вірогідного" класу.

Задано M класів Ω1, Ω2, …, ΩM, а також P(Ωі │x), i = 1,2,.., M - вірогідність того, що невідомий образ, що представляється вектором ознак x, належить класу Ωі.

P(Ωі │x)називається апостеріорною вірогідністю, оскільки задає розподіл індексу класу після експерименту (a posteriori - тобто після того, як значення вектора ознак x було отримано).

Розглянемо випадок двох класів Ω1і Ω2. Природно вибрати вирішальне правило таким чином: об'єкт відносимо до того класу, для якого апостеріорна вірогідність вища. Таке правило класифікації за максимумом апостеріорної вірогідності називається Байєсовським: якщо P(Ω1 │x)> P(Ω2 │x), то x класифікується в Ω1, інакше в Ω2. Таким чином, для вирішального Байєсовського правила необхідно отримати апостеріорну вірогідність P(Ωі │x), i = 1,2 . Це можна зробити за допомогою формули Байеса.

Формула Байеса, отримана Т. Байесом в 1763 році, дозволяє вичислити апостеріорну вірогідність подій через апріорну вірогідність і функції правдоподібності.

Нехай A1, A2,.., An - повна група несумісних подій. Ai = Ω. Ai Aj = Ø при i ≠ j. Тоді апостеріорна вірогідність має вигляд:

P(Aі │B) =

Де P(Aі )─ апріорна вірогідність події Aі, P(B│Aі )─ умовна вірогідність події Bза умови, що сталася подія Aі.

Розглянемо отримання апостеріорної вірогідності P(Ω │x), знаючи P(Ω)і P(x │Ω).

P(AB) = P(A│B) P(B), P(AB) = P(B│A) P(A) P(A│B) P(B) = P(B│A) P(A)

P(B│A) =

Якщо P(A)і P(A│B)описуються щільностями p(x)і p(x|B), то

P(B│х) = ═> P(Ωі│х) =

При перевірці класифікації порівняння P(Ω1│x)і P(Ω2│x)еквівалентне порівнянню р(х│Ω1)P(Ω1)і р(х│Ω2)P(Ω2).

У разі, коли P(Ω1│x) = P(Ω2│x), вважається, що міра множини x дорівнює нулю.

Таким чином, задача порівняння по апостеріорній вірогідності зводиться до обчислення величин P(Ω1), P(Ω2), р(х│Ω1)і р(х│Ω2). Будемо вважати, що у нас достатньо даних для визначення вірогідності приналежності об'єкта кожному з класів P(Ωі), і = 1,2. Такі вірогідності називаються апріорними вірогідностями класів. Також будемо вважати, що відомі функції розподілу вектора ознак для кожного класу P(Ωі│x),і = 1,2. Вони називаються функціями правдоподібності х по відношенню до Ωі. Якщо апріорна вірогідність і функції правдоподібності невідомі, то їх можна оцінити методами математичної статистики на множині прецедентів.

Наприклад, P(Ωі) ≈ ,де Nі ─ кількість прецедентів з Ωі , і = 1,2. N - загальне кількість прецедентів. Р(х|Ωі.) може бути наближене гістограмою розподілу вектора ознак для прецедентів з класу Ωі.

Отже Байєсовський, підхід до статистичних задач грунтується на припущенні про існування деякого розподілу вірогідності для кожного параметра. Недоліком цього методу є необхідність відповідного постулату як існування апріорного розподілу для невідомого параметра, так і знання його форми.

Помилка класифікації

Вірогідність називається помилкою класифікації,

R1= {x: P(Ω1)р(х│Ω1) > P(Ω2)р(х│Ω2)} R2= {x: P(Ω1)р(х│Ω1) < P(Ω2)}

області рішення (Ω1 Ω2 = Ø).

Теорема. Байєсовський класифікатор є оптимальним по відношенню до мінімізації вірогідності помилки класифікації.

Доведення. Розглянемо помилку класифікації :

Ре = Р(х R2, Ω1) + Р(х R1, Ω2)= P(Ω1) р(х│Ω1)dx + P(Ω2) р(х│Ω2)dx=

= P(Ω1) (1 - р(х│Ω1)dx) + P(Ω2) р(х│Ω2)dx= P(Ω1) - P(Ω1) р(х│Ω1)dx + P(Ω2) р(х│Ω2)dx

Враховуючи формулу Байєса: P(Ωі│х) = ,і = 1,2 отримаємо:

= P(Ω1) - P(Ω1) Р dx + P(Ω2) Р dx =

= P(Ω1) - P(Ω1│х)p(x)dx + P(Ω2│х)p(x)dx= P(Ω1) - p(x) (P(Ω1│х) - P(Ω2│х))dx

Таким чином, мінімум досягається, коли R1 = {х: (P(Ω1│х)> P(Ω2│х)}. R2 вибирається з інших точок.

Ця теорема була доведена для двох класів Ω1 і Ω2. Узагальнимо її на M класів.

Нехай вектор ознак x відноситься до класу Ωі, якщо (P(Ωі│х)> P(Ωj│х), при i ≠ j, i = 1,2,.., M, j = 1,2,.., M. Необхідно довести, що це правило мінімізує вірогідність помилки класифікації. Для доведення слід cкористатися формулою правильної класифікації Рr = 1 - Ре.

Доведення. Скористаємося формулою правильної класифікації Рr = 1 - Ре.

Рr = Р(х R1, Ω1) + Р(х R2, Ω2 ) +… + Р(х Rl, Ωl )=

= Р(х Ri│ Ωi) P(Ωi)= P(Ωi) p(x│ Ωi) dx =

= P(Ω1) (1- p(x│ Ωi) dx) + P(Ωi) p(x│ Ωi) dx)=

= P(Ω1) - ( P(Ω1) p(x│ Ωi) dx - P(Ωi) p(x│ Ωi) dx)=

Враховуючи формулу Байєса при i=1,2,…l, отримаємо:

= P(Ω1) - ( P(Ω1) dx - dx) =

= P(Ω1) - ( P(Ω1│x) p(x) dx - P(Ωi│x) p(x) dx)

P(Ω1) - ( p(x) (P(Ω1│x) - P(Ωi│x)) dx

Таким чином, максимум досягається, коли Р(ωlх)< Р(ωiх). Аналогічно для всіх j = 1,2,..,l максимум досягається, коли Ri = {х: Р(ωjх)< Р(ωiх) }.



Просмотров 370

Эта страница нарушает авторские права




allrefrs.su - 2024 год. Все права принадлежат их авторам!