Метод непараметрической классификации в распознавании образов - page 7

Под суммой
(3)
теперь стоит произведение
.
Первый сомножитель пред
-
ставляет собой вес
,
соответствующий вероятности
j
-
го класса для
n
-
го
элемента обучающего набора
.
Второй сомножитель
,
гауссовская функ
-
ция
,
задает вес в зависимости от расстояния между
y
n
и
x
.
Чембольше
расстояние
,
тем меньше вклад в сумму от данного элемента
.
k
ближайших соседей
(
k
-NN).
Для выражения
ˆ
p
(x) =
k
NV
k
(x)
заменим
определение
V
j,k
(x)
объем наименьшей гиперсферы
,
кото
-
рая содержит
k
точек
j-
го класса из обучающего набора
,
ближайших к
x
на
определение
V
j,Q
(
k
)
(x)
объем наименьшей гиперсферы
,
такой
что
1
l
N
y
l
V
j,Q
(
x
)
q
j,l
Q
j
(
k
)
,
где
Q
j
(
k
) =
k
N
n
=1
q
j,n
N
(4)
определяет суммарный вес точек в объеме
V
j,Q
(
k
)
(x)
для
j
-
го класса
и
k >
0
имеет такой же смысл
,
как в
k
-
NN
,
но может принимать
дробное значение
.
Будемназывать такой метод
Q
-NN.
Его основное отличие от
k
-NN
заключается в том
,
что число точек обучающего набора
,
используемое
для классификации в данной окрестности
,
не является фиксированным
,
а выбирается адаптивно в зависимости от их веса
.
Чембольше вес то
-
чек
y
n
в окрестности
x
,
темменьше точек рассматривается
.
Формула
(4)
один из простых способов выбора суммарного веса окрестности
.
На
практике проще оказывается выбрать одно значение экспериментально
сразу для всех классов
:
Q
=
Q
1
=
. . .
=
Q
K
.
Новый метод
:
гибрид окна Парзена и
k
-NN
.
Для решения главной
проблемы рассмотренных подходов
выбора значения
σ
и
k
рас
-
смотрим следующий адаптивных метод
.
Запишемоценку вероятности
Парзена
(3)
как функцию
,
зависимую от
x
и
σ
:
ˆ
p
j
(x
, σ
) =
1
2
π
N
n
=1
q
j,n
exp
d
2
(x
,
y
n
)
2
σ
2
.
(5)
ISSN 0236-3933.
Вестник МГТУ им
.
Н
.
Э
.
Баумана
.
Сер
. “
Приборостроение
”. 2005.
3 55
1,2,3,4,5,6 8,9,10
Powered by FlippingBook