На практике обучающий набор обычно не нормирован ввиду того
,
что экспертная оценка
q
j,n
является неравномерной по пространству
признаков и несбалансированной между классами
,
т
.
е
.
N
n
=1
q
i,n
=
N
n
=1
q
j,n
, i
=
j, i, j
∈
1
,
2
, . . . , K.
Поэтому целесообразно рассматривать нормированную оценку ве
-
роятности
˜
p
j
(x
, σ
) = ˆ
p
j
(x
, σ
)
K
j
=1
ˆ
p
j
(x
, σ
)
.
(6)
Нормировочный коэффициент
1
/
(
Nσ
√
2
π
)
выражения
(6)
сокра
-
щается в отношении
(5),
поэтому далее при расчетах его будем опус
-
кать
.
Объединимметоды Парзена и
Q
-NN
в гибридный метод
,
суть кото
-
рого заключается в адаптивномвыборе
σ
в соответствии с принципом
Q
-NN:
σ
= min
{
σ
|∃
ˆ
p
j
(x
, σ
)
≥
Q,
1
≤
j
≤
K
}
,
(7)
где
ˆ
p
j
(x
, σ
) =
N
n
=1
q
j,n
exp
d
2
(x
,
y
n
)
2
σ
2
.
(8)
Значение
Q
j
(
k
)
выбирается для каждого класса в зависимости от сум
-
марного веса экспертных оценок
“
Ошибка
!”
и плотности точек
y
n
в
пространстве признаков
.
Один из способов выбора оценки
“
Ошибка
!”
—
формула
(4).
Альтернативнымподходомк адаптивной подстройке
σ
является не
минимальное значение в условии
(7),
а максимальное различие норми
-
рованных вероятностей
:
σ
= min (max arg
σ
˜
p
j
(x
, σ
)) :
∃
˜
p
j
(x
, σ
)
≥
Q
j
,
1
j K,
Гибридный метод может быть реализован при помощи алгоритмов
[15–17, 19],
оптимизирующих поиск ближайших соседей и вычисление
оценки
ˆ
p
j
.
Выводы
.
1.
Рассмотрены методы непараметрической классифика
-
ции
k
-NN
и окно Парзена
.
Эти методы расширены для приложений с
нечеткимобучающимнабором
.
Введение нечеткости при помощи век
-
тора
q
n
в обучающий набор позволяет задавать классификацию в тер
-
минах теории вероятности или мягких множеств
,
а так же учитывать
такие факторы
,
как точность измерений признаков
.
56 ISSN 0236-3933.
Вестник МГТУ им
.
Н
.
Э
.
Баумана
.
Сер
. “
Приборостроение
”. 2005.
№
3