размера окна на основе оценки дисперсии в точке
x
.
Так же следует от
-
метить
,
что выражение
(1)
описывает идеальный случай и не учитывает
возможные ошибки признаков
x
и
y
n
.
Вычисление суммы
(1)
ресурсоемко в случае большой выборки
.
Ряд
методов
[15, 16]
был предложен для решения этой проблемы
,
в частно
-
сти на базе оптимального сокращенного набора из
{
y
n
}
[17].
k
ближайших соседей
(
k
-NN).
Пусть дана выборка
{
y
n
}
из
N
то
-
чек
.
Выберемчисло соседних точек
k < N
,
например
k
=
√
N
[1].
Тогда оценка ПР в точке
x
будет
ˆ
p
(x) =
k
NV
k
(x)
,
где
V
k
(x)
—
объемнаименьшей гиперсферы
,
которая содержит
k
точек
,
ближайших к
x
.
Другими словами
,
для того чтобы отнести точку
x
к то
-
м у или ином у классу
,
необходимо зафиксировать
k
и сравнить размеры
(
радиусы
)
окрестностей
V
k
(x)
,
покрывающие
k
точек из
{
y
n
}
,
ближай
-
ших к
x
.
Тогда класс с наименьшим
V
k
(x)
будет наиболее вероятным
.
Недостаткомметода
k
-NN
является то
,
что в немне учитываются
расстояния между рассматриваемой точкой
x
и точкам и выборки
{
y
n
}
внутри
окрестности
V
k
(x)
.
Очевидно
,
ближайшие точки должны иметь
б
´
ольший вес
,
чемостальные
.
Другой проблемой метода является выбор
оптимального
k
в случае неоднородности выборок по каждому классу
.
Новый метод
:
нечеткий обучающий набор
.
В рассмотренных под
-
ходах Парзена и
k
-NN
предполагается
,
что все элементы обучающего
набора имеют одинаковый вес и принадлежат только к одному из клас
-
сов
,
т
.
е
.
q
j,n
∈ {
0
,
1
}
,
K
j
=1
q
j,n
= 1
,
где
q
j,n
—
экспертная оценка
,
j
—
номер класса и
n
—
номер обучающе
-
го элемента
.
Расширим оба рассмотренных метода для классификации
с нечеткимобучающимнабором
,
для которого
0
≤
q
j,n
≤
1
,
K
j
=1
q
j,n
= 1
.
Окно Парзена
.
Для реализации взвешенного суммирования доба
-
виммножитель
q
j,n
в выражение
(1):
ˆ
p
j
(x) =
1
Nσ
√
2
π
N
n
=1
q
j,n
exp
d
2
(x
,
y
n
)
2
σ
2
.
(3)
54 ISSN 0236-3933.
Вестник МГТУ им
.
Н
.
Э
.
Баумана
.
Сер
. “
Приборостроение
”. 2005.
№
3