Выбор информативных признаков в автономных информационных системах с нейросетевыми трактами обработки сигналов - page 7

При раскрытии модулей в выражениях
(9)
и
(10)
можно перейти к
нейроподобным структурам
,
реализующим эти алгоритмы
[2].
Например
,
при
N
= 2
алгоритм работы регрессионной системы об
-
наружения будет иметь вид
[1]
ax
1
+
bx
2
K
|
x
2
β
21
x
1
|
>
U
п
,
(11)
где
K
,
a
и
b
весовые коэффициенты
.
Выбором коэффициентов
а
, b
и
K
можно задавать положение линейных границ области принятия ре
-
шения относительно линии регрессии
:
x
2
β
21
x
1
= 0
.
Это эквивалентно изменению положения разделяющей поверхности
при использовании модели нейронной сети
.
Алгоритм
,
соответствующий неравенству
(11),
можно заменить
эквивалентной системой неравенств
x
1
(
a
+
21
) +
x
2
(
b
K
)
>
U
п
, x
2
β
21
x
1
>
0
,
x
1
(
a
21
) +
x
2
(
b
+
K
)
>
U
п
, x
2
β
21
x
1
<
0
(12)
и реализовать с помощью двухслойной нейронной сети с пороговыми
активационными функциями
,
где первый слой реализует неравенства
(12),
а второй слой
,
состоящий из одного нейрона
, —
элемент И
(
рис
. 2).
Параметры сети следующие
:
матрица весов
1-
го слоя
W
=
·
w
11
w
12
w
21
w
22
¸
=
·
a
+
21
a
21
b
K b
+
K
¸
,
вектор порогов
1-
го слоя
Π =
·
π
1
π
2
¸
=
·
U
п
U
п
¸
,
вектор весов
2-
го слоя
S
=
·
s
1
s
2
¸
=
·
0
,
5
0
,
5
¸
,
порог
2-
го слоя
0
,
5
< s
0
<
1
.
Недостаток регрессионного подхода заключается в необходимо
-
сти оптимизации параметров алгоритмов
(
коэффициентов
K
i
),
что при
большой размерности входного вектора значительно усложняет реше
-
ние задачи
.
Нейросетевая структура позволяет выделить более слож
-
ные зависимости
,
нежели те
,
которые выражаются коэффициентами
регрессии
.
76 ISSN 0236-3933.
Вестник МГТУ им
.
Н
.
Э
.
Баумана
.
Сер
. “
Приборостроение
”. 2003.
3
1,2,3,4,5,6 8,9,10,11,12,13,14
Powered by FlippingBook