94
ставлена в виде I(S) = (а
1,
..., а
2
), то элемент вектора опорных множеств ω
j
(S) = а
i
, a ε
j
-
j
-й порог.
В качестве примера решающего правила можно привести следующее (линейное пороговое
решающее правило):
объект S принадлежит к классу K
t
если
i
j
t
C
i
K
S
Г
t
i
b
1
1
)
,
(
(3.5.4)
объект S не принадлежит к классу K
t
если
i
j
t
C
i
K
S
Г
t
i
b
1
2
)
,
(
(3.5.5)
в остальных случаях -отказ от распознавания принадлежности объекта S к классу K
t
.
В работе алгоритмов распознавания вообще и АВО в частности можно выделить два этапа:
обучение и собственно распознавание. На
этапе обучения, как уже говорилось,
происходит
настройка алгоритма, т. е. выбор таких его параметров, которые обеспечивают оптимальное в нег
котором смысле распознавание объектов обучающей выборки (объектов, принадлежность кото-
рых к классам К
1
, ... ,K
i
, известна). На этапе собственно распознавания происходит отнесение к
классам K
1
,..., К
i
, тех объектов, принадлежность которых к классам априорно неизвестна.
Точность распознавания на этапе обучения измеряется полнотой и адекватностью распо-
знавания эталонных объектов. Наряду с понятием «точность» (абсолютная отделимость) иногда
удобно использовать понятие относительной отделимости
объектов обучающей выборки, при-
надлежащих к различным классам. В случае, когда распознавание
ведется для двух классов
(например, в профориентации - для дифференциального прогноза успешности оптанта в одной из
двух профессиональных областей), относительную отделимость можно определить как
min
100
min
X
X
X
(3.5.6)
где
X
- точность при обучении (выраженная в процентах), a
min
X
-минимальная возмож-
ная точность обучения (совпадает с долей объектов в наибольшем классе от общего объема обу-
чающей выборки). На этапе собственно распознавания точность характеризует главным образом
репрезентативность обучающей выборки (выборки валидизации). Чем выше репрезентативность,
тем больше совпадают показателе точности на этапах обучения и собственно распознавания.
Использование АВО кроме решения задачи распознавания позволяет получить следующую
информацию:
1. Информационные веса отдельных элементов (параметров) описания объектов. Эти веса
измеряются через изменение точности распознавания при исключении
соответствующих пара-
метров из описания эталонных объектов:
a
j
a
j
a
))
(
(
)
(
(3.5.7)
где
X
- точность распознавания при Р
j
= 1;
X
(
j
a
) - точность распознавания при Р. = 0, а а -
95
нормирующий множитель. Информационные веса интерпретируются как мера прогностической
важности параметров.
2. Оптимальные значения порогов
, т. е. значения
, обеспечивающие наивысшую точ-
ность распознавания. Эти значения порогов в нашем случае можно .интерпретировать как чув-
ствительность методики; ε
j
- своего рода дифференциальный порог на шкале тестового показате-
ля
a
j
определяющий переход индивида из одной диагностической категории в другую. Пусть на
этапе разработки теста (тестовой батареи) была обследована группа из К человек, про которых
известно, что
K
1
из них относится к одному классу, а К
2
- к другому, К = К
1
+ К
2
. Выбрав случай-
ным образом из этой группы М (М<<К) многомерных описаний, проводим на них процедуру
обучения алгоритма. Точность обучения характеризует валидность теста. После этого применяем
процедуру собственно распознавания (по выработанному решающему правилу)
для остальных К-
М описаний. В результате этой процедуры мы определяем принадлежность респондентов (испы-
туемых) к этим классам. Сравнивая полученные результаты с эталонными данными о принад-
лежности испытуемых к классам, мы определяем точность самого распознавания. Если эта точ-
ность близка к точности обучения, то наша пилотажная выборка объемом М может быть призна-
на репрезентативной для обучения. Теперь можно переходить к задаче определения информаци-
онных весов.
* * *
Для эффективного использования алгоритмов распознавания по
отношению к многомер-
ным тестовым системам (при
K
>3), как правило, требуется использование компьютера.
При решении задач небольших размерностей (по количеству параметров) иногда психолог
может быстрее найти решающее правило, применяя собственные способности зрительной систе-
мы (очень мощные) к визуально-геометрической группировке объектов. В
пространстве пара-
метров диагностические, классы выглядят как «сгущения», некие «облака» из точек, изобража-
ющих испытуемых. В этом случае при наличии априорной информации о принадлежности ин-
дивидов к классам удобно изображать точки из различных классов разными цветами (хуже -
квадратиками, кружками, треугольниками). В этом случае «решающее правило» легко «увидеть»
как некую воображаемую линию (прямую или кривую), разделяющую точки разного цвета (рис.
17). Точность диагностики в данном случае можно оценить по количеству точек, попавших при
данном решающем правиле в «чужую» половину пространства параметров.
Do'stlaringiz bilan baham: