Айтрекинг в психологической науке и практике - Коллектив авторов
Шрифт:
Интервал:
Закладка:
– инициализируется (заполняется нулями) квадратная матрица, чьи размерности соответствуют количеству областей интереса;
– по очереди перебираются элементы последовательности посещенных областей интереса (исключая последнюю) – фиксируется текущий элемент последовательности (номер посещенной зоны, обозначаемый как i) и последующий элемент (номер зоны, в которую совершен переход, обозначаемый как j), а сама матрица обновляется: элемент с индексом (i, j) увеличивается на единицу;
– формируется матрица оценок вероятностей переходов, состоящая из элементов полученной на предыдущем шаге матрицы абсолютных частот переходов, поделенных на сумму всех ее элементов.
Расчет элементов матрицы представления преемника более сложен для понимания, однако, так же легко реализуется программно:
– инициализируется (заполняется нулями) квадратная матрица М, чьи размерности соответствуют количеству областей интереса;
– по очереди перебираются элементы последовательности посещенных областей интереса (исключая последнюю) – фиксируется текущий элемент последовательности (номер посещенной зоны, обозначаемый как О и последующий элемент (номер зоны, в которую совершен переход, обозначаемый как;'), a i-я строка матрицы М обновляется по следующему правилу:
где I – единичная матрица того же порядка, что и М, а – параметр скорости обучения, (0<а<1), у – временной весовой коэффициент, (0<у<1).
Таким образом, при наблюдении перемещения из области интереса i в область; набор ожидаемых преемников для «отправителя» i (строка Мi) обновляется так, чтобы учесть переход в «преемника» j, а также в предполагаемые (с учетом предыстории процесса) преемники посещаемой области; (столбец М), но с уменьшенным влиянием на результат (для этого производится умножение на понижающий временной коэффициент у). В итоге мы учитываем не только сам факт перемещения из области i в область l, но и предысторию перемещения из области j в другие области.
Оценка SR-матрицы, построенная по заданной последовательности посещенных областей интереса, содержит сумму взвешенных по удаленности во времени будущих попаданий в некоторую область интереса, определяемую заданным столбцом при условии, что в данный момент посещена область, определяемая строкой. Заметим, что получаемая матрица не является стохастической (т. е. ее элементы не представляют собой оценки вероятностей). Поэтому сумма всех значений столбца SR-матрицы может превышать единицу. Для корректного сопоставления SR-матриц, полученных для записей различной длительности, необходимо эти матрицы нормировать (делить каждый элемент на сумму элементов матрицы). Однако нормирование может и не проводиться, если исследователя интересует, в частности, вариация длительностей траекторий взора.
Стоит заметить, что относительно недавно была продемонстрирована формальная связь концепции представления преемника и модели эпизодической и семантической памяти (Howard, Kahana, 2002; Sederberg et al, 2008).
Важным отличием между матрицей представления преемника и матрицей вероятностей переходов является то, что последняя отражает закономерности только первого порядка (касающиеся переходов между смежными элементами последовательности), в то время как первая настраивается для предсказания будущих посещений в рамках временного окна, чья эффективная ширина зависит от коэффициента у (Gershman et al., 2012).
Пусть дана следующая последовательность номеров посещенных областей интереса: [1, 2, 4, 2, 4, 1, 4, 2, 3, 1, 3, 2, 1, 3, 1, 2, 4, 1, 3, 1, 3]. По заданной последовательности вычислены матрица вероятностей переходов и нормированная SR-матрица, представленные в таблицах 1 и 2.
Приведенный пример матриц демонстрирует, например, что оценка вероятности переходов из области № 4 в область № 3 является нулевой, поскольку прямых переходов из области № 4 в область № 3 в последовательности не наблюдается. При этом матрица представления преемника отражает взвешенное по временной удаленности нормированное количество будущих пребываний в области № 3 после пребывания в области № 4 (ячейка № 3.4), а также указывает, например, на то, что ближайшие по времени будущие попадания в область № 3 после пребывания в ней же более вероятны (ячейка № 3.3), нежели будущие попадания в область № 4.
Сокращение размерности пространства переменных и анализ выделенных компонент или факторов. Рассчитав значения традиционных интегральных показателей и дополнительные информативные признаки, для сокращения размерности пространства анализируемых переменных можно с помощью соответствующего метода выделять скрытые главные компоненты или факторы, объясняющие высокую долю суммарной дисперсии полученного набора переменных. Важным аспектом при выборе компоненты/фактора является как доля описываемой дисперсии, так и возможность интерпретации новой переменной по величинам компонентных нагрузок наблюдаемых переменных (частных корреляций переменных и компонент). Примеры двух главных компонент, описывающих 19,5 % доли суммарной дисперсии элементов SR-матриц, построенных по последовательностям фиксаций взора в областях интереса, выделенных на стимульном материале теста Равена, приведены на рисунках 3 и 4. Номера столбцов и строк данных матриц совпадают с номерами областей интереса, выделенных в стимульном материале заданий теста Равена (1, 2, 3 – верхняя строка элементов матрицы задания; 4, 5, 6 – средняя строка; 7, 8, 9 – нижняя строка; 10 – область альтернатив ответа).
Рис. 3. Цветовые матрицы, отражающие величину нагрузок первой главной компоненты, описывающей 12,5 % суммарной дисперсии элементов SR-матриц: слева приведена матрица для положительных нагрузок (диапазон значений нагрузок – от 0 до 0,4), а справа – для отрицательных (диапазон – от -0,4 до 0)
Рис. 4. Цветовые матрицы, отражающие величину нагрузок второй главной компоненты, описывающей 7 % суммарной дисперсии элементов SR-матриц: слева приведена матрица для положительных нагрузок (диапазон значений нагрузок – от 0 до 0,4), а справа – для отрицательных (диапазон – от -0,4 до 0)
Приведенные матрицы позволяют интерпретировать компоненты как индикаторы использования определенных пространственных стратегий, которые используются испытуемыми в разной степени. Первая компонента может быть интерпретирована как показатель приверженности стратегии «не использовать горизонтальные переходы и использовать вертикальные». Вторая компонента – как показатель приверженности стратегии «использовать вертикальные переходы в правой нижней части матрицы Равена».
Обучение модели представления закономерностей. Значения выделенных факторов и значения целевых переменных, чья взаимная изменчивость является предметом анализа и интерпретации, используются для обучения модели распознавания образов (модели-классификатора или модели регрессии).
Обучение модели заключается в настройке ее параметров таким образом, чтобы получаемые предсказания значений целевой переменной отличались от реальных измеренных значений как можно меньше в терминах используемой меры ошибки. Освещение тех или иных алгоритмов обучения предсказательных моделей, равно как и подходов к оценке ее обобщающей (предсказательной) способности (напр., методика скользящего контроля), подробности методов распознавания образов и такого научного направления, как машинное обучение, можно уточнить, например, в соответствующих изданиях (Воронцов, 2007; Лепский, Броневич, 2009; Alpaydin, 2010).
Обученная модель в случае высокой степени ее предсказательной способности может успешно использоваться для предсказания значений целевых переменных: как дискретных категорий испытуемых (таких как, напр., индикатор правильности выполненного задания теста способностей, пол испытуемого, уровень навыка чтения), так и соответствующих им непрерывных случайных величин (таких, напр., как возраст, итоговый балл по тесту).
Интерпретация модели. Обученная и надежная модель представления закономерностей часто может быть легко интерпретирована путем определения входных переменных, учитываемых при принятии решения в первую очередь (или с большим весом). Например, такие модели, как деревья решений, обобщенная линейная модель или дискриминантная модель, не только способны решать задачу предсказания значения целевой переменной, но и позволяют трактовать прогноз в терминах предметной области путем анализа структуры модели и ее идентифицированных параметров.
В случае деревьев решений объяснение может строиться путем выписывания последовательности условий, проверенных для данного испытуемого на пути от корня дерева до листа. Эти условия образуют конъюнкцию, т. е. легко интерпретируемое логическое правило (Воронцов, 2007). Пример дерева, построенного с использованием выборки значений интерпретированных выше главных компонент SR-матриц и предсказывающего успешность выполнения задания теста Равена, приведен на рисунке 5.