Publication:
Neural Network Method for Determining the Direction of a Person's Gaze based on a Web Camera Image Analysis

Дата
2022
Авторы
Skorokhodov, M. S.
Sboev, A. G.
Moloshnikov, I. A.
Rybka, R. B.
Journal Title
Journal ISSN
Volume Title
Издатель
Научные группы
Организационные подразделения
Организационная единица
Институт лазерных и плазменных технологий
Стратегическая цель Института ЛаПлаз – стать ведущей научной школой и ядром развития инноваций по лазерным, плазменным, радиационным и ускорительным технологиям, с уникальными образовательными программами, востребованными на российском и мировом рынке образовательных услуг.
Организационная единица
Институт ядерной физики и технологий
Цель ИЯФиТ и стратегия развития - создание и развитие научно-образовательного центра мирового уровня в области ядерной физики и технологий, радиационного материаловедения, физики элементарных частиц, астрофизики и космофизики.
Выпуск журнала
Аннотация
Determining the direction of a person s gaze improves the accuracy of the voice control systems, which are relevant in the actively developing voice assistant creation field. This paper proposes a neural network method for determining the gaze direction based on the web camera image analysis. In the course of the paper, a corpus of data was collected and marked up with preprocessed data from the web camera and the point of view direction on the monitor screen. A neural network model was built based on fully connected and convolutional layers. The created neural network model for determining the gaze direction demonstrated an improvement of 13% in pixel error on the monitor screen compared to the existing open-source solutions. The created neural network model was implemented in the voice control system of a mobile robot, which facilitated minimization of the ambiguity in the analysis of movement commands towards objects.
Описание
Ключевые слова
Цитирование
Neural Network Method for Determining the Direction of a Person's Gaze based on a Web Camera Image Analysis / Skorokhodov, M. S. [et al.] // Procedia Computer Science. - 2022. - 213. - № C. - P. 203-208. - 10.1016/j.procs.2022.11.057
Коллекции