Персона:
Сорока, Артем Александрович

Загружается...
Profile Picture
Email Address
Birth Date
Научные группы
Организационные подразделения
Организационная единица
Институт интеллектуальных кибернетических систем
Цель ИИКС и стратегия развития - это подготовка кадров, способных противостоять современным угрозам и вызовам, обладающих знаниями и компетенциями в области кибернетики, информационной и финансовой безопасности для решения задач разработки базового программного обеспечения, повышения защищенности критически важных информационных систем и противодействия отмыванию денег, полученных преступным путем, и финансированию терроризма.
Статус
Фамилия
Сорока
Имя
Артем Александрович
Имя

Результаты поиска

Теперь показываю 1 - 6 из 6
Загружается...
Уменьшенное изображение
Публикация
Только метаданные

Cross-Modal Transfer Learning for Image and Sound

2022, Soroka, A. A., Trofimov, A. G., Сорока, Артем Александрович, Трофимов, Александр Геннадьевич

© 2022, The Author(s), under exclusive license to Springer Nature Switzerland AG.Recently the research on transfer learning between similar domains has become increasingly common. However, the fields of cross-domain and cross-modal knowledge transfers are more complicated and have been studied less. We propose the new transfer learning strategy between tasks on essentially different domains called as cross-modal transfer learning and consider its ideas and the algorithm. The key element of cross-modal transfer pipeline is cross-modal adapter, i.e. a neural network that transforms the target domain features to the source domain features that can be efficiently processed by a pre-trained neural network. In the experiments the dataset ImageNet and audio dataset ESC-50 are chosen as source domain and target domain respectively. It is shown that a fairly simple neural cross-modal adapter makes it possible to achieve high classification accuracy on target domain using the knowledge obtained by pre-trained neural network on the source domain. Our experiments also show that cross-modal transfer learning noticeably reduces the training time in comparison with the building target model “from scratch”.

Загружается...
Уменьшенное изображение
Публикация
Только метаданные

Estimating the Transfer Learning Ability of a Deep Neural Networks by Means of Representations

2023, Magai, G. I., Soroka, A. A., Сорока, Артем Александрович

Загружается...
Уменьшенное изображение
Публикация
Только метаданные

Explaining the Transfer Learning Ability of a Deep Neural Networks by Means of Representations

2023, Magai, G., Soroka, A. A., Сорока, Артем Александрович

Загружается...
Уменьшенное изображение
Публикация
Только метаданные

Study of Foundation Models Knowledge Representations: Geometry Perspective

2025, Magai, G., Soroka, A., Сорока, Артем Александрович

Загружается...
Уменьшенное изображение
Публикация
Только метаданные

Russian Language Speech Generation from Facial Video Recordings Using Variational Autoencoder

2023, Leonov, M. M., Soroka, A. A., Trofimov, A. G., Сорока, Артем Александрович, Трофимов, Александр Геннадьевич

Загружается...
Уменьшенное изображение
Публикация
Только метаданные

Wasserstein GAN-Based Adapter for Deep Neural Networks Merging

2025, Leonov, M. M., Soroka, A. A., Trofimov, A. G., Сорока, Артем Александрович, Трофимов, Александр Геннадьевич