Роскомнадзор заинтересовался разработкой в области распознавания лжи по видеозаписи с помощью искусственного интеллекта, узнал «Коммерсант». Ведомство готово «как можно скорее» протестировать систему, разработанную НИУ ИТМО. Разработчики уверяют, что изобретение уже прошло предварительное тестирование в преддверии выборов в Сенат США и выявило скрытую агрессию и ложь в выступлениях кандидатов. Эксперты скептически относятся к такому анализу и считают, что потребуются годы, чтобы сделать систему эффективной.
Что случилось
Сервис Expert на основе искусственного интеллекта разработали специалисты Национального центра когнитивных разработок ИТМО. Он предназначен для проверки видеозаписи выступлений на предмет лжи и манипуляций. Прототип уже был представлен Роскомнадзору и лично его главе Андрею Липову, рассказали источники «Коммерсанта». По словам одного из собеседников, Липов заинтересовался решением и «попросил как можно скорее передать его ведомству на тестирование».
В Роскомнадзоре подтвердили, что «рассмотрят возможность применения» технологии, если ИТМО сможет представить «устойчиво работающую» версию продукта. С помощью сервиса Expert ведомство хочет анализировать видеозаписи на предмет лжи и оперативно выявлять «дипфейки» (метод синтеза данных, который позволяет заменять в оригинальных видеороликах элементы изображения, создавая тем самым фейковые видеозаписи с заявлениями известных личностей).
Как работает система
В ИТМО пояснили, что Expert анализирует видео или аудио, оценивая уверенность, уровень агрессии внутренней и внешней, конгруэнтность (уровень согласованности информации, передаваемой вербальным и невербальным способом) и противоречивость, сравнивает слова с научными статьями и высказываниями других специалистов.
Система «заточена на работу с английским языком, но показатели уверенности, агрессивности, конгруэнтности можно извлечь на любом языке». Английский был выбран как самый распространенный язык, отметили разработчики. По их словам, Expert уже прошел предварительное тестирование в преддверии выборов в Сенат США — и анализ интервью шести кандидатов выявил у троих скрытую агрессию, а одного позволил уличить во лжи.
Разработка ИТМО — не первая в своем роде. В 2017 году в США Университет Мэриленда и Дартмутский колледж создали нейросеть, распознающую ложь, которую обучали на видеозаписях судебных процессов. Распознаванием лжи в суде с помощью искусственного интеллекта также занималась американская Innocence Project, используя для анализа Amazon Mechanical Turk. В России решение для распознания «дипфейков» тестирует VisionLabs.
Что говорят эксперты
Участники рынка сомневаются в перспективности разработки ИТМО, полагая, что вероятность ложных срабатываний будет слишком высока. Чтобы нейросеть научилась эффективно распознавать ложь в видео, должны пройти годы. Пока это что-то из плоскости теории вероятности, говорит собеседник «Коммерсанта» на IT-рынке. Да и сама идея анализа «правдивости» или «ложности» утверждений по косвенным признакам, связанным с поведением человека, не выдерживает никакой критики, добавляет другой эксперт: «Любые виды „детекторов лжи“ не признаются доказательством в судах большинства стран».