Эксперты предполагают, что ложных срабатываний будет слишком много.
Национальный центр когнитивных разработок (НЦКР) ИТМО разрабатывает для Роскомнадзора систему Expert на основе искусственного интеллекта. Эта система выявляет степень уверенности, ложь и агрессию в видео и аудиозаписях, а также распознает дипфейки (видео с подставленными лицами). Прототип системы уже представили руководству РКН — оно разработку оценило и попросило как можно скорее передать ее ведомству для проведения тестов, сообщает «Коммерсант».
Expert пока работает лишь с контентом на английском языке, потому что построена на основе открытых зарубежных библиотек, но ее хотят доработать для работы с контентом на русском. В преддверии выборов в Сенат США систему протестировали: в речах нескольких кандидатов она распознала противоречия и агрессию, а у одного диагностировала ложь. Система считывает не только речь, но и невербальные признаки, а также сравнивает слова говорящего с научными статьями и высказываниями других специалистов.
Эксперты говорят, что для переобучения системы под русский язык потребуется немало средств и времени. Кроме того, когда разработка дойдет до стадии пилотного проекта, она будет достаточно часто ошибаться. Прежде чем система начнет приносить пользу, пройдут годы. Кроме того, в судах большинства стран, и в России тоже, подобное разоблачение лжи, в частности с помощью детекторов лжи, не является доказательством.