В России создали инструмент, защищающий голосовые данные от создания дипфейков
Российские исследователи разработали алгоритм защиты персональных данных в голосовом формате. Он позволяет защитить подкасты, интервью, трансляции и другие аудиозаписи от несанкционированного сбора биометрии и анализа при помощи ИИ. Об этом сообщили в пресс-службе Института искусственного интеллекта AIRI.
Алгоритм уже опубликован в открытом доступе.
Ученые отмечают, что сейчас в глобальной сети размещено множество публично доступных аудиозаписей. Злоумышленники или недобросовестные компании могут использовать их, чтобы автоматически собирать голосовые биометрические данные и на их базе создавать различные дипфейки. Это особенно опасно для публичных лиц и авторов контента, чьи выступления можно легко найти в интернете.
За последние годы разработчики создали несколько систем «анонимизации» голоса, которые позволяют бороться с этой проблемой. Многие из них значительно ухудшают качество аудиозаписи и не всегда эффективны с аудиозаписями короткой или большой длины. Алгоритм, созданный исследователям, лишен этих недостатков. Он использует в своей работе математические подходы, ранее применявшиеся в визуальном анализе.
В сообщении подчеркивают, что эти подходы одновременно максимально «обезличивают» аудиоданные и минимально влияют на качество звука, его четкость и совместимость подобных записей с ИИ-системами, которые распознают содержание речи. Алгоритм одинаково хорошо работает на аудиофайлах любой длины: от коротких цитат до длинных лекций.
Руководитель Лаборатории безопасного ИИ AIRI-МТУСИ Олег Рогов отметил, что их цель – усилить методологию защиты «цифрового следа» людей в публичном пространстве, а в первую очередь – их голосовой идентичности.
Разработанное решение позволяет свободно делиться аудиоконтентом, значительно снижая вероятность того, что голос станет сырьем для несанкционированного сбора биометрических данных или создания дипфейков, – добавил Олег Рогов.
Эффективность работы нового решения исследователи проверили на популярном наборе аудиозаписей голосов знаменитостей (VoxCeleb2), который часто используется при разработке голосовых систем ИИ и подготовке дипфейков. Опыты продемонстрировали, что новый подход успешно защищает данные, как и другие существующие алгоритмы, но при этом сохраняет высокое качество звука. Ученые надеются, что их разработка поможет владельцам онлайн-площадок защитить авторов контента от несанкционированного сбора биометрии с аудиозаписей.
Напомним, что в России зафиксировали новую мошенническую схему: звонить якобы с соцопросом и записывать голоса для дипфейков. В начале этого года МТС разработала сервис для выявления дипфейков.
Оригинал новости на SEOnews