Deepfakes (дипфейки) могут эффективно использоваться для подачи мошеннических страховых претензий, создания ложных экспертных отчетов и даже удостоверять или создавать видимость активов, которых не существует.
В отличие от обычного редактирования видео, Deepakes использует искусственный интеллект (AI) для изменения или генерирования видео, и создания нового уровня реализма без тех цифровых "следов", присутствующих в отредактированных цифровых документах. Deepfakes могут представлять значительную угрозу промышленности, в которых принимаются важные на основании содержания фотографий и видео, в том числе и в страховании.
Ранее в этом году ФБР озвучил озабоченность, что Deepfakes – это новая коммерческая угроза кибератак. В результате многие организации обдумывают стратегии для смягчения рисков и потенциально нежелательных результатов, которые могут быть результатом использования технологии.
Аспект мошенничества наиболее актуален для страховой отрасли, поскольку она зависит от цифровых фотографий, видео и документов для принятия бизнес-решений и уже подвержена мошенничеству, объем которого по разным оценкам, составляет десятки миллиардов долларов в год.
По иронии судьбы, по результатам опроса в отрасли страхования только 39% респондентов-топ-менеджеров компаний указали, что они либо принимают или планируют шаги для смягчения риска Deepfakes. На удивление, эти цифры ниже, чем средние по другим отраслям, которые могут быть менее восприимчивы к мошенничеству при помощи цифровых решений.
Более 57% респондентов из сферы страхования и финансов, считают, что лучшей защитой от Deepfakesа были бы автоматизированные решения для их обнаружения и фильтрации, в то время как 34% указали, что нужно участие сотрудников было бы лучшим решением для вычленения Deepfakes.
Этот результат вызывает беспокойство: технологии автоматизированного обнаружения и фильтрации действительно являются жизнеспособным подходом для противодействия Deebfakes, и они есть на рынке. С другой стороны, обучение сотрудникам для обнаружения Deepfakes – шаг, весьма далекий от жизнеспособного решения, так как Deepfakes стремительно становятся трудно распознаваемыми для человеческих глаз и мозга.