На главную страницу
 
Головна
Про нас
Новини
Обговорення
Оголошення
База знань
Пошук
Карта сайту
Коментарі
Інтерв'ю
Аналітика
Рейтинги
Поиск по сайту

Обговорення / Коментарі / Коментарі

Дипфейки могут эффективно использоваться для подачи мошеннических страховых претензий

Версия для печати Версия для печати
12.10.2021 

Deepfakes (дипфейки) могут эффективно использоваться для подачи мошеннических страховых претензий, создания ложных экспертных отчетов и даже удостоверять или создавать видимость активов, которых не существует.

В отличие от обычного редактирования видео, Deepakes использует искусственный интеллект (AI) для изменения или генерирования видео, и создания нового уровня реализма без тех цифровых "следов", присутствующих в отредактированных цифровых документах. Deepfakes могут представлять значительную угрозу промышленности, в которых принимаются важные на основании содержания фотографий и видео, в том числе и в страховании.

Ранее в этом году ФБР озвучил озабоченность, что Deepfakes – это новая коммерческая угроза кибератак. В результате многие организации обдумывают стратегии для смягчения рисков и потенциально нежелательных результатов, которые могут быть результатом использования технологии.

Аспект мошенничества наиболее актуален для страховой отрасли, поскольку она зависит от цифровых фотографий, видео и документов для принятия бизнес-решений и уже подвержена мошенничеству, объем которого по разным оценкам, составляет десятки миллиардов долларов в год.

По иронии судьбы, по результатам опроса в отрасли страхования только 39% респондентов-топ-менеджеров компаний указали, что они либо принимают или планируют шаги для смягчения риска Deepfakes. На удивление, эти цифры ниже, чем средние по другим отраслям, которые могут быть менее восприимчивы к мошенничеству при помощи цифровых решений.

Более 57% респондентов из сферы страхования и финансов, считают, что лучшей защитой от Deepfakesа были бы автоматизированные решения для их обнаружения и фильтрации, в то время как 34% указали, что нужно участие сотрудников было бы лучшим решением для вычленения Deepfakes.

Этот результат вызывает беспокойство: технологии автоматизированного обнаружения и фильтрации действительно являются жизнеспособным подходом для противодействия Deebfakes, и они есть на рынке. С другой стороны, обучение сотрудникам для обнаружения Deepfakes – шаг, весьма далекий от жизнеспособного решения, так как Deepfakes стремительно становятся трудно распознаваемыми для человеческих глаз и мозга.

«« Вернуться на первую страницу раздела



Адміністрація сайту не завжди поділяє думку авторів чиї статті розміщені на ресурсі.
При використанні матеріалів сайту гіперпосилання www.insurancebiz.org обов'язкове.
© 2006-2024 Асоціація Страховий Бізнес