"Діпфейки" та шахрайство, пов’язане з використанням штучного інтелекту, проникають у процес прийому страхових заяв, змушуючи страховиків впроваджувати засоби біометричної верифікації, що відповідають стандартам національної безпеки.
Хоча штучний інтелект обіцяє страховикам безпрецедентну швидкість та ефективність, він також озброює зловмисників новим небезпечним арсеналом. Сьогодні бар'єр входу для складного шахрайства нижчий, ніж будь-коли, а "синтетичне шахрайство" – зумовлене діпфейками та ідентифікаторами, згенерованими штучним інтелектом, – стає однією з найважливіших проблем управління ризиками, з якими стикаються страховики.
Ландшафт загроз: діпфейки та крадіжка особистих даних
Шахраї більше не покладаються лише на інсценовані аварії чи перебільшені травми. Вони використовують генеративний штучний інтелект для створення реальності. Від клонування голосів страхувальників до створення гіперреалістичних зображень пошкоджень транспортних засобів, яких ніколи не було, впускний трубопровід перебуває в облозі.
- Deepfake Audio & Video: Шахраї використовують клонування штучного голосу для обходу автентифікації кол-центру, видаючи себе за страхувальників для перенаправлення виплат або авторизації шахрайських заяв.
- Сфабриковані докази: Генератори зображень зі штучним інтелектом можуть безперешкодно підробляти фотографії, додаючи серйозні структурні пошкодження до інакше бездоганного транспортного засобу або розміщуючи транспортний засіб на фальшивому місці аварії.
Тематичні дослідження з реального світу
Фінансовий вплив синтетичних медіа не є гіпотетичним; він вже коштує організаціям мільйонів.
- Глобальна загроза видавання себе за іншу особу: На початку 2024 року фінансового працівника багатонаціональної інженерної фірми Arup у Гонконзі обманом виманили на переказ 25,6 мільйона доларів . Шахрай використав технологію відеозйомки з дипфейками, щоб видати себе за фінансового директора компанії та кількох колег під час відеодзвінка в прямому ефірі.
Якщо корпоративні фінанси можуть бути настільки переконливо порушені, автоматизовані системи першого повідомлення про збитки (FNOL) стають головними цілями.
- Зростання автомобільного шахрайства: Великі страхові компанії з питань майна та відповідальності, включаючи Allianz та LV= , нещодавно повідомили про вражаюче 300% зростання кількості страхових випадків, що містять зображення транспортних засобів, маніпульовані штучним інтелектом, та підроблені документи. "Shallowfakes" (базове зрощення зображень) та deepfakes все частіше використовуються для завищення вартості ремонту та заявлення повних збитків за неіснуючими пошкодженнями.
Запозичення оборонних засобів у Національної безпеки
Для боротьби з обманом військового рівня авіаносці впроваджують захисні механізми, спочатку розроблені секторами внутрішньої безпеки та прикордонного контролю.
- Біометричне виявлення реальності: Так само, як Митна та прикордонна служба США (CBP) використовує активне біометричне порівняння обличчя (через свою Службу перевірки мандрівників), щоб переконатися, що мандрівники є тими, за кого себе видають, страховики впроваджують ці інструменти. Це гарантує, що особа, яка подає заяву, є живою, фізично присутньою людиною, а не двовимірним фото чи відеопотоком, введеним за допомогою штучного інтелекту.
- Глибока перевірка метаданих та судово-медична перевірка: Служби безпеки використовують складний геопросторовий та криптографічний аналіз для відстеження загроз. Страховики можуть застосовувати подібну логіку для перевірки цифрового походження зображення, перевіряючи світлові шаблони, артефакти стиснення та GPS-координати, щоб переконатися, що фотографія не була створена в серверній кімнаті за тисячі миль.
Рішення: Укріплений, інтелектуальний впускний трубопровід
Щоб безпечно використовувати штучний інтелект для швидшої обробки, не відкриваючи шлюзи для шахрайства, перевізникам потрібне рішення, яке за своєю суттю не довіряє кожному елементу вхідних даних та перевіряє його.
Передові платформи для введення даних діють як судово-медичний контролер у режимі реального часу. Ось як провідні страховики забезпечуватимуть безпеку процесу, одночасно пришвидшуючи обслуговування клієнтів:
- Захоплення зображень на рівні сцени: Платформа отримує фотографії безпосередньо з місця аварії, негайно аналізуючи метадані та композицію зображення на наявність ознак втручання штучного інтелекту або цифрових маніпуляцій.
- Запис аудіо, відео або текстового опису: Запис власного опису інциденту користувачем. Це дозволяє проводити як біометричну перевірку голосу (запобігаючи клонуванню аудіо), так і аналіз стресу/настрою, а також різноманітні перехресні посилання.
- Закулісся перехресна перевірка: Система триангулює візуальні пошкодження, розмовну розповідь та історичні дані. Вона виявляє невідповідності, такі як розповідь, яка не відповідає фізиці візуальних пошкоджень, або дані геолокації, що суперечать повідомленій адресі.
- Прискорене судове розглядування: Фільтруючи високоризикове синтетичне шахрайство в джерелі, система дозволяє страховим агентам приймати швидше та впевненіше рішення щодо законних претензій, автоматизуючи схвалення, оцінюючи суми збитків та миттєво направляючи транспортні засоби для робочих процесів, пов’язаних із повною втратою чи підлягаючим ремонту.
Ера штучного шахрайства вже настала. Інтегруючи перевірку рівня національної безпеки в безперебійний процес цифрового введення, страхові компанії можуть захистити свій прибуток, водночас забезпечуючи швидке та безперешкодне вирішення проблем, яких очікують їхні чесні страхувальники.