Генеративний штучний інтелект (GenAI) відкриває широкі можливості для організацій трансформувати свої галузі, підвищуючи ефективність бізнес-процесів. Водночас ця технологія може стати інструментом для зловмисників, які використовуватимуть її для кібернападів, йдеться у звіті CyberCube "AI-driven Systemic Risks and Opportunities".
Дослідження аналізує, як GenAI збільшує ризик кібернападів, одночасно пропонуючи механізми для їх виявлення та запобігання. Форіншурер вибрав найголовніше.
Генеративний штучний інтелект трансформує бізнес-процеси компаній, створюючи нові ризики та причини втрат, які впливають як на самі компанії, так і на їхніх партнерів, включаючи постачальників послуг і цифрові ланцюги постачання.
Підсилення системних ризиків через GenAI
GenAI може збільшити системні ризики, зокрема через шкідливе програмне забезпечення та таргетовані витоки даних. Водночас технологія надає інструменти для оцінювання й кількісного аналізу цих загроз.
У звіті використовується модель "кіберланцюга убивства", яка акцентує увагу на необхідності адаптації страхового сектору до загроз, пов’язаних з AI. Успішне поєднання інновацій і стратегій управління ризиками є критично важливим.
Munich Re Group вважає GenAI одним із найважливіших технологічних проривів останніх десятиліть. Технологія відкриває нові можливості для страховиків, якщо вони зможуть дослідити її потенціал і зрозуміти пов'язані з нею ризики.
Наприклад, у страховій сфері GenAI може допомогти андеррайтерам оцінювати ризики, аналізуючи великі обсяги даних, включаючи історію заявок, інформацію про клієнтів і фактори кібербезпеки. Завдяки узагальненню профілів ризиків GenAI сприяє швидшому прийняттю об£рунтованих рішень і формуванню оптимальних страхових покриттів. Водночас застосування AI створює нові кіберризики.
Агреговані кіберризики
- Загроза в ланцюгах постачання програмного забезпечення. Використання рішень сторонніх розробників, таких як ChatGPT, створює ризик централізованої точки відмови.
- Нові поверхні атак. Взаємодія користувачів із моделями AI через чат-боти чи аналітичні інструменти може піддаватися зловмисним або випадковим маніпуляціям.
- Загроза конфіденційності даних. AI вимагає великих обсягів даних для навчання, і компрометація цих даних може мати серйозні наслідки.
- AI у ролях безпеки. Висококритичні операції, делеговані AI, наприклад у кібербезпеці, можуть підвищити ризик помилок або неправильних конфігурацій.
Вплив AI на кіберкатастрофи
Очікується, що AI значно вплине на кіберкатастрофи. Згідно з моделлю "кіберланцюга атаки", AI може покращити швидкість і ефективність атак, підвищуючи ймовірність масштабних інцидентів. Великі мовні моделі (LLM) дозволяють здійснювати фішингові атаки та створювати підробки, одночасно пришвидшуючи виявлення вразливостей. Ці можливості розширюють масштаб атак і збільшують їхню частоту.
Дослідження демонструють, що LLM покращують ефективність етапів розвідки, зброєзабезпечення та доставки атак. Такі нововведення підвищують рівень загроз для компаній, які використовують LLM у клієнтських інтерфейсах.
Динаміка АІ ризиків
AI-орієнтовані атаки можуть прискорити цикл інновацій між нападниками та захисниками. Дані показують, що впровадження нових методів атак збільшує їх частоту, але покращення захисту поступово знижує цей вплив.
Кіберзлочинці удосконалили свої стратегії, щоб заробити на вразливостях, які виникають у результаті злиття та поглинань компаній і консолідації постачальників програмного забезпечення, йдеться у звіті про кіберризики компанії Resilience.
Ринок кіберстрахування до 2030 року зросте на 54% до $53 млрд, прогнозує Howden. Ринок зараз стикається з унікальною комбінацією підвищених загроз і стабільного страхового середовища, яке підтримується сильними механізмами контролю ризиків.
Це створює основу для зрілого ринку кіберстрахування, що розвивається за рахунок інновацій та зростання на основі ризиків.
Хоча США лідирують на ринку кіберстрахування, складаючи близько двох третин світового ринку, їхнє постійне зростання залишається важливим. Однак більше половини зростання премій до 2030 року очікується за межами США. У великих європейських економіках, таких як Німеччина, Франція, Італія та Іспанія, досягнення рівнів проникнення більш розвинених ринків може призвести до збільшення премій на приблизно 700 мільйонів євро.
AI також сприяє розробці поліморфного шкідливого ПЗ, яке змінюється для уникнення виявлення.
Такі програми дозволяють:
- Подовжувати присутність у системах.
- Уникати детекції на основі сигнатур.
- Прискорювати поширення мережами.
Інвестиції в спеціальний кібер досвід і використання вдосконалених моделей ризиків є ключовими для ефективного подолання складних кіберзагроз. Цей підхід не тільки перетворить вразливості на конкурентні переваги, але й дозволить компаніям активно розвиватися.
Роль штучного інтелекту в кіберзахисті
Захисники також використовують AI для боротьби з новими загрозами. AI сприяє швидшому виявленню шкідливих активностей та запобіганню втратам. Для уникнення завищення ризиків необхідно інтегрувати захисні можливості AI в моделі оцінювання ризиків.
Страховий сектор має унікальну можливість допомогти клієнтам підготуватися до ризиків, пов’язаних з AI.
Страховики, які впровадили ці технологічні рішення, бачать переваги. Обсяг роботи, що виконується в цих випадках, помітно зменшився, що зрештою зменшило навантаження для клієнтів, які є справжніми випадками, і зосередилося на підвищенні ймовірності захоплення зловмисників.