Технологія штучного інтелекту продовжує розвиватися, і вона впливає на багато сфер страхування – від врегулювання збитків до андеррайтингу та обслуговування клієнтів, вважають учасники симпозіуму 2025 PLUS D&O в Нью-Йорку.
Але чи розвинулася технологія настільки, що зможе замінити андеррайтинг у найближчі п'ять років?
"Я думаю, що це найбільше питання", – сказав Джеффрі Чіверс, генеральний директор і співзасновник Syllo, робочої платформи для судових процесів на основі штучного інтелекту, яка дозволяє юристам і помічникам юристів використовувати мовні моделі протягом усього життєвого циклу судового процесу.
Інший спосіб поставити це питання полягає в тому, чи може ШІ розвивати судження не тільки в андеррайтингу, але й у всіх сферах бізнесу, де судження є невід'ємною частиною роботи, сказав він.
"Чи є тут якісь зміни щодо здатності моделі здійснювати нюансовані ціннісні судження та інші види суджень, які необхідні для виконання критично важливої роботи?", – запитав він. "Поки що відповідь для мене – ні", – сказав він. Якщо відповідь буде "так" протягом наступних п'яти років, я думаю, що це все змінить".
Клер Дейві, керівник відділу інноваційних продуктів Relm Insurance, зазначила, що серйозні зміни вже відбуваються в інших сферах страхування, які, однак, передбачають більше адміністративних завдань.
"Це залежить від того, як організація хоче розгортати [ШІ] і використовувати його, – сказала вона. "Але я думаю, що багато робочих місць, особливо адміністративних, ризикують зазнати феноменальних змін завдяки технології штучного інтелекту. Це буде знаковий зсув у комерції, якого ми не бачили протягом життя цілого покоління, і страхування не є винятком".
Тим не менш, вона погодилася, що робота андеррайтера наразі безпечна.
"Одним із ключових елементів управління та обов'язків при використанні технології штучного інтелекту є те, що вона вимагає людського нагляду, тому, хоча штучний інтелект може виконувати деякі етапи андеррайтингу, ви можете сподіватися, що людина все одно буде переглядати його результати та перевіряти їх", – зазначила вона.
Страхові судження штучного інтелекту
Учасники дискусії погодилися, що технологія штучного інтелекту має суттєвий вплив на страхову галузь і в інших аспектах. Почнемо з того, що ландшафт судових процесів вже зазнає змін.
За прогнозами Чіверса, протягом п'яти років генеративний штучний інтелект буде набагато ширше застосовуватися в юридичних та комплаєнс-функціях. "І я думаю, що через п'ять років кілька речей будуть дійсно помітними".
Він сказав, що багато дебатів продовжуватиметься навколо прозорості та будь-яких "червоних прапорців", виявлених в організації через ШІ.
"Чи приписуєте ви знання керівництву, якщо у вас на задньому плані працює ШІ-агент, який виявляє різні червоні або жовті прапорці, навіть якщо його ніхто не перевіряв?", – сказав він. "Я думаю, що прозорість, яку генеруючий ШІ приносить у велику організацію, стане головним предметом судових розглядів щодо розкриття інформації".
Він додав, що ще одна сфера, за якою варто стежити, – це ступінь, до якого компанії передають ШІ відповідальність за прийняття рішень.
"Якщо ми живемо у світі, де компанії передають відповідальність за прийняття рішень, це викликає безліч питань, пов'язаних з покриттям", – сказав він.
За його словами, через недоліки генеративного ШІ ця відповідальність за прийняття рішень має бути ретельно обміркована із залученням людини, яка має бути в курсі подій.
"Це не кількісна модель, і їй також дуже бракує того, що я б назвав судженням, – сказав він. "Тому, коли я думаю про те, як розуміти ці великі мовні моделі і що вони дають з точки зору штучного інтелекту, я думаю, що найкраще думати про це з точки зору різних когнітивних навичок... [Великі мовні моделі мають певні когнітивні навички, такі як узагальнення і класифікація речей, переклад, транскрипція, [але] їм повністю бракує інших когнітивних навичок".
Дозвіл штучному інтелекту брати участь у прийнятті рішень може бути особливо небезпечним, оскільки він володіє одними з найкращих навичок: лінгвістикою і риторикою. Це означає, що моделі ШІ можуть чудово маскувати той факт, що їм бракує розсудливості, щоб діяти як інтелектуальний агент, пояснив Чіверс.
"Якщо дозволити великій мовній моделі генерувати такі речі, як плани та плани дій, вона буквально генерує їх для себе. Вона має певну мету на увазі, і вона виписує для себе 10 кроків, як досягти цієї мети. І вона робить кожен з цих кроків і генерує ідеї про те, як його виконати. І якщо ви надасте їй доступ до інших систем, вона зможе функціонувати, звертатися до цих систем і спричиняти реальний вплив на вашу організацію", – сказав він.
"Наразі я вважаю, що було б просто божевіллям дозволити поточній ітерації агентів великих мовних моделей фактично загубитися в системах".
Рішення ШІ андеррайтерів
Окрім використання генеративного ШІ в андеррайтингу, як страховики здійснюють андеррайтинг компаній, які використовують генеративний ШІ як частину своєї бізнес-моделі?
"Я думаю, що профілі ризиків страховиків, які розробляють або використовують штучний інтелект, формуються залежно від того, для чого він використовується, – каже Дейві. "Залежно від того, для чого він був розроблений, це впливатиме на те, чи буде основним фактором ризику упередженість, прозорість або підзвітність".
Вона зазначила, що коли Relm Insurance андеррайтингує обліковий запис, важливо запитати, що робить технологія штучного інтелекту і в чому полягає її основна вразливість або ризик у разі дефолту або якщо щось піде не так.
"Очевидно, що якщо ШІ обробляє або навчається на великій кількості персональних даних, ми маємо проблему з точки зору підзвітності та конфіденційності. Але якщо ми розглядаємо модель штучного інтелекту, яка може проводити діагностику – можливо, намагатися робити прогнози або, можливо, надавати рекомендації, – ми стикаємося з проблемою упередженості та дискримінації", – зазначила вона. Релм вважає, що ці відра формують профіль ризику застрахованих осіб, орієнтуючи андеррайтерів на те, які подальші питання вони будуть ставити.
Оскільки Relm має на меті забезпечити інформований потенціал для секторів, що розвиваються, Дейві сказав, що відчувати себе комфортно означає ставити запитання і починати діалог з клієнтами, які просуваються на межі цих нових технологій.
"Йдеться про те, щоб спробувати знайти час для спілкування з тими, хто розробляє ці технології, а також керує цими технологіями, щоб дійсно зрозуміти їхні технічні можливості, а також управління ними", – сказала вона. "Отже, це вимагає інвестицій з боку клієнта, щоб поділитися своєю інформацією, поділитися своїм часом з нами. Але якщо ми зможемо отримати правильну інформацію, і якщо ми зможемо отримати комфорт з технологією та темою управління, тоді ми зможемо почати надавати послуги для того сектору, який історично недостатньо обслуговувався на традиційних ринках".
Джулі Райзер, партнер Cohen Milstein, розглядає ризики, пов'язані зі штучним інтелектом, з точки зору як введення в оману – або "відмивання" штучного інтелекту, коли компанія перебільшує можливості своєї технології штучного інтелекту, – так і дискримінації при працевлаштуванні.
"Я думаю, що загальна передумова, яку я чую повсюдно, полягає в тому, що штучний інтелект є ітеративним, що ми очікуємо, що люди не просто підключатимуться один раз і створять процес, а скоріше це те, що ви повинні перевіряти, спостерігати за кожним кроком, а потім сказати: "Чи створює це ризик?", – сказала вона. "Це не так, як щороку, коли ви можете просто перевірити, і все буде добре".
За словами Ніка Рейдера, старшого віце-президента і заступника керівника напрямку D&O в західному регіоні компанії Aon, компанії, які зосереджені лише на ШІ, ризикують ще більше, і це вимагатиме посилення нагляду з боку ради директорів та впровадження систем управління ризиками. "Якщо у них цього немає, то їм буде непереливки, коли буде подано серйозний позов", – сказав він.
"Це не означає, що якась мегакорпорація, яка використовує АІ для спрощення одного з тисяч процесів, не несе жодної відповідальності щодо АІ. Очевидно, що директори не можуть ховати голови, коли дізнаються, наприклад, про неправомірну поведінку". Однак, за його словами, компаніям, які займаються штучним інтелектом, потрібно мати більш високий рівень управління.
"Але незважаючи ні на що, враховуючи регуляторний ландшафт, який існує зараз, в цих компаніях має бути додаткове управління", – сказав він. "Є багато чого, що потрібно для цього".
За словами Бориса Фельдмана, партнера компанії Freshfields US, тільки в США виникли розбіжності щодо визначення штучного інтелекту і того, чого він може досягти в найближчі п'ять років.
"Що я бачу, принаймні в Сполучених Штатах, так це те, що є табори, які дійсно стурбовані суперрозумом і кінцем людства", – сказав він. "А є й інші табори, які більше зосереджені на тому, що ми можемо оприлюднити тут і зараз щодо того, як ці речі використовуються для захисту від відомих ризиків сьогодення".
За словами Дейві, вона вважає, що в наступні п'ять років з'явиться більш барвистий ландшафт страхових виплат з точки зору судових процесів і регулювання. "Я думаю, що для андеррайтерів і брокерів це будуть цікаві п'ять років розмов з клієнтами про їхню історію страхових випадків", – сказала вона.
Проактивні компанії очолять процес встановлення цих стандартів, додав Райзер.
"Буде проактивна група компаній і реактивна група, і проактивна група встановлюватиме стандарти для того, що мала б зробити реактивна група, – сказала вона. "Це буде орієнтир. Це мене не здивує".
Дейві сказала, що вона вважає, що ці нові технології штучного інтелекту, хоча і постійно розвиваються, є застрахованими.
"Для цього потрібно працювати, докладати зусиль, проводити дослідження, а для цього потрібні інвестиції та ресурси", – сказала вона. "Отже, якщо ми, як страхова компанія, а також як страховий сектор, хочемо залишатися актуальними, то ми повинні працювати з клієнтами, щоб зрозуміти їх і запропонувати рішення".