عنوان گروه خبري / گزارش . بیمه حوادث . مدیریت ریسک . نوآوری و فن‌آوری بیمه . مدیریت بیمه .
  • ساعت : ۱۴:۳۹
  • تاريخ :
     ۱۴۰۴/۱۱/۱۳ 
  • تعداد بازدید : 42
ریسك‌های هوش مصنوعی مولد برای كسب و كارها: كاوشی در نقش بیمه
نگارندگان: Ruo (Alex) Jia ، مدیر فناوری‌های دیجیتال، انجمن ژنو؛ Martin Eling، مدیر مؤسسه اقتصاد بیمه؛ Tianyang Wang، استاد امور مالی، دانشگاه ایالتی کلرادو ؛ مترجم: دفتر پایگاه خبری تازه‌های بیمه ایران و جهان
در گزارش اخیر انجمن ژنو درباره هوش مصنوعی مولد (Gen AI)، نشان داده شده است که این فناوری با سرعتی فزاینده‌ای در حال شکل‌دهی به فرآیندهای تجاری در سطح جهانی است و در کنار مزایای چشمگیر در زمینه افزایش بهره‌وری و کاهش هزینه‌ها، ریسک‌های جدیدی برای کسب‌وکارها و صنعت بیمه ایجاد می‌کند. گزارش مزبور، به بررسی ریسک‌های فناورانه، حقوقی، عملیاتی و حاکمیتی ناشی از استفاده گسترده از هوش مصنوعی مولد می‌پردازد و به‌ویژه بر چالش‌های مدیریت مسئولیت‌ها، حفاظت از اطلاعات و حفظ استانداردهای امنیتی تأکید دارد. در این میان، صنعت بیمه ایران می‌تواند با طراحی محصولات بیمه‌ای نوین که ریسک‌های ناشی از هوش مصنوعی مولد را پوشش دهد، به یکی از بازیگران کلیدی در مدیریت این ریسک‌ها تبدیل شود. بر اساس نتایج نظرسنجی انجمن ژنو، از ۶۰۰ تصمیم‌گیرنده بیمه‌ای در بازارهای بزرگ جهانی، بیش از ۹۰ درصد شرکت‌ها علاقه‌مند به داشتن پوشش بیمه‌ای برای خطرات مرتبط با هوش مصنوعی مولد هستند و بیشتر از دو سوم آن‌ها آمادگی پرداخت حق‌بیمه بالاتر را دارند. این روند نشان‌دهنده فرصتی بی‌نظیر برای صنعت بیمه ایران در راستای پاسخ‌گویی به نیازهای جدید و تطبیق با تحولات جهانی است.

چکیده مدیریتی

کسب و کارها، به طور فزاینده‌ای، هوش مصنوعی مولد (Gen AI)[1] را در خدمات و محصولات موردنیاز مشتریان و در عملیات‌های داخلی خود، ادغام می‌کنند. این کار، ریسک‌های جدیدی همچون خروجی‌های ناقص، پیشنهادهای سوگیرانه، نقض قانون مالکیت معنوی[2] و دغدغه‌های امنیت سایبری[3] را در پی دارد. این ریسک‌ها، هنگامی‌که الگوهای هوش مصنوعی، دچار هذیان می‌شوند و یا محتوای حفاظت‌شده مشابهی تولید می‌کنند، برجسته‌تر می‌شوند.

مزایا و ریسک هوش مصنوعی مولد برای کسب و کارها

گزارش حاضر به کاوش در ریسک‌های مرتبط با هوش مصنوعی مولد و ارزیابی آگاهی کسب و کارها و تقاضا برای بیمه می‌پردازد. براساس چارچوب‌های رسمی، نگارندگان، ریسک‌های هوش مصنوعی مولد را به هفت حوزه تقسیم کرده‌اند: عملیاتی، امنیت سایبری و حریم خصوصی، اخلاقی، تنظیم‌مقرراتی، شهرت، نیروی کار و زیست‌محیطی، اجتماعی و حاکمیتی (ESG)[4]. این حوزه‌ها بر چگونگی تقویت یا خلق ریسک توسط هوش مصنوعی مولد ورای طبقات رایج ریسک، تأکید دارند.

به منظور ارزیابی آگاهی از ریسک و تقاضای بیمه از طرف کسب و کارهایی که از هوش مصنوعی مولد استفاده می‌نمایند، انجمن ژنو، یک نظرسنجی از ۶۰۰ تصمیم‌ساز و اثرگذار در صنعت بیمه در شش بازار بزرگ بیمه، به عمل آورد. این کشورها عبارتند از: چین، فرانسه، آلمان، ژاپن، انگلستان و ایالات متحده. نتایج نظرسنجی حاکی از آن است، پذیرش گسترده هوش مصنوعی مولد، علیرغم درک متفاوت از کاربرد آن در مناطق مختلف، نشان‌دهنده سطح متفاوت بلوغ دیجیتال[5] و فرهنگ سازمانی[6] است. در چین و ایالات متحده، این تفاوت، در بیشترین حد ممکن خود قرار دارد.

کسب و کارها، با موانع عمده‌ای در اجرای هوش مصنوعی مولد به ویژه به واسطه کمبود استعداد، کیفیت ضعیف داده‌ها و مقاومت داخلی مواجه هستند. چالش‌های اصلی بازارها، به دلیل وجود سطوح مختلف آمادگی برای پذیرش هوش مصنوعی مولد، متفاوت هستند.

ریسک‌های امنیت سایبری به عنوان دغدغه اصلی کسب و کارها، ظهور کرده‌اند؛ موضوعی که بیش از نیمی از شرکت‌های موردبررسی به آن اذعان داشتند. پس از آن، مسئولیت شخص ثالث نسبت به مشتریان و عرضه‌کنندگان و سپس اختلال عملیاتی قرار می‌گیرند. در این نظرسنجی، آسیب به شهرت، علیرغم اثر بلاقوه اما بلندمدت آن، کمترین رتبه را به خود اختصاص داد.

بیش از ۹۰ درصد از پاسخ‌دهندگان بر نیاز به پوشش بیمه متناسب با تهدیدهای هوش مصنوعی (AI)[7] یا هوش مصنوعی مولد، تأکید داشتند. بیش از دو سوم آنها، حاضر هستند تا حداقل ۱۰ درصد حق بیمه بیشتر برای ملحقات بیمه‌نامه برای پوشش ریسک‌های مرتبط با هوش مصنوعی و هوش مصنوعی مولد، بپردازند. تقاضا در میان بنگاه‌های متوسط و بزرگ، در بخش‌های فناوری و مالی و در مناطقی که نرخ پذیرش هوش مصنوعی مولد بالاست، بیشتر است. علاوه بر این، مواجه با ریسک هوش مصنوعی و شدت بالای اختلال‌های ناشی از هوش مصنوعی مولد در گذشته، محرک اصلی تقاضا برای بیمه است. این امر، امکان انتخاب مغایر[8] را به همراه دارد.

در بخش عرضه، اجرای چارچوب بیمه‌پذیری برلاینر[9]، حداقل در کوتاه‌مدت، چالش‌های بیمه‌پذیری[10] ایجاد می‌کند. ریسک‌های هوش مصنوعی می‌تواند منجر به زیان‌های بالقوه گسترده‌ای تبدیل شود. همانطور که تأیید ریسک‌های هوش مصنوعی برای بیمه‌گران سخت است و چگونگی مدیریت آنها برای کسب و کارها، دشوار، بیمه مرتبط با هوش مصنوعی مولد، ممکن است عدم‌تقارن اطلاعاتی[11] ایجاد نماید. بنابراین، بیمه‌گران ممکن است در ارائه حدود بالای پوشش مانند روزهای ابتدایی عرضه بیمه سایبری، اکراه داشته باشند.

بیمه‌گران، به منظور لحاظ علل زیان مرتبط با هوش مصنوعی مولد، بیمه‌نامه‌های سایبری و مسئولیت را سفارشی می‌کنند و از این طریق، به ریسک‌های ناشی از این نوع هوش مصنوعی، پاسخ می‌دهند؛ در این میان، فعال‌سازهای پارامتریک[12] و پروتکل‌های احتیاطی[13] به منظور ساده‌سازی رویه‌های ارزیابی ریسک[14] و خسارت، مورد آزمایش قرار گرفته است؛ و بهره‌برداری از برخی راه‌کارهای هوش مصنوعی بیمه‌ای مستقل که انواع مختلف پوشش را در یک بیمه‌نامه واحد جمع می‌کند، حکایت از ظهور بازارهای جدید دارد. اگرچه بسیار زود است که بگوییم محصولات بیمه موجود یا راهکارهای مستقل جدید، بازار ریسک هوش مصنوعی مولد را قبضه خواهند نمود.

به منظور همگامی با نوآوری در هوش مصنوعی مولد، بیمه‌گران باید به صورت فعالانه مرزهای ریسک هوش مصنوعی مولد را تعیین کنند و به آزمایش ملحقات پوشش‌های پودمانی[15] بپردازند، پیش از آن‌که رویدادهای دارای خسارت، آنها را به واکنش، وادار سازد. بیمه‌گران ممکن است با ارائه‌دهندگان فناوری و نهادهای نظارتی، به منظور توسعه مشترک چارچوب‌های ارزیابی ریسک هوش مصنوعی، شراکت داشته باشند و شرایط بیمه‌نامه را به صورت مستمر رصد نمایند و به کاوش در مدل‌سازی مبتنی بر شبیه‌سازی[16] بپردازند. این همکاری، استانداردهای اخلاقی را هماهنگ می‌سازد، شرایط پوشش را روشن می‌کند و نقش صنعت بیمه را در حفاظت و حمایت از توسعه و پذیرش هوش مصنوعی مولد، تقویت می‌نماید.

بخش اول: مقدمه

۱.۱. تعریف و کاربردهای هوش مصنوعی مولد

هوش مصنوعی مولد، زیرمجموعه هوش مصنوعی است که می‌تواند محتوایی بدیع مانند متن، تصویر، صدا، ویدئو و ترکیبی از همه آنها در پاسخ به درخواست کاربران تولید کند[17]. هوش مصنوعی مولد، یک فناوری دیجیتالی انقلابی است که قادر است به صورت بنیادین، رویه‌های تولید را در اقتصادها، بازآفرینی کند و در این ویژگی، بسیار شبیه ابتکارات اولیه‌ای همچون موتور بخار، برق و اینترنت است.

هوش مصنوعی مولد براساس بسیاری از پیشرفت‌های آماری و زیربنایی هوش مصنوعی رایج، بنا شده است (جعبه ۱). در الگوهای هوش مصنوعی مولد به ویژه الگوهای زبانی بزرگ (LLM)[18]، وظیفه اصلی، پیش‌بینی نشانه[19] بعدی (یعنی کلمه یا عبارت) در یک توالی[20]، براساس محیطی با تمامی نشانه‌های پیشین، است. این پیش‌بینیِ نشانه-به-نشانه متوالی، الگوی هوش مصنوعی مولد را به منظور تولید متن یا سایر محتواهای روان و انسان‌نمای منسجم و از لحاظ محیطی مرتبط، ممکن می‌سازد. هوش مصنوعی رایج معمولاً، از روش‌های یادگیری ماشینی[21] رایج مانند طبقه‌بندی و رگراسیون[22] بهره می‌برد. در این حالت، الگوی هوش مصنوعی به این صورت آموزش می‌بیند: پیوند مستقیم نقشه پیش‌بینی‌کنندگان بالقوه به متغیر ثابت هدف (مانند پیش‌بینی دمای فردا).

جعبه ۱: مقایسه هوش مصنوعی مولد با هوش مصنوعی رایج

هوش مصنوعی مولد با هوش مصنوعی رایج در توان خود در خلق محتوای کاملاً جدید به جای تنها تحلیل داده‌ها، متفاوت است و قادر است، براساس الگوهای ازپیش‌موجود، پیش‌بینی کند[23].

هوش مصنوعی رایج از مجموع گسترده‌ای از داده‌ها، به منظور شناسایی الگوها، می‌آموزد. توان اصلی آن در پردازش داده‌های ساختارمند نهفته است. هوش مصنوعی رایج به الگوهای آماری سنتی، نزدیک‌تر است، چراکه در آن، یک صورت ریاضیاتی، عملکرد یک مدل را عددی می‌سازد و رویه بهینه‌سازی[24] را هدایت می‌نماید. از الگوریتم‌های یادگیری ماشینی برای تنظیم پارامترهای مدل و به منظور بهینه‌سازی تابع هدف[25]، استفاده می‌شود.

هوش مصنوعی مولد، پیش‌بینی نشانه‌ بعدی در یک توالی را شامل می‌شود. این روند، بهینه‌سازی تابع هدف را در بر می‌گیرد. تابع هدف، مدل را در تولید متنی منسجم و از لحاظ محیطی مرتبط، هدایت می‌نماید. توابع هدف فراگیر[26] شامل بهره‌برداری حداکثری از احتمال نشانه بعدی است. البته با این فرض که توالی متقدم[27] یا کاهش تفاوت بین توالی‌های تولیدشده و هدف، وجود داشته باشد. تکنیک‌های بهینه‌سازی مانند گرادیان نزولی[28] با هدف تنظیم پارامترهای مدل و به منظور تحقق هدف فوق‌الذکر، بکار گرفته می‌شود. موتور پشتوانه هوش مصنوعی مولد، یادگیری عمیق[29] است؛ نوعی پیشرفته از یادگیری ماشینی که برپایه شبکه‌های عصبی[30] بنیان نهاده شده است که می‌تواند داده‌های غیرساختارمند را پردازش کند و ویژگی‌های داده‌ها را به صورت خودکار، استخراج نماید[31].

در نوامبر ۲۰۲۲، شرکت اوپن‌ای.‌آی[32]، چت‌جی.‌پی‌.تی[33] را راه‌اندازی کرد؛ ابزار هوش مصنوعی که به واسطه قابلیت‌های زبان طبیعی[34]، به سرعت اقبال پیدا کرد. این ابزار، تنها طی دو ماه، ۱۰۰ میلیون کاربر را جذب خود نمود و نقطه عطفی در این نرخ جذب کاربر، کسب نمود که سریع‌تر از تیک‌تُک[35] (نه ماه) و اینستاگرام[36] (دو و نیم سال) بود. تا فوریه ۲۰۲۵، کاربران فعال هفتگی چت‌جی.‌پی‌.تی به ۴۰۰ میلیون نفر رسید[37]. این رشد بی‌سابقه، سیلی از سرمایه‌گذاری مخاطر‌ه‌آمیز[38] را رقم زد و رقابت برای تولید راهکارهای هوش مصنوعی مولد را با هدف بهبود بهره‌وری در میان صنایع مختلف، تشدید نمود.

در اوایل سال میلادی ۲۰۲۵، بن‎‌سازه دیپ‌سیک[39] به عنوان بازیگر عمده‌ای در فضای هوش مصنوعی مولد، ظهور یافت و قابلیت‌های پیشرفته‌ای با هدف پردازش و ادغام انواع مختلف داده‌ها مانند تصویر، صوت و متن را به طور همزمان، ارائه نمود. اما هزینه‌ و توان پردازش آن، بسیار کمتر از مدل‌های هوش مصنوعی مولد ابتدایی بود. طی سه ماه، دیپ‌سیک، بیش از ۵۰ میلیون کاربر را جذب نمود که منعکس‌کننده  ابتکارات اولیه چت‌جی.‌پی‌.تی است. این نوآوری، علاقه سرمایه‌گذاران را مجدداً برانگیخت و رقابت برای توسعه ابزارهای هوش مصنوعی مولد را برای کاربردهای وسیع‌تر، شدت بخشید.

ورای پذیرش مشتریان فردی، مدل‌های هوش مصنوعی مولد، به صورت بنیادی، روش عملیات کسب و کارها را تغییر می‌دهند. شرکت‌ها به طور فزاینده‌ای از هوش مصنوعی مولد برای دو هدف، بهره‌برداری می‌نمایند: در بخش ارائه محصول و افزودن هوش مصنوعی مولد به محصول و در بخش عملیاتی و خدمات مشتریان با هدف هدایت نوآوری. از این منظر، هوش مصنوعی مولد، رویه‌های مبتنی بر وظایف شغلی و جریان‌های کاری عملیاتی را به منظور بهبود کارایی و اثربخشی هزینه[40]، بازطراحی می‌نماید.

نمودار ۱، بر تسریع در کاربرد هوش مصنوعی مولد توسط کسب و کارها، تأکید دارد. نظرسنجی جهانی ۲۰۲۵ نشان می‌دهد که ۷۱ درصد از پاسخ‌دهندگان از ابزارهای هوش مصنوعی مولد در حداقل یک کارکرد تجاری استفاده نموده‌اند و این رقم به ۶۵ درصد در اوایل سال ۲۰۲۴ رسید که با ۳۳ درصد در ۲۰۲۳ قابل‌مقایسه است[41].

نمودار ۱: کاربرد هوش مصنوعی و هوش مصنوعی مولد در کسب و کارها

سازمان‌هایی که از هوش مصنوعی، حداقل در یک کارکرد تجاری استفاده نمودند؛ درصد پاسخ‌دهندگان

19 fig 1.jpg

* در سال ۲۰۱۷، تعریف کاربرد هوش مصنوعی، استفاده از آن در مرکز اصلی کسب و کار سازمان یا در گستره آن بود. طی سال‌های ۲۰۱۸ و ۲۰۱۹، این تعریف در حداقل یک ظرفیت هوش مصنوعی در محصولات یا رویه‌های تجاری تعبیه شد. از سال ۲۰۲۰ تاکنون، سازمان‌ها، حداقل یک کارکرد هوش مصنوعی را پذیرفته‌اند.

منبع: مک‌کنزی[42] ، [43]

۲.۱. ریسک‌های ناشی از هوش مصنوی مولد

درحالی‌که هوش مصنوعی مولد، مزایای آنی برای کسب و کارها به همراه دارد، ماهیت خلاق و خروجی‌ محور آن، ریسک‌های متمایزی ایجاد می‌کند که نیازمند مدیریت دقیق هستند. علیرغم این‌که برخی از این ریسک‌ها، نسخه‌های شدت‌یافته ریسک‌های هوش مصنوعی رایج هستند (مانند انصاف الگوریتمی[44]، دغدغه‌های حریم خصوصی)، سایر ریسک‌ها، کاملاً جدید هستند، به ویژه مواردی که مرتبط با تولید محتوا می‌باشند مانند هذیان الگوریتمی[45]، [46]‌ سوگیری‌ها و تکرار محتوای غیرمجاز و فقدان همتاهای تاریخی در نمایه‌های ریسک[47].

ریسک‌هایی که منشأ هوش مصنوعی مولد دارند،‌ مانند توزیع اطلاعات نادرست (دستور به دستگاه‌های هوشمند خانگی[48]، با استفاده از صوت‌های ساختگی[49] که منجر به دسترسی غیرمجاز می‌شود)، تولید محتوای مضر (به همراه تخریب و تبعیض) و نقض حق معنوی (با استفاده از متن، تصویر و موسیقی دارای حق معنوی محفوظ بدون مجوز یا ارائه نتایجی که تاحدزیادی شبیه به محتوا و سبک آثار موجود هستند)؛ همگی اینها ریسک‌هایی ملموس برای کسب و کارها و بیمه‌گران ایجاد می‌نمایند[50].

در بخش محصول، ممکن است کسب و کارهایی که از ابزارهای هوش مصنوعی مولد که توسط ارائه‌دهندگان فناوری، تولید شده‌اند، دچار ضرر و زیان شوند و این امر، منجر به نقض مسئولیت حقوقی ارائه‌کنندگان شود[51]. برای مثال، هنگامی‌که الگوی هوش مصنوعی، دچار آسیب‌پذیری امنیتی یا عیب فنی[52]  به واسطه کد تولیدشده خود شود، توسعه‌دهندگان هوش مصنوعی مولد، با ریسک‌های مسئولیت محصول[53] مواجه شوند.[54] ناکارآمدی در سامانه‌های هوش مصنوعی، همانند ناکارآمدی در زیرساخت‌های حیاتی است که به صورت بالقوه سبب ایجاد ریسک‌های سیستمیک در کل اقتصاد می‌شود. خدمات حقوقی تولیدی هوش مصنوعی، ممکن است کسب و کارها را به واسطه تولید محتوای غیردقیق توسط هوش مصنوعی یا تصویر غلط[55]، با ریسک‌های مسئولیت حرفه‌ای[56] مواجه سازد.

در بخش عملیاتی،‌ شرکت‌هایی که از هوش مصنوعی مولد برای هدایت کسب و کار، بهره‌برداری می‌نمایند، با ریسک‌هایی همچون تصمیم‌گیری غلط یا سوگیرانه، ناکارآمدی عملیاتی یا زیان مالی مواجه خواهند شد.

سامانه‌‎های هوش مصنوعی ممکن است، نسبت به حملات سایبری، آسیب‌پذیرتر باشند و این امر می‌تواند منجر به اختلال در کسب و کار یا زیان‌های مالی شود مانند ریسک‌های امنیت سایبریِ ناشی از آسیب‌پذیری‌های درون سامانه‌های هوش مصنوعی مولد.

جدول ۱، انواع مختلف ریسک‌های مرتبط با هوش مصنوعی رایج و مولد را نشان می‌دهد. در میان این گروه‌بندی‌ها، چالش‌های عملیاتی، امنیت سایبری و حریم خصوصی، بازار و شهرت و نیروی کار، ریسک‌های عملیاتی اصلی اول شخص محسوب می‌شوند. درحالی‌که ریسک‌های سوگیری و اخلاقی، تنظیم‌مقرراتی و تطبیق با قانون و ملاحظات زیست‌محیطی، اجتماعی و حاکمیتی (ESG)[57]، ریسک محصول شخص ثالث[58] را دربرمی‌گیرد. اگرچه بسیاری از ریسک‌ها قابل‌اجرا در حیطه هوش مصنوعی رایج و هوش مصنوعی مولد هستند، اما جنبه‌هایی با ارتباط خاص با هوش مصنوعی مولد در ستون آخر جدول، مورد تأکید قرار گرفته‌اند.

جدول ۱: ریسک‌های هوش مصنوعی و هوش مصنوعی مولد برای کسب و کارها

سطح

ریسک موردنظر

هوش مصنوعی رایج

هوش مصنوعی مولد (ریسک‌های جدید، تیره‌تر نشان داده شده‌اند)

عملیاتی

خطاهای الگوریتمی؛ ثبات؛ اعتبار

پیش‌بینی‌های نادرست یا نتایج ناخواسته می‌توانند روندهای کاری را مختل نماید و موجب بروز خطا شوند، مانند مشکلات در مدیریت موجودی[59].

خروجی‌های هوش مصنوعی مولد ممکن است از اهداف مورد نظر فاصله بگیرند و محتواهایی توهین‌آمیز، نامرتبط یا ساختگی بر اساس «هذیان» تولید کنند. از آنجایی که این سامانه‌ها برای اطمینان از صحت پیش‌بینی‌ها اعتبارسنجی نشده‌اند، خطاهای سیستماتیک ایجاد می‌کنند و ریسک استفاده در کاربردهای مواجهه با مشتری یا تولید محتوای خودکار را افزایش می‌دهند. علاوه بر این، هوش مصنوعی مولد در مقایسه با سامانه‌های سنتی فناوری اطلاعات در معرض اختلالات خدماتی بیشتری قرار دارد، زیرا جریان‌های کاری وابسته به وضعیت آن مانند مکالمات چندمرحله‌ای یا تولید محتوا، در صورت وقفه، پیشرفت خود را به‌طور جبران‌ناپذیری از دست می‌دهند.

مسائل جعبه سیاه

پیچیدگی و غیرشفاف بودن سامانه‌های هوش مصنوعی، ردیابی خطا و پاسخگویی را دشوار می‌سازد؛ موضوعی که به‌ویژه در صنایع مقررات‌گذاری‌شده مانند بیمه اهمیت فراوانی دارد.

هوش مصنوعی سنتی معمولاً قابلیت توضیح‌پذیری بیشتری نسبت به هوش مصنوعی مولد دارد. فرآیندهای تصمیم‌گیری پشت نتایج هوش مصنوعی مولد اغلب دشوار یا حتی غیرقابل فهم هستند، که باعث می‌شود منشأ، منطق و خطاهای نهفته در آن برای توسعه‌دهندگان غیرقابل ردیابی و ممیزی باشد و در نتیجه ریسک‌های تازه‌ای برای کاربران ایجاد شود.

حملات مخرب

هوش مصنوعی می‌تواند توسط عاملان تهدید برای مقاصد نامناسب و سوءاستفاده‌آمیز به‌کار گرفته شود.

محتوای تولیدشده توسط هوش مصنوعی مولد مانند مفاد ساختگی یا ایمیل‌های تله‌گذاری (فیشینگ)، می‌تواند برای اهداف مخرب مورد سوءاستفاده قرار گیرد. این مسئله با مشکلات مسموم‌سازی داده در هوش مصنوعی سنتی، که ناشی از تزریق نمونه‌های مخرب به داده‌های آموزش‌داده‌شده است، تفاوت دارد. افزون بر استفاده از هوش مصنوعی مولد توسط بازیگران مخرب، برخی کاربردهای این فناوری، خود به سطح حمله گسترده‌تری تبدیل می‌شوند؛ برای نمونه، ربات‌‌هایی سخنگو که دستورات زبانی اس.کیو.ال (SQL) را اجرا می‌کنند، از طریق حملات تزریق دستور[60] می‌توانند به نقطه ورود مهاجمان بدل شوند.

امنیت سایبری و حریم خصوصی

حملات مبتنی بر هوش مصنوعی

هوش مصنوعی می‌تواند برای تقویت حملات سایبری، مورد سوءاستفاده قرار گیرد و خطر نقض داده‌ها و به خطر افتادن امنیت عملیاتی را افزایش دهد.

مدل‌های هوش مصنوعی مولد ممکن است از طریق حملاتی مانند تزریق دستور، دستکاری شوند و در نتیجه، کیفیت محتوا و امنیت آن‌ها به خطر بیفتد؛ خطری که به‌عنوان ریسک دستکاری مدل[61] شناخته می‌شود.

نقض حریم خصوصی داده‌ها

گردآوری حجم گسترده‌ای از داده‌ها می‌تواند در صورت مدیریت نادرست، ناقض قوانین حریم خصوصی باشد و به جریمه‌های قانونی و از دست رفتن اعتماد مشتریان منجر شود.

ریسک نقض حریم خصوصی در هوش مصنوعی مولد نسبت به هوش مصنوعی سنتی، بالاتر است، زیرا این فناوری با حجم بیشتری از داده‌های پیچیده و غیرساختار‌یافته، سروکار دارد. این ریسک به‌ویژه زمانی تشدید می‌شود که هوش مصنوعی مولد به داده‌هایی دسترسی پیدا کند که مجاز به استفاده از آن‌ها نیست، داده‌ها را به شیوه‌ای خارج از چارچوب تعیین‌شده به‌کار گیرد (برای مثال بدون اخذ رضایت قبلی کاربر)، یا آن‌ها را به خارج از حوزه‌های قضایی منتقل کند. علاوه بر این، هوش مصنوعی مولد می‌تواند با مسائلی مانند مداخله در حریم خصوصی از طریق پایش مستمر، افزایش آسیب‌پذیری در برابر نشت داده‌ها[62] و ایجاد چالش برای حقوق داده‌های شخصی، همراه باشد.

شهرت و بازار

اعتماد مشتری و تصویر نام تجاری

سوءاستفاده از هوش مصنوعی می‌تواند اعتبار سازمان را خدشه‌دار کند، به‌ویژه زمانی که حریم خصوصی مشتریان نقض شود یا انتظار آن‌ها نسبت به انصاف و عدالت برآورده نشود.

خروجی‌های بی‌کیفیت یا نادرست هوش مصنوعی مولد می‌توانند اعتماد مشتریان را کاهش دهند و اعتبار شرکت را تحت الشعاع قرار دهند، چرا که ذی‌نفعان ممکن است درباره‌ی صحت و نیت پیام‌های خودکار تردید کنند.

ریسک وابستگی و رقابت[63]

اتکای بیش از حد به هوش مصنوعی می‌تواند در زمان بروز اختلال، عملکرد عملیاتی سازمان را به خطر بیندازد.

هوش مصنوعی مولد می‌تواند این ریسک را تشدید کند، زیرا به‌صورت عمیق‌تر و فشرده‌تر در فرآیندها و مدل‌های کسب‌وکار ادغام می‌شود.

چالش‌های نیروی کار

جابه‌جائی شغلی

خودکارسازی فرآیندهای هوش مصنوعی می‌تواند منجر به نارضایتی و واکنش منفی نیروی کار شود، زیرا نقش‌ها و مشاغل جایگزین می‌شوند.

هوش مصنوعی مولد این ریسک را تشدید می‌کند. همان‌طور که در جعبه ۲ نشان داده شده، هوش مصنوعی عاملی یا همان نسخه پیشرفته‌تر هوش مصنوعی مولد، ممکن است به‌طور گسترده‌ای شغل‌ها را جایگزین کند.

الزامات مهارت‌های هوش مصنوعی

هوش مصنوعی نیازمند مهارت‌های جدیدی است تا کیفیت و تبعات اخلاقی خروجی‌ها مدیریت شود، که این موضوع چالش‌هایی را در زمینه ارتقاء مهارت‌های نیروی کار به‌وجود می‌آورد.

هوش مصنوعی مولد این مشکل را تشدید می‌کند. کارکنان باید آموزش ببینند تا خروجی‌های هوش مصنوعی مولد را تفسیر کنند، به دغدغه‌های اخلاقی واکنش نشان دهند و کیفیت محتوا را تضمین نمایند (که به مهارت‌های خاصی در این حوزه نیاز دارد). همچنین، هوش مصنوعی مولد برای پذیرش، به فرهنگ سازمانی مناسب نیاز دارد.

تنظیم‌مقرراتی و تطابق با قانون

مقررات درحال‌تکامل هوش مصنوعی

قوانین جدید از کسب‌وکارها می‌خواهند که به‌سرعت خود را با تغییرات تطبیق دهند؛ عدم رعایت این قوانین می‌تواند منجر به جریمه‌ها شود، به‌ویژه در بخش‌های مقررات‌گذاری‌شده مانند بیمه.

قانون هوش مصنوعی اتحادیه اروپا مقرراتی جامع را برای توسعه و استفاده از هوش مصنوعی اعمال می‌کند. این مقررات باید به‌دقت بین مدیریت ریسک‌های هوش مصنوعی مولد و ترویج نوآوری فناورانه، تعادل برقرار کند.

مسئولیت‌پذیری و تعهد قانونی

کسب‌وکارها ممکن است با مسئولیت‌پذیری برای خسارات ناشی از سامانه‌های هوش مصنوعی روبه‌رو شوند، در حالی که تعیین مسئولیت در این زمینه با چالش‌هایی همراه است.

هوش مصنوعی مولد ممکن است از محتوای دارای حق تکثیر استفاده کند، که این موضوع کسب‌وکارها را در معرض ریسک‌های قانونی و آسیب به شهرت (حقوق تکثیر و مالکیت معنوی) قرار می‌دهد.

سوگیری و دغدغه‌های اخلاقی

تبعیض و سوگیری

الگوریتم‌های هوش مصنوعی ممکن است تعصبات اجتماعی را تقویت کند و به شیوه‌های تبعیض‌آمیز منجر شوند، که می‌تواند باعث دعاوی قضائی گردد.

هوش مصنوعی مولد به‌طور فعال محتوای جدید تولید می‌کند؛ بنابراین، در صورتی که از داده‌های مغرضانه استفاده کند، ممکن است خروجی‌هایی تولید کند که به تداوم و تشدید کلیشه‌های اجتماعی منجر شود و این امر، خطرات اخلاقی و احتمال دعاوی قضائی را افزایش می‌دهد.

تصمیم‌گیری اخلاقی

هوش مصنوعی ممکن است اولویت را به کارایی دهد تا اخلاق. بنابراین، در صورتی که تصمیمات منجر به آسیب به اعتماد مشتریان شود، می‌تواند به آسیب به شهرت سازمان را در پی داشته باشد.

خروجی‌های هوش مصنوعی مولد ممکن است به‌طور غیرعمدی اصول اخلاقی را نقض کنند، مانند تولید اطلاعات گمراه‌کننده یا مضر.

محیط‌زیستی، اجتماعی و حاکمیتی

محیط‌زیستی و انرژی

سامانه‌های هوش مصنوعی نیازمند مصرف قابل توجه انرژی و آب هستند، که ممکن است با تعهدات کاهش انتشار کربن و دستیابی به اهداف صفر خالص مغایرت داشته باشد.

هوش مصنوعی مولد این مشکل را تشدید می‌کند، زیرا فناوری زیربنایی آن، یعنی یادگیری عمیق، برای تولید خروجی‌های پیچیده به‌طور نمایی، به توان محاسباتی بیشتری نیاز دارد. این مصرف بالای انرژی نه‌تنها فشار بیشتری بر شبکه‌های برق وارد می‌کند، بلکه وابستگی به آب برای خنک‌سازی مراکز داده بسیار عظیم را نیز افزایش می‌دهد.

منبع: انجمن ژنو

ظهور هوش مصنوعی، اساساً قابلیت‌ها و ریسک‌های سامانه‌های هوش مصنوعی را گسترش داده و چالش‌های پیچیده‌ای ایجاد کرده است که نیازمند حاکمیت جامع و راهبردهای کاهش ریسک است. این امر، ریسک‌های هوش مصنوعی فعلی را تشدید نموده و ریسک‌های بدیعی را پدید آورده است.

بسیاری از الگوریتم‌های هوش مصنوعی، مبهم و پیچیده هستند و این موضوع، تفسیر و شرح عملیاتها و نتایج آنها را برای کسب و کارها، دشوار می‌نماید. این موضوعِ موسوم به جعبه سیاه[64]، ردیابی خطا و مسئولیت‌پذیری را به ویژه در صنایع تنظیم‌مقررات‌شده‌ای همچون مالی و خدمات درمانی، پیچیده‌تر می‌کند. همچنین، چالش‌های حقوقی را رقم می‌زند، چراکه شرکت‌ها باید نشان دهند که چگونه تصمیم‌های مبتنی بر هوش مصنوعی، گرفته می‌شوند و ابهام، مانع دفاع از مسئولیت می‌شود. هوش مصنوعی مولد،‌ این چالش را تشدید می‌کند. به عبارت دیگر، برخلاف هوش مصنوعی رایج که مسیرهای تصمیم‌سازی قابل‌پیگیری را ایجاد می‌کند که می‌توان آنها را معکوس نمود، خروجی‌های هوش مصنوعی مولد را نمی‌توان به پارامترهای خاصی متصل نمود و رویه تولید خلاقانه که شامل آموزش داده‌هایی با تناوب و گستره بالا می‌شود، ذاتاً و آسان، قابل‌تشریح نیستند. در نتیجه، تفسیرپذیری، به واسطه آموزش سوگیری داده‌ها و الگوپردازی زیرساخت، انتساب خطا را پیچیده‌تر می‌نماید.

همچنین، ریسک‌های امنیت سایبری افزایش می‌یابد. با کاهش موانع فنی ورودی‌ها برای جرایم سایبری، هوش مصنوعی مولد، تکثیر بدافزار[65]، تله‌گذاری یا فیشینگ[66] و حملات امتناع از خدمت (DDoS)[67] ناشی از استفاده از آن را ممکن ساخته است. به واسطه خلاقیت خاص هوش مصنوعی مولد، عاملین تهدید، به طور فزاینده‌ای از ابزارهای هوش مصنوعی مولد مانند فراد‌جی.پی.تی[68] و ایلِون‌لبز[69] به منظور خودکارسازی خلق محتوای مغرضانه از جمله بدافزا، ویدئوهای ساختگی[70]، وبسایت‌های تله‌گذاری و صداهای مصنوعی[71] بهره‌برداری می‌کنند. این خودکارسازی سبب حملات سایبری قابل‌توسعه، باورپذیر و اثرگذار شده است. هم‌اکنون، گروه‌های جرم‌سایبری-به‌عنوان-خدمت (CaaS)[72] از این ابزارها به منظور تخصص در مراحل خاص زنجیره حمله[73] استفاده می‌کنند[74]. علاوه‌براین، هوش مصنوعی مولد، تهدیدهایی از طریق دستکاری در مدل، ایجاد می‌کند که طی آن، حملات خصمانه، امنیت و کیفت محتوا را کاهش می‌دهد و به ابزارهای مغرض مانند مفاد ساختگی و ارتباطات تقلبی امکان مانور می‌دهد[75]. این نوع دستکاری در مدل، ممکن است، علیرغم وجود داده‌های آموزش‌داده‌شده معمولی و صحیح، به طور مستقیم نتایج گمراه‌کننده و فریب‌کارانه، در پی داشته باشد. برای مثال، چت جی.پی.تی ۴، در دستکاری در داده‌های متنی، مهارت دارد و جهت‌گیری متن گفتگو را دستکاری می‌کند و به طور شایسته‌ای، بخش‌هایی نشنیده گفتگو را به آن نسبت می‌دهد. نرم‌افزار ادوبی فایل‌فلای[76] نیز معمولاً، داده‌های بصری را دستکاری می‌کند و به عنوان نمونه، حجم عظیمی از آب را به تصویری از رودخانه‌ مریخ مرتبط می‌کند[77].

برقراری تعادل بین کارایی هوش مصنوعی با نظارت انسانی، با هدف حفظ اعتماد، پیشگیری از خروجی‌های سوگیرانه، گمراه‌کننده یا مضر و حصول اطمینان از مسئولیت‌پذیری و تطبیق با قانون، ضروری است. شیوه فعلی استفاده از هوش مصنوعی، انسان را نسبت به خروجی‌ نهایی، مسئول می‌داند و هوش مصنوعی مولد را به عنوان ابزاری کمک‌یار معرفی می‌کند که مسئولیت‌های اصلی وی را تغییر نمی‌دهد. به عنوان مثال، خروجی‌ نهایی هوش مصنوعی می‌تواند مدیران یک نیروگاه باشند که برنامه پیشنهادی هوش مصنوعی را تأیید می‌کنند و گواهی تأییدیه کیفیت محصول صادر می‌نمایند. اما، هوش مصنوعی مولد ممکن است به صورت تدریجی، مسئولیت عملیاتی[78] را بپذیرد، برای مثال در رانندگی خودکار[79] یا سامانه‌های تولیدی حلقه بسته[80]. با پیشرفت در هوش مصنوعی عاملی[81]،‌ ریسک‌ها شدت پیدا خواهند نمود (جعبه ۲)[82]. این نوع هوش مصنوعی، سامانه‌هایی هستند که به منظور عمل مستقل و تصمیم‌گیری به منظور دستیابی به اهداف خاص، طراحی شده‌اند.

جعبه ۲: ظهور هوش مصنوعی عاملی و ریسک‌های مرتبط با آن برای کسب و کارها

ظهور هوش مصنوعی عاملی یا همان نمایندگان مصنوعی که دارای ظرفیتی مستقل در درک، برنامه‌ریزی، تصمیم‌گیری و اجرای برخی اهداف خاص درون مرزهای ازپیش‌تعیین‌شده هستند، نمایان‌گر تحولی بنیادین از هوش مصنوعی رایج و نیز پیشرفتی عمده نسبت به هوش مصنوعی مولد محسوب می‌شود. برخلاف هوش مصنوعی رایج و مولد، که اساساً بینش‌هایی پیشگویانه یا محتوایی تولیدی با مدیریت انسانی ارائه می‌دهند، هوش مصنوعی عاملی، درجه بیشتری از خودمدیریتی (نمایندگی) در تصمیم‌گیری و اجرای اوامر، عمل می‌کند. این نمایندگان می‌‌توانند به صورت مستقل و هماهنگ با یکدیگر، کارکردهای پیچیده را که پیش‌تر نیازمند نظارت و رفتار انسانی داشت را اجرا نمایند مانند بهینه‌سازی زنجیره عرضه و مدیریت تعامل چندمرحله‌ای با مشتری تا اجرای تراکنش‌های مالی و اجرای زیرساخت‌های حیاتی.

درحالی‌که این استقلال، نوید کارایی عمده‌ و فرصت‌های تجاری جدیدی را می‌دهد، اما درعین‌حال، لایه‌های جدیدی از ریسک را نیز رقم می‌زند. چالش اصلی، در توان بالقوه سامانه‌های عاملی[83] نهفته است تا بدون دستور مستقیم انسان، وارد عمل شوند و نتایجی غیرعمدی یا نامطلوبی را تولید نمایند و به صورت بالقوه، ردیابی علت و تعیین مسئولیت روشن در صورت بروز خطا یا پیامد زیان‌بار را دشوار کنند. این رخدادها می‌توانند از اختلال عملیاتی سریع و زیان‌های مالی گسترده تا آسیب به شهرت یا جرایم مقرراتی ناشی از رفتارهای مستقل غیرمنطبق با قانون، را دربربگیرد.

کسب و کارهایی که از هوش مصنوعی عاملی بهره‌برداری می‌کنند ممکن است، تقاضا برای پوشش بیمه را برای رسیدگی به این ریسک‌های مستقل، افزایش دهند. هنگامی‌که رفتارها، مستقلاً توسط سامانه هوش مصنوعی اجرا می‌شوند، تعیین مسئولیت دقیق، مبهم می‌شود و این امر، پرسش‌هایی درباره مسئول نهایی یعنی توسعه‌دهنده، بهره‌بردار یا کاربر را در ذهن متبادر می‌سازد. بیمه‌پذیری ریسک‌های هوش مصنوعی عاملی، تاحدزیادی بستگی به بلوغ چارچوب‌های حاکمیت هوش مصنوعی عاملی در سازمان‌ها دارد. حوزه هوش مصنوعی عاملی، با سرعت بی‌سابقه‌ای در حال پیشرفت است و این موضوع، بیمه‌گران و نهادهای نظارتی را ملزم می‌کند تا سبک و پاسخ‌گو باقی بمانند.

منبع: کریستوف کریگ، پیک۳ (عضو گروه بیمه ژانگ‌آن)[84]

هوش مصنوعی مولد، دغدغه‌های حقوقی و تنظیم‌مقرراتی مضاعفی را به ویژه در خصوص حق نشر[85] و نقض مالکیت معنوی  (IP)[86] رقم می‌زند. مدل‌های هوش مصنوعی مولد ممکن است سهواً مفاد دارای حق معنوی را درگیر کنند و کسب و کارها را با مناقشات حقوقی و آسیب به شهرت، مواجه نمایند. سایر ریسک‌های تطبیق با قانون که هوش مصنوعی مولد مسبب آن است، ممکن است به واسطه استمرار اجرای مقررات و شیوه‌نامه‌های ‌مقرراتی هوش مصنوعی رایج توسط کسب و کارها، نادیده گرفته شود. تعیین مسئولیت برای ناکارآمدی هوش مصنوعی، حیاتی است و نیازمند مدیریت دقیق نوشتار قرارداد است. به عبارت دیگر، در صورتی‌که یک کسب و کار از یک ارائه‌کننده خدمات هوش مصنوعی مولد استفاده می‌کند، هر دو طرف باید در قبال توافقات قرارداد، مسئولیت تعیین نمایند. مدل‌های هوش مصنوعی مولد معمولاً معاف از مسئولیت هستند. این بدان معناست که مسئولیت مستقیماً برعهده کسب و کاری است که خدمات به مشتری ارائه می‌دهد و نه ارائه‌کننده خدمات هوش مصنوعی.

دغدغه‌های سوگیری و اخلاقی هنگامی‌ ایجاد می‌شوند که سامانه‌های هوش مصنوعی، سهواً سوگیری اجتماعی[87] را تشدید کنند. درحالی‌که مسائل مربوط به سوگیری و حریم خصوصی، اغلب به عنوان چالش‌های فنی و حقوقی دیده می‌شوند، دغدغه‌های اخلاقی، ورای تطبیق با قانون، تا هنجارهای اجتماعی را نیز دربرمی‌گیرند. برای مثال، الگوریتم‌های اجاره‌ای سوگیرانه ممکن است، برخی جمعیت‌ها را به سایر جوامع ترجیح دهند و شرکت‌ها را در معرض دعاوی حقوقی و آسیب به شهرت قرار ‌دهند. درحالی‌که هوش مصنوعی رایج، داده‌های موجود را به منظور یادگیری الگوها و پیش‌بینی نتایج تحلیل می‌کند، هوش مصنوعی مولد به صورت نظام‌مند محتوایی بدیع تولید می‌کند که درصورت سوگیری‌، کلیشه‌های اجتماعی و خطاهای خود را تداوم می‌بخشد و تشدید می‌کند (آموزش سوگیری داده) [88]. این امر می‌تواند به صورت اخلاقی، محتوای مشکل‌ساز تولید کند (ریسک‌ محتوای اخلاقی)[89] و بر اعتماد و اعتبار کاربران اثر بگذارد[90]. علاوه‌براین، خودکارسازی مبتنی بر هوش مصنوعی ممکن است کارایی را در اولویت قرار دهد ویا از ملاحظات اخلاقی، بهره‌برداری سوء کند. این نوع عدم‌تناسب بین اهداف تجاری و بهره‌برداری اخلاقی از هوش مصنوعی می‌تواند منجر به آسیب به شهرت و از بین رفتن اعتماد مشتری شود.

درحالی‌که توسعه و بهره‌برداری از هوش مصنوعی مولد می‌تواند ریسک‌های فعلی را تشدید نماید و موارد جدیدی را برای کسب و کارها رقم بزند،‌ اثر خالص هوش مصنوعی مولد بر ریسک، همچنان نامشخص است. در بخش محصول، توسعه‌دهندگان فناوری اطلاعات، از گذشته با ریسک‌های مرتبط با مسئولیت محصول مواجه هستند. هوش مصنوعی مولد می‌تواند این نوع ریسک‌ها را با ایجاد خطاهای بدیع یا کاهش آنها از طریق بهبود کیفیت محصول، افزایش دهد مانند بهبود دقت در کدگذاری[91]. در بخش عملیاتی، هوش مصنوعی مولد ممکن است عاملین تهدید را از طریق ابزارهایی مانند ابزار تولید مفاد ساختگی، قدرت بخشد. اما درعین‌حال، این موضوع دفاع سایبری را تقویت می‌کند و سبب پیشرفته در قابلیت‌های‌ شناسایی نابهنجاری‌ها و تولید داده‌های ساختگی، می‌شود. هوش مصنوعی مولد در مقایسه با هوش مصنوعی رایج، شناسایی تهدیدهای پیچیده و متغیر را از طریق مدیریت بهتر الگوهای متنوع داده و انواع حمله، بهبود می‌بخشد[92]. گزارش حاضر، بر ریسک‌های خاصی که هوش مصنوعی مولد ایجاد یا تشدید می‌کند، متمرکز است و به تخمین اثر کل و خالص آن بر مجموع ریسک کسب و کار، نمی‌پردازد.

۳.۱. پرسش تحقیق و نتایج

کسب و کارها، به منظور مدیریت ریسک‌های مرتبط با هوش مصنوعی، باید چارچوب‌های حاکمیتی استواری را اجرا نمایند، شفافیت را تقویت کنند، از بهره‌برداری اخلاقی از فناوری، اطمینان حاصل نمایند و از هم‌سویی با مقررات متغیر به منظور رسیدگی به مسئولیت‌های بالقوه، مطمئن شوند. مدیریت ریسک اثربخش تنها شامل کاهش و تخفیف ریسک‌های ناشی از کاربرد هوش مصنوعی مولد نیست، بلکه انتقال ریسک‌ها به طرف‌هایی است که در بهترین موقعیت برای جذب خسارات مرتبط با آنها، قرار گرفته‌اند. در این حیطه، ریسک‌های مرتبط با هوش مصنوعی مولد ممکن است به عنوان موضوع پوشش بیمه، قرار گیرد. انتظار می‌رود، مشتریان بیمه کسب و کار، درپی محصولات بیمه نوآورانه‌ای باشند تا این نوع ریسک‌ها را به صورت مؤثر مدیریت نمایند. با ارائه این نوع راهکارها، بیمه‌گران ‌می‌توانند به مدیریت ریسک‌های هوش مصنوعی مولد برای کسب و کارها و کل جامعه کمک نمایند.

گزارش حاضر به بررسی این پرسش تحقیق می‌پردازد: چگونه بیمه می‌تواند به ریسک‌های مرتبط با هوش مصنوعی مولد رسیدگی کند. به طور خاص، این گزارش به بررسی نگرش‌ مشتریان بیمه کسب و کار درباره بهره‌برداری از هوش مصنوعی مولد، آگاهی آنها از مزایا و ریسک‌های مرتبط با آن و نیز راهبردهای مدیریت فعلی و آتی آنها، می‌پردازد. این گزارش، پویایی ریسک‌های جدید ناشی از هوش مصنوعی مولد را ارزشیابی می‌نماید و تقاضا و عرضه بالقوه راهکارهای بیمه‌ای مرتبط با هوش مصنوعی مولد را تحلیل می‌کند.یم‌ای

 همچنین، این پژوهش، ظرفیت بخش بیمه را در توسعه و ارائه محصولات حفاظتی مناسب در پاسخ به این نوع ریسک‌های نوظهور را ارزیابی می‌نماید.

گزارش حاضر، از دو نتیجه بدیع پرده برمی‌دارد. اول این‌که این اولین مطالعه‌ای است که بر چگونگی درک مشتریان بیمه از ریسک‌های هوش مصنوعی و راهکارهای بیمه‌ای مرتبط با آنها، متمرکز است[93]. دوم این‌که، مطالعه حاضر اولین ارزیابی جامع از نوع خود در خصوص بیمه‌پذیری ریسک‌های خاص هوش مصنوعی را ارائه می‌دهد. این گزارش که براساس معیارهای بیمه‌پذیری رسمی، هدایت شده است، مواجهه‌های هوش مصنوعی مولد را به صورت نظام‌مندی ارزشیابی می‌کند تا دریابد کدام مواجهه به صورت واقعی و براساس چارچوب‌های فعلی بازار پوشش داده می‌شود و به چه محصولات نوآورانه‌ای نیاز خواهد بود.

مابقی گزارش حاضر به شکل ذیل تقسیم‌بندی شده است: بخش دوم، به بررسی تقاضای مشتریان کسب و کار برای بیمه مرتبط با هوش مصنوعی مولد می‌پردازد؛ بخش سوم، بیمه‌پذیری ریسک هوش مصنوعی را به بحث می‌گذارد؛ و بخش چهارم، چشم‌اندازهای آتی را ارائه می‌دهد و با پیشنهاداتی به بیمه‌گران خاتمه می‌یابد.

بخش دوم: تقاضا برای بیمه مرتبط با هوش مصنوعی مولد: نظرسنجی از مشتریان کسب و کار

با عنایت به ماهیت متنوع و پیچیده ریسک‌های ناشی از هوش مصنوعی مولد، درک چگونگی فهم و پاسخ‌گویی کسب و کارها به آنها، حیاتی است. بنابراین، انجمن ژنو، یک نظرسنجی برخط از مشتریان بیمه کسب و کار به عمل آورد که چهار حوزه را مورد بررسی قرار می‌دهد: ۱) کاربرد هوش مصنوعی مولد، ۲) آگاهی و درک ریسک‌های مرتبط با هوش مشنوعی مولد، ۳) نمایه‌های پایه پاسخ‌دهندگان. جزئیات رویه نظرسنجی و نمونه، در جعبه ۳، به اختصار آمده است.

جعبه ۳: نمونه و رویه نظرسنجی از مشتریان بیمه کسب و کار

در فوریه ۲۰۲۵ (اردیبهشت ۱۴۰۴)، نظرسنجی از ۱۰۰ مشتری بیمه کسب و کار در شش بازار بزرگ بیمه جهان (چین، فرانسه، آلمان،‌ ژاپن، انگلستان و ایالات متحده)، صورت پذیرفت. نمونه‌ها، به گونه‌ای طراحی شده بودند که نشان‌دهنده نمایه مشتریان بیمه در بازارهای مرتبط بود و کسب و کارها از صنایع گوناگون با اندازه‌های مختلف را پوشش می‌داد.

نمودار ۲: نمایه سازمان‌های نمونه

 

19 fig 2 --.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

این نظرسنجی، ۲۲ پرسش را شامل می‌شود. صلاحیت پاسخ‌دهندگان به منظور شرکت در این نظرسنجی عبارت بود از: ۱) داشتن درک پایه از ماهیت هوش مصنوعی؛ ۲) استفاده از ابزارهای هوش مصنوعی برای عملیات‌های کسب و کار در سازمان متبوع خود؛ ۳) خرید یا تمدید بیمه برای سازمان خود طی سه سال گذشته؛ و ۴) توان تصمیم‌گیری درخصوص بیمه در سازمان خود (مانند تصمیم‌گیرنده و اثرگذارنده[94]).

منبع: انجمن ژنو

 

نتایج نظرسنجی نشان می‌دهد که کسب و کارها به سرعت پذیرای هوش مصنوعی مولد هستند و کاربردهای آن از گزارش‌دهی داخلی و خلاصه‌سازی تا وظایف مرتبط با مشتریان را دربرمی‌گیرد. اما میزان سرعت و عمق این پذیرش در بازارها، تاحدزیادی متفاوت است. در این میان، ایالات متحده و چین، برجسته هستند، چراکه هر دو کاربرد و آمادگی بالایی برای تأمین بیمه ریسک‌های مرتبط با هوش مصنوعی، دارند. این درحالی‌است‌که ژاپن، آلمان و فرانسه، پذیرش آهسته‌تری دارند که نشاندهنده اعتماد پایین‌تر، موانع مقرراتی و فرهنگی و مقاومت سازمانی در این کشورهاست. چالش‌های اصلی اجرا، کمبود افراد حرفه‌ای ماهر، کیفیت ضعیف داده‌ها و موانع فنی ادغام هستند که همگی بر آسیب‌پذیری عملیاتی می‌افزایند. ناکارآمدی گزارش‌شده مانند خروجی‌های نادرست یا گمراه‌کننده، پاسخ‌های متناقض و دشواری در سازگاری سیستمی، بر ضرورت تدوین سازوکارهای اعتبارسنجی استوار و چارچوب‌های حاکمیتی، صحه می‌گذارد. درمجموع، این یافته‌ها نشان می‌دهند، درحالی‌که هوش مصنوعی مولد، شکل تازه‌ای به رویه‌های کسب و کار می‌دهد، ریسک‌های عمده‌ای نیز با خود به همراه دارد.

تقاضا برای راهکارهای بیمه، به طرز چشمگیری، قوی است. بیش از ۹۰ درصد از شرکت‌های مورد بررسی اظهار داشتند که به پوشش برای ریسک‌های هوش مصنوعی مولد، علاقمند هستند و بیش از دو سوم نیز آماده هستند تا حق بیمه بالاتری برای این حفاظت، پرداخت کنند. ریسک امنیت سایبری، حوزه غالب در فهرست مواجهه با ریسک هوش مصنوعی مولد بود و پس از آن، مسئولیت نسبت به مشتریان و عرضه‌کنندگان قرار گرفت و ریسک‌های عمومی عملیاتی در رتبه سوم انتخاب شد. شرکت‌های متوسط تا بزرگ، بخش‌های شدیداً فناورمحور و کسب و کارهایی که تا حد زیادی مواجهه با ریسک دارند یا در گذشته، تجربه ناکارآمدی شدید را تجربه کرده‌اند، اشتهای بالایی برای پوشش بیمه هوش مصنوعی مولد از خود نشان دادند. مقایسه‌های بین بازاری تأیید می‌کند که بزرگ‌ترین فرصت‌های آنی برای بیمه‌گران در ایالات متحده و چین، نهفته است، جائی‌که پذیرش و تقاضای بیمه، در بیشترین حد خود قرار دارد. این درحالی‌‎است‌که اروپا در این زمینه، عقب مانده است. این قشر‌بندی حاکی از آن است که بیمه‌گران باید به صورت فعال، محصولات و راهبردهای خود را بازآفرینی و نوآفرینی کنند، به طوری‌که بیمه‌نامه‌های سایبری بتوانند ریسک‌های هوش مصنوعی را دربرگیرند، پوشش‌های مستقل در موارد توجیح‌پذیر، توسعه بخشند و محصولات را با نمایه‌های ریسک و آمادگی بخش‌ها و بازارهای خاص، هماهنگ گردانند.

۱.۲. کاربرد هوش مصنوعی مولد در کسب و کار

تولید چکیده‌ها و گزارش‌های داخلی، به عنوان دلیل اصلی استفاده از هوش مصنوعی مولد ذکر شد (۵۱.۵ درصد در مجموع، ۸۲ درصد در چین، به نمودار ۳ مراجعه نمایید). این یافته‌ها از پذیرش گسترده هوش مصنوعی مولد در میان صنایع و نیز اهمیت فزاینده آن در طیفی از رویه‌های کسب و کار، حکایت دارد.

نمودار ۳: اهداف استفاده از هوش مصنوعی مولد

19 fig 3.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

نمودار ۴، کاربرد هوش مصنوعی را در عملیات‌های تجاری روزمره، نشان می‌دهد. درمجموع،‌ ۴۷.۵ درصد از پاسخ‌دهندگان، هوش مصنوعی مولد را «بسیار سودمند» یافتند و در این میان، ایالات متحده با ۶۸ درصد و چین با ۶۶ درصد، بالاترین نرخ را به خود اختصاص دادند. در مقابل، ژاپنی‌ها نشان دادند که کمترین سودمندی را در هوش مصنوعی مولد دیدند، به طوری‌که تنها ۱۸ درصد از کسب و کارها، این فناوری را «بسیار سودمند» یافتند. این تفاوت‌های منطقه‌ای حاکی از آن است که عوامل فرهنگی، مقرراتی و عملیاتی بر ارزش درک‌شده از هوش مصنوعی مولد اثر می‌گذارد[95].

نمودار ۴: سودمندی هوش مصنوعی مولد در کارهای روزمره

تا چه حد هوش مصنوعی مولد در کارهای روزمره شما، مفید است؟

19 fig 4.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

هنگام اجرای هوش مصنوعی مولد، کسب و کارها با چالش‌های متعددی روبرو هستند (نمودار ۵). مهم‌ترین موانع شامل موارد ذیل می‌شود: کمبود افراد حرفه‌ای واجد شرایط (۳۶.۵ درصد) و مسائل مرتبط با دسترسی و کیفیت داده‌ها (۳۴.۲ درصد). مسائل فنی مانند ادغام داده‌ها و توسعه سیستم نیز موانع عمده‌ای را رقم می‌زنند. این مسائل، هوش مصنوعی مولد را نسبت به ریسک‌های اعلامی در بخش پیشین، آسیب‌پذیرتر می‌کنند. تنها ۱۴ درصد از کسب و کارها، هیچ نوع چالشی را گزارش نکردند.

نمودار ۵: چالش‌های اجرای هوش مصنوعی مولد

هنگام اجرای هوش مصنوعی مولد در شرکت یا سازمان خود، با چه چالش‌هایی مواجه شده‌اید و یا پیش‌بینی می‌کنید که مواجه شوید؟

19 fig 5.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

در هر بازار، چالش اصلی، متفاوت است. در آلمان و فرانسه، مسئله‌ای که به کرات به آن اشاره شد، مقاومت همکاران، کارکنان ویا مشتریان ( به ترتیب، ۴۱ درصد و ۳۹ درصد)  بود. در مقابل، چین و ژاپن، به ترتیب با ۱۲ و ۲۳ درصد پاسخ، بیشترین استقبال را از پذیرش هوش مصنوعی مولد نشان دادند و مقاومت را به عنوان یک چالش ذکر کردند. مانع اصلی در چین، ژاپن و ایالات متحده، دسترسی محدود به افراد حرفه‌ای ماهر در حوزه هوش مصنوعی مولد است. این یافته‌ها نشان می‌دهند، درحالی‌که کسب و کارها در آسیا و آمریکای شمالی، آماده‌تر هستند تا هوش مصنوعی مولد را بپذیرند، اما با کمبود نیروی ماهر مواجه هستند. همچنین، در قاره اروپا، عدم‌تمایل برای پذیرش هوش مصنوعی مولد، مسئله بسیار اضطراری است. انگلستان، در بین این دو روند قرار می‌گیرد.

۲.۲. آگاهی و درک ریسک‌های هوش مصنوعی مولد

کسب و کارها در گزارش خود به مواجهه با مشکلات و ناکارآمدی ناشی از استفاده از هوش مصنوعی مولد، اشاره نمودند (به نمودار ۶ مراجعه نمایید). چالش‌هایی که بیش از همه گزارش شد، عبارتند از: اطلاعات نادرست یا گمراه‌کننده (متوسط کل ۳۴.۷ درصد و ۵۸ درصد در ژاپن)، دشواری در ادغام هوش مصنوعی مولد با سامانه‌های موجود (۲۹.۸ درصد) و پاسخ‌های متناقض توسط هوش مصنوعی (۲۸.۷ درصد). دقت همچنان یک مسئله حیاتی به ویژه در ژاپن اعلام شد. جائی‌که اعتماد به محتوای تولیدی هوش مصنوعی کمتر بود. این نتایج بر نیاز به سازوکارهای اعتبارسنجی استوار به منظور حصول اطمینان از خروجی‌های هوش مصنوعی، تأکید دارند، چراکه این خروجی‌‌ها باید معتبر و برای تصمیم‌گیری، مناسب باشند. سازگاری با سامانه‌های فناوری اطلاعات، همچون سایر فناوری‌های دیجیتال، برای کاربردهای هوش مصنوعی مولد، ضرورتی حیاتی است.[96]

نمودار ۶: مسائل و اختلال‌های ناشی از استفاده از هوش مصنوعی مولد که کسب و کارها تجربه کرده‌اند

چه نوع ناکارآمدی یا مسئله‌ای را شنیده یا در خصوص کاربرد هوش مصنوعی در شرکت یا سازمان خود، تجربه کرده‌اید؟

19 fig 6.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

از میان ریسک‌های مرتبط با هوش مصنوعی مولد که کسب و کارها در پی خرید پوشش برای آنها هستند، ریسک‌های امنیت سایبری در بالاترین رتبه قرار دارند، به طوری‌که بیش از ۵۰ درصد از مشتریان کسب و کار، آن را معرفی نمودند (نمودار ۷). ریسک‌های مسئولیت، متوجه مشتریان و عرضه‌کنندگان و ریسک‌های عملیاتی عمومی نیز در رتبه بالا قرار گرفتند. ریسک‌های شهرت درعین‌حال که بسیار مرتبط هستند، کمترین اولویت را داشتند. این نتایج نشان می‌دهند که کسب و کارها، اساساً بر مسئولیت‌های مالی و حقوقی تمرکز دارند تا دغدغه درباره شهرت. همچنین، یافته‌ها بر اهمیت تدوین اقدامات قوی امنیتی به منظور کاهش ریسک‌های مرتبط با هوش مصنوعی مولد تأکید دارند. ریسک‌هایی که به کسب و کارها اجازه می‌دهند تا از هوش مصنوعی مولد با اطمینان کامل بهره‌برداری کنند[97].

نمودار ۷: ریسک‌های هوش مصنوعی مولدی که کسب و کارها خواهان حصول اطمینان از آنها هستند

چه ریسک‌های مرتبط با هوش مصنوعی مولدی را می‌خواهید بیمه شما، پوشش دهد؟

19 fig 7.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

۲.۳. تقاضا برای بیمه مرتبط با هوش مصنوعی مولد

بیش از ۹۰ درصد از پاسخ‌دهندگان اعلام کردند که بیمه ریسک‌های مرتبط با هوش مصنوعی مولد، برای آنها ارزش دارد. بیش از دو سوم از پاسخ‌دهندگان اظهار داشتند که آماده‌اند تا حداقل ۱۰ درصد بیشتر برای بیمه‌ای که ریسک‌های هوش مصنوعی مولد را پوشش می‌دهد، بپردازند (نمودار ۸)[98]. این امر، تأکید مضاعفی بر راهکارهای بیمه‌ای مبتنی بر هوش مصنوعی برای بخش کسب و کار است.

نمودار ۸: آمادگی برای پرداخت هزینه بیمه هوش مصنوعی مولد

تا چه میزان شما آماده‌اید تا برای پوشش مرتبط با هوش مصنوعی مولد بپردازید؟

19 fig 8.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

نمودار ۹، انواع مختلف محصولات بیمه‌ای را نشان می‌دهد که کسب‌وکارها برای مدیریت ریسک‌های مرتبط با هوش مصنوعی خود به دنبال آن‌ها هستند. بیشترین تقاضا برای راه‌کار‌هایی است که ریسک‌های مرتبط با هوش مصنوعی مولد را در پوشش‌های موجود بیمه سایبری گنجانده‌اند، که با این واقعیت هم‌خوانی دارد که امنیت سایبری به عنوان مهم‌ترین نگرانی درمیان صاحبان کسب و کارها است (به نمودار ۷ مراجعه نمایید). همچنین، بیش از ۴۰ درصد از پاسخ‌دهندگان امکان پوشش بیمه‌ای خاص و مستقل هوش مصنوعی را دور از ذهن نمی‌بینند.

نمودار ۹: محصولات بیمه موردپسند برای پوشش ریسک‌های هوش مصنوعی مولد

فکر می‌کنید چه نوع بیمه‌ای باید ریسک‌های مرتبط با هوش مصنوعی مولد را پوشش دهد؟

19 fig 9.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

به منظور فهم محرک‌های تقاضا برای بیمه هوش مصنوعی مولد، ما ارتباط بین ویژگی‌های کسب و کار را مورد بررسی قرار دادیم. تقاضا با استفاده از دو نشانه‌گر کلیدی، سنجیده می‌شود: اینکه آیا کسب‌وکارها معتقدند بیمه‌های موجود، ریسک‌های مرتبط با هوش مصنوعی مولد را پوشش می‌دهند و این‌که آیا تمایل به پرداخت هزینه اضافی برای پوشش ریسک‌های هوش مصنوعی مولد دارند[99].

همانطورکه در نمودار ۱۰ نشان داده شده است، تقاضا برای بیمه هوش مصنوعی مولد در شرکت‌های متوسط (با ۵۱–۲۵۰ نفر شاغل) و بزرگ (با ۲۵۱–۱۰۰۰ نفر شاغل) و بسیار بزرگ (با بیش از ۱۰۰۰ نفر شاغل) مشابه است و فراتر از تقاضا در شرکت‌های کوچک (کمتر از ۵۰ نفر شاغل) است. بیش از ۶۰ درصد از شرکت‌های متوسط تا بزرگ معتقدند که در حال حاضر برای ریسک‌های مرتبط با هوش مصنوعی مولد، بیمه شده‌اند. بیش از ۷۰ درصد از این شرکت‌ها حاضرند، حداقل ۱۰ درصد بیشتر از حق بیمه معمول برای پوشش ریسک‌های هوش مصنوعی مولد پرداخت کنند؛ درحالی‌که کمتر از ۴۰ درصد از شرکت‌های کوچک، تمایل به این کار دارند، که احتمالاً به دلیل حساسیت به هزینه و درک ریسک پایین‌تر است (نمودار ۱۱).

نمودار ۱۰: پوشش بیمه هوش مصنوعی مولد بر اساس اندازه کسب و کار

آیا هیچ‌یک از بیمه‌نامه‌های فعلی، ریسک‌های مرتبط با هوش مصنوعی مولد را پوشش می‌دهند؟

19 fig 10.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

نمودار ۱۱: آمادگی برای پرداخت بیمه هوش مصنوعی مولد بر اساس اندازه کسب و کار

تا چه میزان شما آماده‌اید برای پوشش رسیک‌های مرتبط با هوش مصنوعی مولد، هزینه کنید؟

19 fig 11.jpg

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

نمودار ۱۲، مقایسه‌ای بین بازارهای مختلف در زمینه پذیرش هوش مصنوعی مولد و تقاضا برای پوشش آن را نشان می‌دهد. ایالات متحده و چین در زمینه استفاده از کاربردهای هوش مصنوعی مولد در کسب‌وکارها، پیشرو هستند. این دو کشور همچنین تمایل بیشتری به بیمه انواع مختلف ریسک‌های هوش مصنوعی مولد دارند و نسبت به دیگر کشورهای مورد بررسی، آمادگی بیشتری برای پرداخت هزینه پوشش بیمه هوش مصنوعی مولد از خود نشان می‌دهند. در مقابل، ژاپن، آلمان و فرانسه تمایل کمتری دارند و انگلستان در جایگاهی میانه قرار دارد.

نرخ بالای پذیرش هوش مصنوعی مولد و تقاضا برای بیمه در چین و ایالات متحده نشان‌دهنده اثرگذاری قوی فناوری است، درحالی‌که ملاحظات نظارتی و عملیاتی ممکن است پذیرش و تقاضا برای بیمه در اروپا را کند کرده باشد. تمایل بالا برای پرداخت هزینه پوشش بیمه هوش مصنوعی مولد نیز حاکی از یک فرصت تجاری برای شرکت‌های بیمه است، به‌ویژه در بازارهایی که در آن‌ها این نوع هوش مصنوعی، ارزش خود را ثابت کرده باشد، مانند ایالات متحده و چین.

نمودار ۱۲: پذیرش و تقاضای بیمه هوش مصنوعی مولد در میان بازارها

استفاده و تقاضای بیمه هوش مصنوعی مولد

19 fig 12.jpg

یادداشت: این نمودار میله‌ای، مقایسه‌ای از پاسخ‌های متوسط نظرسنجی به پرسش‌های مربوط به استفاده از هوش مصنوعی مولد، انواع ریسک‌ها و تمایل به پرداخت هزینه برای بیمه هوش مصنوعی مولد در شش بازار مختلف را ارائه می‌دهد. برای هر پرسش، بازار دارای بالاترین میانگین ارزش، با شاخص ۱۰۰، در نظر گرفته شده است و سایر میلهها،‌ موقعیت نسبی بازارهای دیگر را نسبت به بالاترین امتیاز نشان می‌دهند.

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

تقاضای بخش فناوری برای بیمه هوش مصنوعی مولد، به‌مراتب بالاتر از سایر صنایع است، احتمالاً به این دلیل که هوش مصنوعی مولد در محصول بیمه گنجانده شده یا خود محصول است. تقاضا در بخش‌های مالی و تولیدی نیز قوی است (به نمودار ۱۳ مراجعه نمایید).

نمودار ۱۳: تقاضا برای پوشش بیمه هوش مصنوعی در صنایع مختلف

تقاضا برای پوشش بیمه هوش مصنوعی در صنایع مختلف

19 fig 13_6390570480556164680.jpg

یادداشت: این نمودار میله‌ای، مقایسه‌ای از پاسخ‌های متوسط نظرسنجی به پرسش‌های مربوط به استفاده از هوش مصنوعی مولد، انواع ریسک‌ها و تمایل به پرداخت هزینه برای بیمه هوش مصنوعی مولد در شش بازار مختلف را ارائه می‌دهد. برای هر پرسش، بازار دارای بالاترین میانگین ارزش، با شاخص ۱۰۰ در نظر گرفته شده است و سایر میلهها،‌ موقعیت نسبی بازارهای دیگر را نسبت به بالاترین امتیاز نشان می‌دهند.

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

کسب‌وکارهایی که بیشتر از هوش مصنوعی مولد استفاده می‌کنند یا با اختلال‌های شدید مرتبط با آن مواجه شده‌اند، تقاضای بیشتری برای بیمه از خود نشان می‌دهند (به نمودار ۱۴ مراجعه نمایید)[100].

نمودار ۱۴: تقاضا برای بیمه هوش مصنوعی بر اساس مواجهه با ریسک و اختلال‌های شدید

تقاضا برای پوشش بیمه هوش مصنوعی در صنایع مختلف

19 fig 14.jpg

یادداشت: این نمودار میله‌ای، مقایسه‌ای از پاسخ‌های متوسط نظرسنجی به پرسش‌های مربوط به استفاده از هوش مصنوعی مولد، انواع ریسک‌ها و تمایل به پرداخت هزینه برای بیمه هوش مصنوعی مولد در شش بازار مختلف را ارائه می‌دهد. برای هر پرسش، بازار دارای بالاترین میانگین ارزش، با شاخص ۱۰۰ در نظر گرفته شده است و سایر میلهها،‌ موقعیت نسبی بازارهای دیگر را نسبت به بالاترین امتیاز نشان می‌دهند.

منبع: نظرسنجی از مشتریان بیمه کسب و کار انجمن ژنو

در مجموع، تقاضا برای بیمه هوش مصنوعی مولد به‌ویژه در میان کسب‌وکارهای متوسط تا بزرگ، در ایالات متحده و چین و همچنین در بخش فناوری، بسیار قوی است. این تفکیک نیاز به تنظیم راهبرد‌های محصول و بازاریابی توسط شرکت‌های بیمه را نشان می‌دهد که به نوبه خود، مستلزم تحلیل دقیق قابلیت بیمه‌پذیری ریسک‌های مرتبط با هوش مصنوعی مولد است، موضوعی که در بخش بعدی به آن خواهیم پرداخت.

بخش سوم: عرضه بیمه مرتبط با هوش مصنوعی مولد

شرکت‌های بیمه باید با دقت، دامنه پوشش خود را ترسیم کنند تا اطمینان حاصل شود که ریسک‌ها به‌طور مناسبی تنظیم شده‌اند و در چارچوب ظرفیت پذیرش ریسک و اشتهای ریسک آن‌ها قرار دارند.

۱.۳. بیمه‌پذیریِ ریسک‌های مرتبط با هوش مصنوعی مولد

ارزیابی بیمه‌پذیری ریسک‌های هوش مصنوعی (مولد) از طریق چارچوب برلینر[101] شامل نه معیار است که مشخص می‌کنند، آیا یک ریسک قابل‌بیمه است یا خیر (به جدول ۲ مراجعه نمایید)[102]. درحالی‌که این دسته‌بندی بر مبنای مفاهیم پذیرفته‌شده در نظریه بیمه و تجربیات عملی استوار است، مهم است که به این نکته توجه کنیم که ارزیابی فوق، به‌طور ذاتی ذهنی و قابل‌تفسیر است[103].

جدول ۲، چالش‌ها و عدم‌قطعیت‌های مرتبط با بیمه ریسک‌های هوش مصنوعی مولد را نشان می‌دهد، هرچند که دسته‌بندی‌ها (مثلاً زرد در مقابل قرمز) ممکن است محل بحث باشند، چرا که مرزها اغلب به زمینه، شواهد جدید و دیدگاه‌های مختلف ذینفعان، بستگی دارند. بنابراین، هدف از این چارچوب و ارزیابی، ایجاد مبنایی برای بحث و تفکر است، نه ارائه یک قضاوت قطعی. از شرکت‌های بیمه خواسته می‌شود تا با دقت و دیدی نقادانه، به معیارها و دلایل ارائه‌شده، نظر کنند و دیدگاه خود را همراه با پیامدهای گسترده‌تر آن برای صنعت بیمه و مدیریت ریسک در نظر بگیرند. جعبه ۴، به مقایسه قابلیت بیمه‌پذیری هوش مصنوعی مولد و هوش مصنوعی سنتی می‌پردازد.

جدول ۲: بیمه‌پذیری ریسک‌های مرتبط با هوش مصنوعی مولد

سطح معیار

معیار

ارزیابی

معیارهای بیم‌سنجی

اتفاقی‌بودن زیان

هوش مصنوعی مولد، به منظور جلوگیری از ایجاد هزیان یا محتوای مضر، شرایط را پیچیده‌تر می‌کند و این امر باعث می‌شود در غیاب یک اعتبارسنجی سیستماتیک، ارزیابی اینکه آیا خطاها به‌طور تصادفی اتفاق می‌افتند یا خیر، دشوار شود.

 

بیشینه زیان ممکن

کدهای نادرست یا مخرب تولیدشده توسط هوش مصنوعی می‌توانند منجر به اختلالات جدی در خدمات شوند و خطرات سیستماتیک ایجاد کنند. مشکلات هوش مصنوعی مولد مانند گسترش اطلاعات نادرست، نقض حقوق مالکیت معنوی و کلاهبرداری‌های ناشی از محتوای ساختگی (دیپ‌فیک) در بخش‌های حساس (مانند درمان و مالی) نیز می‌تواند خسارات سنگینی به همراه داشته باشد، به‌ویژه زمانی که این مشکلات برای مدت طولانی ادامه یابند یا مشمول مجازات‌های قانونی شوند.

 

میزان متوسط زیان

آسیب‌های بالقوه بالای مالی و شهرت ناشی از حوادث هوش مصنوعی مولد مانند انتشار اطلاعات نادرست یا جریمه‌های قانونی.

 

تناوب زیان

ریسک‌های وابسته به شرایط با داده‌های محدود، برآورد فراوانی را دشوار می‌کنند و تنوع را محدود می‌سازند. در میان‌مدت، می‌توان انتظار فراوانی کافی را داشت.

 

عدم‌تقارن اطلاعات

طرف‌های بیمه‌شده ممکن است از یکپارچگی سیستم‌های هوش مصنوعی غافل شوند (خطر اخلاقی)، در حالی که سیستم‌های هوش مصنوعی پرخطر ممکن است به دنبال پوشش بیمه باشند (انتخاب مغایر). شرکت‌های بیمه ممکن است در تایید ریسک‌های هوش مصنوعی مولد و نحوه مدیریت آن‌ها توسط کسب‌وکارها دچار مشکل شوند.

معیارهای بازار

حق بیمه کافی

عدم‌قطعیت فزاینده در مورد فرآیندهای پایه‌ای هوش مصنوعی مولد و مسیر‌های مرتبط با ایجاد آسیب، ممکن است به بار اضافی در حق بیمه منجر شود و فشارهایی بر قابلیت پرداخت برای کسب‌وکارهای کوچک‌تر که به این فناوری‌ها وابسته‌اند، وارد کند.

 

حدود پوشش قابل‌پذیرش

شرکت‌های بیمه ممکن است به دلیل عدم‌قطعیت در خصوص مسئولیت‌های احتمالی (مانند سوءاستفاده گسترده از محتوا یا اشتباهات در تصمیمات تولید شده توسط هوش مصنوعی)، از ارائه محدودیت‌های بالای پوشش برای هوش مصنوعی مولد خودداری کنند.

معیارهای اجتماعی

سازگاری با سیاست‌های عمومی

هوش مصنوعی مولد، مسائل اخلاقی ایجاد می‌کند، مانند تولید محتوای مضر یا جانبدارانه، که ممکن است با هنجارهای اجتماعی در تضاد باشد و پذیرش محصولات بیمه‌ای خاص توسط سیاستگذاران را کاهش دهد.

 

مجوز حقوقی

تحولات در زمینه حق نشر، مالکیت معنوی، قوانین مسئولیت و مقررات هوش مصنوعی، تعریف ریسک‌های بیمه‌پذیر و ارزیابی آن‌ها را دشوار می‌سازد.

19 last part of table 2.jpg

 

 

 

منبع: انجمن ژنو

زیان‌های مرتبط با هوش مصنوعی باید به‌طور تصادفی با تناوب و شدت قابل‌شناختی رخ دهند تا پیش‌بینی‌پذیر باشند. با این حال، هوش مصنوعی، به دلیل تغییرات زمینه‌ای و پیچیدگی ذاتی خود می‌تواند نتایج پیش‌بینی‌نشده‌ای به همراه داشته باشد. این امر بدین معنی است که رویدادهای زیان‌بار مرتبط با هوش مصنوعی، به‌طور یکنواخت توزیع نمی‌شوند. علاوه بر این، مهارت‌ها و ابزارهای مورد نیاز برای اعتبارسنجی سامانه‌های هوش مصنوعی بر اساس سودمندی پیش‌بینی‌ آن‌ها در دسترس نیست. بنابراین، تحقق معیار تصادفی بودن، چالش‌برانگیز است. برای هوش مصنوعی مولد، این چالش حتی بزرگ‌تر است، زیرا خروجی‌های تولیدشده توسط این سامانه‌ها می‌تواند به پیامدهای پیش‌بینی‌نشده‌ای مانند نقض مالکیت معنوی یا گسترش اطلاعات نادرست منجر شود که اندازه‌گیری یا پیش‌بینی آن‌ها را دشوار می‌سازد. بنابراین، زیان‌های مرتبط با هوش مصنوعی مولد، لایه‌های جدیدی از عدم‌قطعیت را ایجاد می‌کنند.

جعبه ۴: بیمه‌پذیری هوش مصنوعی مولد و هوش مصنوعی سنتی

ارزیابی این دو فناوری بر اساس معیارهای بیمه‌پذیری برلینر نشان می‌دهد که میان هوش مصنوعی سنتی و هوش مصنوعی مولد تفاوت‌های معناداری وجود دارد. سامانه‌های هوش مصنوعی سنتی معمولاً برای انجام وظایف محدود و هدفمند، مانند تحلیل داده، پیش‌بینی یا طبقه‌بندی، طراحی می‌شوند. این کاربردها در چارچوب‌های مشخص، عمل می‌کنند و به داده‌های موجود متکی هستند؛ ازاین‌رو، ریسک‌های آن‌ها قابل پیش‌بینی‌تر، قابل اندازه‌گیری‌تر و از منظر حقوقی ساده‌تر، قابل مدیریت است. به همین دلیل، هوش مصنوعی سنتی تا حد زیادی با معیارهای اصلی بیمه‌پذیری، از جمله تصادفی بودن وقوع خسارت، قابل‌قبول بودن حداکثر خسارت محتمل، شفافیت حقوقی و پذیرش اجتماعی، همخوانی دارد. در نتیجه، فرایند ارزیابی و پذیرش ریسک در بیمه‌گری این نوع فناوری، پیچیدگی کمتری دارد و محرک‌های خسارت، مسئولیت‌ها و روش‌های برآورد زیان، از پشتوانه سوابق و رویه‌های نسبتاً مشخص، برخوردارند.

در مقابل، هوش مصنوعی مولد، لایه‌ای جدید از پیچیدگی ایجاد می‌نماید و این امر، بیمه‌پذیری آن را، به‌ویژه از منظر معیارهای بازار و جامعه، به‌طور عمده‌ای کاهش می‌دهد. این نوع هوش مصنوعی با تولید خروجی‌های بدیع و ساختارنایافته مانند متن، تصویر یا صدا، احتمال تولید محتوای زیان‌بار، جانبدارانه یا ناقض حقوق دیگران را افزایش می‌دهد.

این سطح از عدم‌قطعیت، اصل تصادفی بودن وقوع خسارت را با چالش مواجه می‌کند و ارزیابی ریسک را دشوارتر می‌سازد. هم‌زمان، به دلیل مسئولیت‌های حقوقی بالقوه در حوزه‌هایی مانند نقض حق نشر، انتشار اطلاعات نادرست یا افترا، حداکثر خسارت محتمل نیز افزایش می‌یابد. افزون بر این، ریسک‌های اخلاقی و اجتماعی هوش مصنوعی مولداز جمله آسیب به اعتبار و شهرت سازمان‌ها یا پیامدهای ناخواسته تبعیض‌آمیز، پذیرش حقوقی و اجتماعی آن را تضعیف می‌نماید و امکان بیمه‌پذیری آن را در چارچوب‌های موجود، کمتر می‌کند. معیارهای بازار نیز به همین نسبت تحت تأثیر قرار می‌گیرند؛ چراکه هزینه‌های بیمه‌گری ریسک‌های مرتبط با هوش مصنوعی مولد به دلیل عدم تقارن اطلاعات، فقدان داده‌های تاریخی خسارت و ابهام‌های حقوقی بالاتر است. این شرایط، دسترسی به محصولات بیمه‌ای و در عین حال، توان پرداخت آن‌ها را محدود می‌نماید و در نهایت، عرضه و تقاضا را در بازار بیمه کاهش می‌دهد.

در مجموع، اگرچه هوش مصنوعی سنتی همچنان در چارچوب برلینر تا حد زیادی بیمه‌پذیر تلقی می‌شود، اما نمایه ریسک متمایز هوش مصنوعی مولد، مستلزم طراحی الگوهای نوین انتقال ریسک، تقویت استانداردهای حاکمیتی و تدوین دستورالعمل‌های مقرراتی شفاف‌تر است تا بتوان بیمه‌پذیری آن را در آینده بهبود بخشید.

منبع: انجمن ژنو

 

میزان تناوب خسارت‌های مرتبط با هوش مصنوعی باید به حدی باشد که ارزیابی دقیقی از ریسک‌ها ممکن شود. با این حال، تازگی فناوری هوش مصنوعی و محدودیت در سوابق داده‌ها درباره حوادث مرتبط با آن، پیش‌بینی دقیق تناوب و شدت خسارت‌ها را با مشکل مواجه می‌کند. به‌طور کلی، وجود یک صندوق ریسک[104] بزرگ و همگن برای تنوع‌بخشی و کاهش خسارت‌های فردی ضروری است، اما کاربردهای متنوع هوش مصنوعی در صنایع مختلف، تشکیل چنین صندوق‌هایی را پیچیده می‌سازد، زیرا ریسک‌ها به‌شدت متغیر هستند. در بلندمدت، انتظار می‌رود، تناوب خسارت‌های هوش مصنوعی مولد به اندازه کافی افزایش یابد. به دلیل کمبود سوابق داده‌ها، مدل‌سازی مبتنی بر شبیه‌سازی به‌عنوان یک روش امیدوارکننده مطرح است که مقامات نظارتی نیز کاربرد آن را تشویق می‌کنند.

معیارهای بیمه‌پذیری ایجاب می‌کنند که عدم‌تقارن اطلاعات میان بیمه‌گر و بیمه‌گزار به حداقل برسد. سامانه‌های هوش مصنوعی اغلب شامل الگوریتم‌ها و داده‌های اختصاصی هستند که موجب ایجاد عدم‌تقارن چشمگیری می‌شود. این موضوع باعث ایجاد ریسک‌های خطر اخلاقی می‌شود، جایی که بیمه‌گزاران ممکن است از رعایت نکات ایمنی در سامانه‌های هوش مصنوعی غفلت کنند و انتخاب مغایر[105]، داشته باشند. در این شرایط، افراد با ریسک بالاتر به‌دنبال بیمه بیشتر، هستند. درحالی‌که بخش‌های پرتقاضا فرصت‌هایی ایجاد می‌کنند، بیمه‌گران باید چالش‌های انتخاب مغایر را به‌طور کامل در نظر بگیرند، زیرا کسب‌وکارهایی که در معرض ریسک‌های بالاتر هوش مصنوعی مولد قرار دارند و تجربه اختلال‌های جدی در این حوزه را دارند، احتمالاً بیشتر به‌دنبال خرید پوشش بیمه‌ای خواهند بود.

همچنین، بیمه‌گران با چالش‌هایی در خصوص بررسی تدابیر ایمنی که توسط توسعه‌دهندگان برای هوش مصنوعی مولد اعمال شده‌اند، مواجه هستند، به‌ویژه در مدل‌های منبع‌باز[106] که ممکن است توسط اشخاص ثالث تغییر داده شوند یا مورد سوء استفاده قرار گیرند. با توجه به توسعه پویا و مداوم چشم‌انداز ریسک‌های هوش مصنوعی مولد، بیمه‌گران ممکن است در تایید نحوه مدیریت این ریسک‌ها توسط کسب‌وکارها با مشکل مواجه شوند. به منظور کاهش عدم‌تقارن اطلاعاتی و مدیریت خطر اخلاقی، بیمه‌گران ممکن است از بیمه‌گزاران بخواهند پروتکل‌های نگهداری[107] و سازوکارهای شفافیت را به‌عنوان بخشی از شرایط قرارداد بیمه‌ای اجرا کنند (برای مثال: انجام ممیزی‌های اجباری مدل[108]، گواهی‌نامه‌های شخص ثالث، تعهدات گزارش‌دهی، محدودیت‌های استفاده). این ابزارها کمک می‌کنند تا اطمینان حاصل شود که سامانه‌های هوش مصنوعی به‌طور ایمن و مسئولانه، نگهداری می‌شوند، که در نتیجه، امکان قیمت‌گذاری دقیق‌تر و انتقال ریسک پایدارتر فراهم می‌آید.

جعبه ۵، دیدگاه‌های بازار ژاپن را درباره چالش‌های نوظهور بیمه‌گری ریسک‌های هوش مصنوعی مولد ارائه می‌دهد.

جعبه ۵: چالش‌های بیمه‌پذیری ریسک‌های هوش مصنوعی مولد : بینش‌هایی از ژاپن

  1. روش‌های ارزیابی ریسک نابالغ و نظام‌های صدور گواهی غیرتوسعه‌یافته

با توجه به سرعت بالای پیشرفت هوش مصنوعی مولد، تدابیر موجود برای کاهش ریسک ممکن است به سرعت منسوخ شوند و ریسک‌های جدیدی ظهور کنند. ضروری است بررسی شود آیا شرکت‌ها به طور مداوم راهبرد‌های مؤثری برای کاهش ریسک به کار می‌گیرند یا خیر. با این وجود، شاخص‌های استاندارد بلوغ حاکمیت هوش مصنوعی[109] مانند ایزو ۴۲۰۰۱[110]  همچنان در حال تکامل هستند و روش‌های ارزیابی استوار نیز همچنان یک چالش به شمار می‌روند. فقدان یک نظام مستقر صدور گواهی[111] برای هوش مصنوعی، روند ایجاد چارچوب‌های ارزیابی معتبر را پیچیده‌تر می‌سازد.

  1. پیچیدگی ناشی از الگو‌های یادگیری، پیشرفت سریع فناوری و دامنه وسیع کاربرد

الگو‌های هوش مصنوعی مولد از طریق یادگیری، تکامل می‌یابند، که باعث می‌شود زمان مناسب برای پذیرش ریسک، دشوار به نظر برسد. در خصوص مدل‌های زبانی بزرگ (LLMs)[112] که برای کاربردهای خاص استفاده می‌شوند، حتی زمانی‌که به کار گرفته می‌شوند، توانایی پاسخ‌دهی آنها به طیف وسیعی از درخواست‌ها، پیش‌بینی کلیه حوادث ممکن و اثرات بالقوه آن‌ها را به شدت دشوار می‌سازد. این امر، طراحی محصولات بیمه‌ای را بسیار پیچیده‌تر می‌نماید.

  1. داده‌های محدود حوادث

در کشورهای غیرغربی، ممکن است اطلاعات حادثه‌ای محدودی در دسترس باشد. علاوه بر این، ازآنجایی‌که هوش مصنوعی، عمدتاً درون شرکت‌ها قرار دارد، اطلاعات کمی برای کمک به ارزیابی ریسک وجود دارد. برخلاف ریسک‌های سایبری که اغلب می‌توانند بر اساس داده‌های عمومی موجود ارزیابی شوند، ارزیابی ریسک‌های مرتبط با هوش مصنوعی پیچیده‌تر است. در حالی که موارد خارجی ممکن است دیدگاه‌های کلی درباره ریسک‌ها ارائه دهند، تقاضا برای پوشش بیمه همچنان محدود است. در نتیجه، برخی شرکت‌ها ممکن است تصمیم بگیرند از کاربردهای پر ریسک هوش مصنوعی مولد اجتناب کنند، حتی اگر بیمه موجود باشد و ترجیح دهند اقدامات همتایان خود را مشاهده کنند. این امر به پیشرفت کُند در توسعه محصولات بیمه‌ای کمک کرده است.

  1. تفاوت ویژگی‌های ریسک در مقایسه با بیمه سایبری

بیمه سایبری عمدتاً به حملات خارجی و تدابیر امنیتی می‌پردازد و سنجه‌های ارزشیابی (مانند کارت امتیاز امنیتی[113]) نسبتاً مطلوبی مشخص شده‌اند. در مقابل، ریسک‌های مرتبط با هوش مصنوعی مولد شامل تهدیدات خارجی و مسائل داخلی مانند سوگیری و هذیان[114] (تولید اطلاعات اشتباه) هستند که از خود محصول، نشأت می‌گیرند. شناسایی و کنترل ریسک‌های مربوط به محصولات هوش مصنوعی به طور خاص، چالش‌برانگیز است، چراکه این محصولات به طور مداوم در حال تکامل و تغییر هستند. این امر تفاوت عمده‌ای با ریسک‌های سایبری دارد و منجر به عدم‌تقارن اطلاعاتی می‌شود که چالش‌هایی برای بیمه‌پذیری ایجاد می‌کند.

منبع: تومو آساکا، شرکت توکیو مرین[115]

 

لازم به ذکر است که تمامی چالش‌های اصلی بیمه‌پذیری (که در جدول ۲ با رنگ قرمز مشخص شده‌اند) ماهیتاً مبتنی بر محاسبات آماری و بیم‌سنجی هستند. کارشناسان بر این باورند که هوش مصنوعی مولد می‌تواند در ایجاد نمایه‌های ریسک[116]، سریع‌تر و دقیق‌تر کمک کند و به این ترتیب امکان قیمت‌گذاری دقیق‌تر، تصمیم‌گیری سریع‌تر در پذیرش بیمه و ارائه محصولات شخصی‌سازی‌شده را فراهم آورد که خود به کاهش این چالش‌ها، یاری می‌رساند. بهره‌برداری بالقوه از هوش مصنوعی مولد در مدل‌سازی ریسک و تعیین قیمت می‌تواند فراتر از بیمه ریسک‌های مربوط به خود هوش مصنوعی مولد، پیامدهای گسترده‌ای برای بیمه‌گزاران به همراه داشته باشد، (به جعبه ۶ مراجعه نمایید).

جعبه ۶: هوش مصنوعی مولد در مدل‌سازی ریسک – کاهش چالش‌های بیمه‌پذیری

بیمه‌گران نباید توان بالقوه و تحول‌آفرین هوش مصنوعی مولد را در مدل‌سازی ریسک، شبیه‌سازی سناریوها و پذیرش ریسک نادیده بگیرند. با تقویت توان بیمه‌گران در ایجاد سریع‌تر و دقیق‌تر نمایه‌های ریسک، هوش مصنوعی مولد امکان قیمت‌گذاری دقیق‌تر، تصمیم‌گیری سریع‌تر در ثبت و پذیرش بیمه و ارائه محصولات شخصی‌سازی‌شده (سفارشی) را فراهم می‌آورد. این پیشرفت‌ها شفافیت و شمول را افزایش می‌دهند، به‌ویژه برای مشتریانی که نمایه‌های غیراستاندارد دارند یا به‌طور سنتی از مدل‌های بیمه‌گری مرسوم، کمتر خدمات دریافت کرده‌اند.

در مرکز این تحول، توانایی هوش مصنوعی مولد در شبیه‌سازی ریسک‌های شدید و نوظهور، همچون بلایای ناشی از تغییرات اقلیمی یا حملات سایبری، قرار دارد که ممکن است مدل‌های محاسباتی سنتی از آن‌ها غافل بمانند. همچنین، فناوری مذکور به بیمه‌گران این امکان را می‌دهد که مجموعه‌ داده‌های مصنوعی[117] برای توسعه مدل‌، ایجاد کنند، که این امر وابستگی به اطلاعات شخصی حساس را کاهش می‌دهد. علاوه بر این، هوش مصنوعی مولد قادر است منابع داده غیرساختاریافته مانند سوابق پزشکی اسکن‌شده یا تصاویر هوایی از خسارات اموال را به بینش‌های عملی تبدیل کند که این موضوع، دقت و بستر تصمیمهای پذیرش ریسک را غنی‌تر می‌سازد.

بن‌سازه «اسکای»[118] شرکت آکمیا[119]، نمونه‌ای از این تحول است. در پاسخ به حوادث طوفان و تگرگ، آکمیا، ابزاری مبتنی بر هوش مصنوعی مولد توسعه داده است که از تصاویر هوایی و یادگیری ماشین برای ارزیابی خسارت به گلخانه‌ها، استفاده می‌کند. ظرف مدت ۴۸ ساعت، کارشناسان حوزه، گزارش‌های اولویت‌بندی‌شده دریافت می‌کنند تا در راستای هدایت تیم‌های اضطراری اقدام کنند. این امر به منظور بررسی چگونگی کمک هوش مصنوعی به بهبود واکنش‌پذیری، کارآیی عملیاتی و ارتباط با مشتریان است. همچنین، طراحی پودمانی[120] اسکای، امکان استفاده مقیاس‌پذیر آن را در سایر سناریوهای مرتبط با تغییرات اقلیمی و جغرافیاهای مختلف، فراهم می‌آورد.

از همه مهم‌تر، زمانی چنین ابزارهایی مؤثرترند که با نظارت انسانی ترکیب شوند. هوش مصنوعی مولد باید به‌عنوان مکمل تخصص‌ بیم‌سنجی عمل کند و نه جایگزین آن، تا در توسعه مدل‌ها تسریع و در عین حال، استفاده مسئولانه و دقیق آن، تضمین شود. بیمه‌گران در هنگام بررسی پذیرش هوش مصنوعی مولد باید در این زیرساخت‌های نامرئی، سرمایه‌گذاری کنند تا کارآیی داخلی را افزایش دهند و مزایای پایین‌دستی برای مشتریان به ارمغان بیاورند: قیمت‌گذاری منصفانه‌تر، پردازش سریع‌تر ادعاهای خسارت و پوشش بیمه‌ای جامع‌تر.

منبع: رنه ویسینگ[121]، شرکت آکمیا

 

عدم قطعیت معنادار و اثر گسترده ریسک‌های مرتبط با هوش مصنوعی مولد منجر به حق بیمه‌های بالا و حدود کمتر پوشش می‌شود، که ممکن است بیمه را برای بسیاری از کسب‌وکارها غیرقابل‌خرید کند. به‌ویژه، بنگاه‌های کوچک و متوسط (SMEs)[122] و کاربران کلیدی هوش مصنوعی، ممکن است حق بیمه‌های سنگین را مانعی بزرگ در برابر خرید پوشش بیمه‌ای ببینند. بیمه‌گزاران معمولاً انتظار دارند که حدود پوشش بیمه‌ای با میزان مواجهه با ریسک آن‌ها همخوانی کافی داشته باشد، اما بیمه‌گران ممکن است به‌منظور مدیریت ریسک خود، حدود پایین‌تری تعیین کنند که این موضوع می‌تواند منجر به ‌کم‌بیمه‌گی کسب‌وکارها، به‌ویژه آن‌هایی که به شدت به فناوری‌های هوش مصنوعی وابسته‌اند، شود.

 بیمه ریسک‌های مرتبط با هوش مصنوعی باید با ارزش‌های اجتماعی و سیاست‌های عمومی همسو باشد. ملاحظات اخلاقی، به‌ویژه مواردی مانند حریم خصوصی و تبعیض، نقش مهمی در تعیین استقبال از بیمه ریسک‌های هوش مصنوعی، ایفا می‌کنند.

پوشش بیمه‌ای باید با چارچوب‌های قانونی و نظارتی که همچنان در حال تدوین برای فناوری‌های هوش مصنوعی هستند، همخوانی داشته باشد. ابهامات حقوقی، چالش‌های اضافی برای بیمه‌گران در تعریف دامنه و شرایط پوشش ایجاد می‌کند و هوش مصنوعی مولد بر این پیچیدگی می‌افزاید.

به منظور اطمینان از هم‌سویی با ارزش‌های اجتماعی، بیمه‌گران ممکن است به‌طور عمدی استفاده‌های مضر از هوش مصنوعی مولد – مانند تهمت عمدی، تولید مفاد ساختگی (دیپ‌فیک)[123] یا سوءاستفاده از داده‌های مصنوعی (یعنی داده‌های مصنوعی که بدون تدابیر ایمنی می‌تواند منجر به سرقت هویت، تبعیض یا نقض حریم خصوصی شود) – را از پوشش بیمه‌ای مستثنی کنند[124]. این استثنائات که در بیمه‌های مسئولیت رایج است، مشروعیت پوشش را حفظ می‌نمایند، درحالی‌که همچنان از آسیب‌های ناشی از استفاده غیرعمد یا سهل‌انگارانه از هوش مصنوعی محافظت می‌کنند.

به‌طور کلی، ارزیابی ریسک‌های هوش مصنوعی مولد بر اساس معیارهای بیمه‌پذیری برلینر، پرده از چالش‌های متعددی برمی‌دارد. پیچیدگی سامانه‌های هوش مصنوعی و کمبود مهارت‌ها و ابزارهای لازم برای اعتبارسنجی آن‌ها بر اساس سود پیش‌بینی‌شده، ارزیابی و قیمت‌گذاری دقیق ریسک‌ها را دشوار می‌سازد[125]. هوش مصنوعی مولد با ریسک‌ها و معضلات اخلاقی خاص خود، شرایط پیچیده‌تری ایجاد می‌نماید. توان بالقوه خسارات سنگین ناشی از اختلال‌های هوش مصنوعی ممکن است از ظرفیت بازارهای بیمه سنتی فراتر رود و کمبود سوابق داده‌های مرتبط با حوادث هوش مصنوعی مولد، ارزیابی و قیمت‌گذاری مؤثر ریسک را با مشکل مواجه می‌کند. درحالی‌که بیمه ریسک‌های هوش مصنوعی مولد، امکان‌پذیر است، اما این امر نیازمند رویکردهایی نوآورانه‌ همچون محصولات بیمه‌ای اختصاصی[126]، مدل‌های پیشرفته ارزیابی ریسک و همکاری میان بیمه‌گران، توسعه‌دهندگان و نهادهای نظارتی است.

۲.۳. راهکارهای نوظهور بیمه

بازار محصولات بیمه‌ای مرتبط با هوش مصنوعی مولد، هنوز در مراحل ابتدایی خود قرار دارد، اما راهکارهایی در حال شکل‌گیری و توسعه هستند (به جدول ۳ مراجعه شود). برخی شرکت‌های بیمه، از جمله آکسا ایکس‌اِل[127] و مونیخ‌ری[128]، در حال اجرای طرح‌های آزمایشی یا گسترش پوشش‌های بیمه‌ای در حوزه امنیت سایبری و مسئولیت حرفه‌ای هستند تا ریسک‌هایی مانند آلودگی داده‌ها[129]، نقض حقوق مالکیت معنوی و خطاهای ناشی از سامانه‌های هوش مصنوعی را نیز پوشش دهند. برای نمونه، آکسا ایکس‌اِل، الحاقیه‌هایی به بیمه‌نامه‌های امنیت سایبری خود ارائه کرده است که ریسک‌های مرتبط با هوش مصنوعی مولد را در چارچوب طرح‌های ابتکاری و اختصاصی مشتریان در این حوزه تحت پوشش قرار می‌دهد. این الحاقیه، خسارت‌های مستقیم وارده به خود بیمه‌گزار و مسئولیت‌های او در قبال اشخاص ثالث را شامل می‌شود؛ از جمله مسموم‌سازی داده‌ها (یعنی دستکاری یا آلوده‌کردن داده‌های آموزشی مورد استفاده در توسعه مدل‌های یادگیری ماشین)، نقض حقوق بهره‌برداری (یعنی قصور غیرعمدی در اخذ مجوزهای لازم برای استفاده از اقلام یا داده‌های خاص) و نیز تخلفات مقرراتی (یعنی مسئولیت‌های ناشی از قانون هوش مصنوعی[130] اتحادیه اروپا)[131]. در ایالات متحده و چین نیز برخی بیمه‌گران، از جمله شرکت بیمه خلق چین (PICC)[132]، در حال آزمون بیمه‌نامه‌های مستقل ویژه هوش مصنوعی هستند که به‌طور مشخص ریسک‌هایی مانند نقض حقوق مالکیت فکری ناشی از محتوای تولیدشده توسط سامانه‌های هوش مصنوعی را پوشش می‌دهد.

در عین حال، بسیاری از شرکت‌های بیمه به دلیل ماهیت غیرقابل پیش‌بینی این ریسک‌ها، ابهام‌های حقوقی و کمبود داده‌های مربوط به خسارت‌ها، با چالش جدی در بیمه‌پذیر کردن آن‌ها مواجه‌ هستند. در حال حاضر، این شرکت‌ها محصولات بیمه‌ای اختصاصی برای هوش مصنوعی ارائه نمی‌کنند، اما تحولات این حوزه را با دقت دنبال می‌نمایند. آن‌ها فرصت‌ها و چالش‌های مرتبط با هوش مصنوعی مولد را به‌خوبی درک کرده‌اند و به‌طور فعال در حال بررسی و طراحی راهکارهای مناسب برای انتقال ریسک در آینده هستند.

جدول ۳: راهکارهای بالقوه بیمه برای ریسک‌های هوش مصنوعی مولد

نوع پوشش

شرح

بیمه سایبری

پوشش زیان‌های ناشی از آسیب‌پذیری گسترده‌تر سامانه‌های فناوری اطلاعات به واسطه استفاده بیشتر کسب و کارها و مهاجمین از ابزارهای هوش مصنوعی مولد از جمله نقض داده‌ها، هک یا دستکاری در مدل.

بیمه مسئولیت حرفه‌ای (E&O)

حفاظت در برابر دعاوی ناشی از اشتباهات در خروجی‌های هوش مصنوعی مولد، مانند تولید اطلاعات گمراه‌کننده یا مضر.

بیمه مسئولیت مدیران و کارکنان (D&O)

حفاظت از مدیران و کارکنان اجرایی در برابر اقدامات قانونی ناشی از تصمیمات یا ناکارآمدی در نظارت بر هوش مصنوعی مولد.

مالکیت معنوی

حفاظت در برابر دعاوی مرتبط با استفاده از مفاد دارای حق نشر یا ثبت‌اختراع‌شده توسط هوش مصنوعی مولد بدون مجوز.

مسئولیت محصول

پوشش دعاوی ناشی از آسیب‌های ایجادشده توسط خروجی‌های هوش مصنوعی مولد (مانند اطلاعات نادرست، محتوای تبعیض‌آمیز) یا عدم عملکرد مطابق انتظارات.

بیمه مستقل و اختصاصی هوش مصنوعی

پوشش جامع و مستقل که چندین ریسک خاص هوش مصنوعی مولد را در یک بیمه‌نامه واحد، تجمیع می‌کند.

تجربه‌های پیشین در مواجهه با سایر ریسک‌های نوظهور مانند مسئولیت‌های زیست‌محیطی[133]، ریسک‌های عملیاتی[134]، ریسک‌های سایبری[135] یا ریسک‌های اعتباری و شهرت[136] که در نهایت به طراحی راهکارهای بیمه‌ای اختصاصی و متناسب انجامیدند، می‌تواند به‌عنوان یک الگوی راهنما مورد استفاده قرار گیرد.

بیمه‌های سایبری می‌توانند به‌طور روشن ریسک‌های مرتبط با هوش مصنوعی مولد را پوشش دهند؛ از جمله کلاهبرداری‌های مبتنی بر محتوای جعلی تولیدشده توسط هوش مصنوعی، مسئولیت‌های ناشی از انتشار اطلاعات نادرست به‌صورت خودکار و ریسک «هذیان» سامانه‌ها، یعنی تولید خروجی‌های نادرست اما ظاهراً معتبر که می‌تواند به زیان‌های تجاری منجر شود. ازآنجاکه سامانه‌های هوش مصنوعی مولد معمولاً حجم بسیار بالایی از داده‌های حساس را پردازش می‌کنند، به طور خاص، در معرض ریسک‌های سایبری قرار دارند؛ از جمله حملاتی که با دستکاری مدل‌ها، صحت و یکپارچگی خروجی‌ها را مخدوش می‌کند[137].

بیمه مسئولیت حرفه‌ای[138]، که با عنوان بیمه خطا و قصور (E&O)[139] نیز شناخته می‌شود، از کسب‌وکارها در برابر دعاوی ناشی از خطاها یا کوتاهی‌ها در ارائه خدمات، محافظت می‌کند. برای شرکت‌هایی که از هوش مصنوعی مولد جهت تولید خروجی‌هایی در تعامل مستقیم با مشتریان استفاده می‌کنند، این پوشش از اهمیت بالایی برخوردار است، زیرا می‌تواند پیامدهای ناشی از تولید محتوای جانبدارانه، گمراه‌کننده یا زیان‌بار را که بر مشتریان یا کاربران اثر می‌گذارد، جبران کند.

بیمه مسئولیت مدیران و کارکنان (D&O) به‌منظور محافظت از راهبران شرکت‌ها در برابر زیان‌های شخصی ناشی از دعاوی حقوقی مرتبط با تصمیمات آن‌ها، طراحی شده است. در زمینه هوش مصنوعی، این پوشش می‌تواند دعاوی مربوط به پذیرش و نظارت بر فناوری‌های هوش مصنوعی را در بر گیرد، از جمله جنجال‌ها پیرامون استفاده از داده‌ها، سوگیری‌های الگوریتمی یا پیامدهای غیرمترقبه ناشی از به‌کارگیری سامانه‌های هوش مصنوعی.

بیمه مالکیت معنوی، از کسب‌وکارها در برابر دعاوی ناشی از نقض حق اختراع، علامت تجاری یا حقوق نشر، محافظت می‌کند. از آنجا که سامانه‌های هوش مصنوعی مولد اغلب محتوا تولید می‌کنند یا از داده‌های اشخاص ثالث استفاده می‌نمایند، این پوشش برای انتقال ریسک‌های احتمالی نقض حقوق، مانند استفاده غیرمجاز از محتوای دارای حق نشر در خروجی‌های تولیدشده، اهمیت ویژه‌ای دارد. علاوه بر این، بیمه مسئولیت محصول، دعاوی مربوط به نقص در کالاها یا خدمات ارائه‌شده توسط یک کسب‌وکار را پوشش می‌دهد. برای توسعه‌دهندگان هوش مصنوعی، این بیمه می‌تواند مواردی را در بر گیرد که محصولات هوش مصنوعی مولد، خروجی‌های نادرست یا زیان‌بار تولید کنند، مانند تشخیص‌های پزشکی اشتباه یا توصیه‌های مالی نادرست، که منجر به خسارت یا عدم عملکرد مطابق انتظار می‌شود.

با این حال، در پوشش‌های بیمه‌ای موجود، خلأهای عمده‌ای در مواجهه با ریسک‌های مرتبط با هوش مصنوعی، به‌ویژه هوش مصنوعی مولد، وجود دارد (جدول ۴)[140]. بسیاری از بیمه‌نامه‌های کنونی، مانند بیمه‌های سایبری یا مسئولیت حرفه‌ای، به تدریج ریسک‌های مرتبط با هوش مصنوعی مولد را از شمول پوشش خارج می‌کنند.

جدول ۴: تحلیل شکاف‌های پوششی بیمه هوش مصنوعی

19 table 4-1.jpg

19 table 4-2.jpg

منبع: برگرفته از ای.او.ان[141]

با وجود ارائه برخی راهکارهای نوآورانه و اختصاصی در حوزه بیمه هوش مصنوعی (به جعبه ۷ مراجعه نمایید)، هنوز در این مرحله مشخص نیست که بیمه‌های مستقل هوش مصنوعی به یک محصول رایج و متداول تبدیل شوند[142]. چنین بیمه‌نامه‌هایی می‌توانند ریسک‌های ویژه مرتبط با هوش مصنوعی مانند خطاهای الگوریتمی، خروجی‌های جانبدارانه، اختلافات مسئولیتی و تخلفات مقرراتی را در قالب یک محصول یکپارچه و اختصاصی پوشش دهند. با توجه به دامنه گسترده ریسک‌های هوش مصنوعی مولد، کسب‌وکارها می‌توانند از پوشش جامع و با امکان ‌سفارشی‌سازی، بهره‌مند شوند. این محصولات مستقل می‌توانند به‌عنوان ابزارهای کامل مدیریت ریسک عمل کنند و درعین‌حال، ریسک‌های فعلی و ریسک‌های نوظهور را دربرگیرند، از جمله اختلافات مالکیت معنوی، حوادث سایبری و الزامات مقرراتی در حال تغییر. ساختارهای قابل سفارشی‌سازی بیمه‌نامه، به شرکت‌ها این امکان را می‌دهد که پوشش خود را بر کاربردهای پرریسک، مانند هوش مصنوعی در حوزه سلامت، خدمات مالی یا سامانه‌های تصمیم‌گیری خودکار، متمرکز کنند. یک بیمه‌نامه هوش مصنوعی طراحی‌شده، به‌خوبی می‌تواند به کسب‌وکارها کمک کند تا مسئولیت‌های قابل پیش‌بینی و عدم‌قطعیت‌های دشوار برای سنجش را که ذاتاً در توسعه و بهره‌برداری پیشرفته از هوش مصنوعی تعبیه شده است، منتقل و مدیریت کنند.

جعبه ۷: پوشش بیمه مستقل هوش مصنوعی و هوش مصنوعی مولد

شرکت بیمه «مونیخ‌ری» از طریق راهکار «ای.آی‌شور»[143] پوششی ارائه می‌دهد که ارائه‌دهندگان هوش مصنوعی و کاربران سازمانی را شامل می‌شود. در این روش، کارشناسان بررسی‌های دقیق انجام می‌دهند و قیمت‌گذاری بر اساس نرخ خطای مدل‌های هوش مصنوعی، تعیین می‌شود. راهکارهای خسارت مستقیم[144]، پوششی برای زیان‌های مالی ناشی از اختلال‌های هوش مصنوعی ارائه می‌کنند و برای فعال شدن آن نیازی به طرح دعوی حقوقی نیست؛ سازوکار فعال‌سازی این نوع پوشش مشابه سازوکار‌های پارامتریک مالی، طراحی شده است[145].

شرکت «آرمیلا ای.آی»[146]، که یک شرکت مدیریت ریسک بازار است و توسط اتحادیه‌های بیمه‌ای و شرکت‌های سرمایه‌گذاری پشتیبانی می‌شود، بیمه مستقل هوش مصنوعی را راه‌اندازی کرده است که هزینه‌های قانونی، خسارت‌ها و مسئولیت‌های ناشی از عملکرد ضعیف مدل‌های هوش مصنوعی و مدل‌های زبانی بزرگ را به‌طور صریح پوشش می‌دهد؛ از جمله خطاها، تولید محتوای نادرست، اشتباهات و تخلفات مقرراتی[147].

«شرکت بیمه خلق چین» نیز در حال آزمایش بیمه مستقل و اختصاصی هوش مصنوعی مولد است. در صورتی که به دلیل سهل‌انگاری یا خطا، محتوای تولیدشده توسط خدمات هوش مصنوعی مولد بیمه‌شده، بر اساس ورودی‌های کاربران، حقوق نشر، حقوق تصویر یا شهرت شخص ثالث را نقض کند و یک شکایت رسمی در طول دوره بیمه نزد مرجع معتبر، دادگاه یا مرکز حل اختلاف یا داوری ثبت شود، بیمه‌گر مسئولیت‌ها و هزینه‌های قانونی مرتبط را پوشش خواهد داد[148].

نمونه‌ دیگر شرکت «واوچ»[149] در ایالات متحده است که بیمه‌ای برای پوشش مسئولیت مرتبط با محصولات هوش مصنوعی ارائه می‌دهد[150]؛ پوشش مسئولیت هوش مصنوعی شرکت «رلم»[151] نیز برای کسب‌وکارهایی است که فناوری هوش مصنوعی ایجاد و به‌کار می‌گیرند[152]. همچنین، پوشش مسئولیت شرکت «ای.آی شلتر»[153] به‌صورت اختصاصی برای استفاده کسب‌وکارها و افراد از فناوری‌های هوش مصنوعی، طراحی شده است[154].

منبع: جیزز گونزالز[155]، مرکز راهکارهای ریسک بازرگانی ای.او.ان[156] و انجمن ژنو

 

استقبال از بیمه مستقل هوش مصنوعی، مسیری مشابه با بیمه سایبری خواهد داشت، جایی‌که ریسک‌های جدید از ساختارهای سنتی محصولات فراتر رفتند و توسعه پوشش‌های مستقل سایبری را به‌وجود آوردند. انتظار می‌رود این نوع بیمه هوش مصنوعی، پوششی جامع برای کسب‌وکارهایی فراهم آورد که هوش مصنوعی را ایجاد یا در عملیات خود به‌کار می‌گیرند و نیز برای آن‌هایی که هوش مصنوعی را به‌طور جانبی استفاده می‌کنند.

پیش‌بینی شرکت «دِلویت»[157] در ایالات متحده نشان می‌دهد که بازار بیمه هوش مصنوعی، شامل بیمه‌های مستقل و الحاقیه‌ها، تا سال ۲۰۳۲ می‌تواند به حدود ۴.۷ میلیارد دلار در سطح جهانی برسد[158]. با این حال، ممکن است سال‌ها طول بکشد تا مشخص شود که ریسک‌های هوش مصنوعی مولد توسط محصولات مستقل، بیمه می‌شوند ویا بخشی از بیمه سایبری خواهند بود یا در قالب محصولات موجود در رشته‌های اموال و مسئولیت، جای می‌گیرند.

در مجموع، بیمه ریسک‌های مرتبط با هوش مصنوعی مولد با چالش‌های متعددی همراه است. برای مواجهه با این چالش‌ها، صنعت بیمه باید نوآوری کند، حتی اگر ساختار مطلوبِ راهکارها برای ریسک‌های هوش مصنوعی مولد، به‌ویژه بیمه‌نامه‌های اختصاصی، هنوز نامشخص باشد. همچنین، بیمه‌گران باید با سایر ذی‌نفعان، از جمله ناظران و سیاست‌گذاران، در مورد راهکارهای رفع موانع بیمه‌پذیری همکاری داشته باشند.

با اینکه بیمه می‌تواند در مدیریت ریسک‌های هوش مصنوعی مولد نقش داشته باشد، راهبرد‌های مؤثر باید با شناسایی ویژگی‌های خاص این ریسک‌ها مانند خروجی‌های جانبدارانه یا گمراه‌کننده، مشکلات کیفیت داده‌ها، آسیب‌پذیری‌های سایبری و نقص‌های یکپارچگی سیستم، آغاز شود و نباید صرفاً انتقال ریسک[159] از طریق بیمه به‌عنوان راه‌حل پیش‌فرض، در نظر گرفته شود. رویکرد متوازن، ترکیبی از اجتناب، کاهش، حفظ[160] و انتقال ریسک را شامل می‌شود و بیمه تنها یکی از اجزای این مجموعه از ابزارهای گسترده است. اتکای بیش از حد به بیمه به‌تنهایی، ممکن است مانع از اتخاذ اقدامات حفاظتی حیاتی مانند شناسایی و اصلاح سوگیری‌ها، اعتبارسنجی دقیق خروجی‌های مدل، حاکمیت قوی داده‌ها و طراحی امن سیستم‌ها شود.

اقدامات پیشگیرانه از این دست نه تنها احتمال و شدت خطاهای هوش مصنوعی مولد را کاهش می‌دهند، بلکه ریسک‌های باقیمانده را نیز بیمه‌پذیرتر می‌کنند. با ادغام اجتناب و کاهش ریسک با انتقال آن، کسب‌وکارها و بیمه‌گران می‌توانند مباحث بیمه‌پذیری را بر اساس راهکارهای عملی پایه‌گذاری کنند که تاب‌آوری و اعتماد به استفاده از هوش مصنوعی مولد را تقویت می‌کند.

بخش ۴: نتیجه‌گیری، چشم‌انداز و پیشنهادات

گزارش حاضر، بینش تازه‌ای درخصوص نحوه استفاده مشتریان بیمه تجاری از هوش مصنوعی مولد، ادراک آن‌ها نسبت به ریسک‌های مرتبط و میزان تقاضای آن‌ها برای پوشش بیمه‌ای ویژه هوش مصنوعی مولد، ارائه می‌دهد. استفاده گسترده از هوش مصنوعی مولد در کسب‌وکارها با ریسک‌های نوظهور و فزاینده‌ای همراه است، از جمله نقض امنیت داده‌ها، مسئولیت در برابر اشخاص ثالث، تخلفات مربوط به حریم خصوصی و مسائل مرتبط با مالکیت معنوی.

نتایج نظرسنجی از مشتریان بیمه تجاری در شش بازار بزرگ بیمه جهان نشان می‌دهد که تقریباً تمامی آن‌ها به نوعی، از هوش مصنوعی مولد استفاده می‌کنند و آن را تا حدی ارزشمند می‌دانند، اما بسیاری نیز با چالش‌ها و ریسک‌های عمده‌ای مواجه‌اند، از جمله دغدغه‌های سایبری یا خروجی‌های نادرست و گمراه‌کننده تولیدشده توسط هوش مصنوعی.

نتایج این نظرسنجی حاکی از تقاضای قوی برای بیمه است. بیش از ۹۰ درصد کسب‌وکارها اعلام کردند به پوشش بیمه‌ای برای زیان‌های مرتبط با هوش مصنوعی مولد نیاز دارند و بیش از دو سوم آن‌ها حاضرند برای دریافت این پوشش، حق بیمه بیشتری پرداخت کنند. تهدیدهای امنیت سایبری و مسئولیت در برابر مشتریان یا تأمین‌کنندگان، به‌عنوان اصلی‌ترین نگرانی‌های کسب‌وکارها در جست‌وجوی پوشش بیمه‌ای هوش مصنوعی مولد مطرح شده‌اند.

از منظر عرضه، هوش مصنوعی مولد، چالش‌های جدی برای مدل‌های سنتی بیمه ایجاد می‌کند. پیچیدگی سامانه‌های هوش مصنوعی و ضرورت اعتبارسنجی آن‌ها بر اساس مزیت پیش‌بینی، همراه با احتمال انتشار اطلاعات نادرست، نقض حق نشر یا کلاهبرداری‌های مبتنی بر هوش مصنوعی، باعث می‌شود که پیش‌بینی، تنوع‌بخشی یا محدودسازی زیان‌ها دشوار باشد. با این حال، اگرچه ریسک‌های هوش مصنوعی مولد بسیاری از معیارهای سنتی بیمه‌پذیری را به چالش می‌کشند، این ریسک‌ها می‌توانند به‌تدریج از طریق طراحی نوآورانه فرآیند صدور بیمه، مدل‌های پیشرفته ارزیابی ریسک و همکاری نزدیک با ذی‌نفعان فناوری و ناظرین مقرراتی بیمه‌پذیر شوند.

شرکت‌های بیمه در حال گسترش محصولات موجود و توسعه محصولات جدید برای پوشش این ریسک‌ها هستند. رشته‌های بیمه سنتی مانند مسئولیت سایبری و مسئولیت حرفه‌ای، در حال توسعه هستند تا ریسک‌های ویژه هوش مصنوعی را نیز در بر گیرند (برای مثال، حملات سایبری مبتنی بر تصاویر جعلی یا خروجی‌های نادرست تولیدشده توسط هوش مصنوعی) و بیمه‌نامه‌های مستقل و تخصصی هوش مصنوعی نیز در حال شکل‌گیری هستند که چندین پوشش مرتبط با هوش مصنوعی مولد را در قالب یک قرارداد واحد ارائه می‌کنند. چنین محصولات اختصاصی مسئولیت هوش مصنوعی، از زیان‌های ناشی از خطاهای الگوریتمی، خروجی‌های تبعیض‌آمیز و جانبدارانه، یا کوتاهی در مسئولیت و پاسخگویی محافظت می‌کنند.

فناوری‌های نوآورانه مانند برق، اینترنت و تلفن همراه نیز مسیر نامعلومی برای بیمه‌پذیری داشتند و پوشش آن‌ها تنها زمانی شکل گرفت که ریسک‌ها واضح‌تر شدند. هوش مصنوعی مولد در موقعیتی مشابه قرار دارد: شکل غالب بیمه آن هنوز مشخص نیست. تجربه‌های گذشته نشان می‌دهند که بیمه هوش مصنوعی مولد می‌تواند مسیری مشابه بیمه‌های سایبری اولیه داشته باشد: شروعی محتاطانه و سپس گسترش با افزایش شناخت و اعتماد. ما به شرکت‌های بیمه توصیه می‌کنیم که فعالانه به پوشش ریسک‌های هوش مصنوعی مولد بپردازند و با شبیه‌سازی سناریوها و اجرای آزمایشی محصولات آغاز کنند، به جای آنکه منتظر داده‌های کامل باشند.

در آینده، با تکامل فناوری هوش مصنوعی مولد و گسترش کاربردهای آن، انتظار می‌رود دامنه ریسک‌های بیمه‌پذیر نیز افزایش یابد. این امر از طریق استفاده گسترده‌تر و عمیق‌تر از هوش مصنوعی مولد در فرآیندهای کسب‌وکار در صنایع مختلف و نیز یادگیری تدریجی بیمه‌گران درباره توزیع احتمالات ریسک‌های هوش مصنوعی و انباشتن دانش و تخصص لازم برای بیمه آن‌ها محقق خواهد شد. همزمان، پیشرفت‌های مستمر در هوش مصنوعی مولد که دقت و ایمنی آن را بهبود می‌بخشد، ممکن است به تدریج برخی خطرات را کاهش دهد و به‌طور تدریجی نیاز به بیمه را در طول زمان، کمتر کند.

جعبه ۸: بیمه فناوری‌های نوظهور: درس‌های تاریخی برای هوش مصنوعی مولد

در طول تاریخ، فناوری‌های نوآورانه همواره فاصله‌ای میان ریسک‌های تازه و راهکارهای بیمه‌ای موجود ایجاد کرده‌اند. نوآوری‌هایی مانند برق، اینترنت، تلفن همراه، زنجیره بلوکی[161] و حتی شکل‌های اولیه هوش مصنوعی، در ابتدا شرکت‌های بیمه را در تعریف و صدور بیمه برای ریسک‌های آنها، دچار چالش می‌کرد. پوشش اختصاصی اغلب وجود نداشت یا با تأخیر شکل می‌گرفت، عمدتاً به دلیل مرزهای نامشخص ریسک و کمبود داده‌های معتبر خسارت. برای مثال، سال‌ها پس از ظهور اینترنت، طول کشید تا بیمه سایبری رواج پیدا کند؛ نخستین بیمه‌نامه‌های سایبری در اواخر دهه ۱۹۹۰ تنها پوشش‌های محدود ارائه می‌کردند (متمرکز بر محتوای آنلاین یا نرم‌افزار) و سقف تعهد بسیار پایینی داشتند، زیرا بیمه‌گران در قلمرو ناشناخته‌ای حرکت می‌کردند. تنها زمانی که این فناوری‌ها به بلوغ رسیدند و بیمه‌گران تجربه کافی کسب کردند، پوشش‌ها تکامل یافتند؛ چه از طریق بیمه‌نامه‌های جدید و تخصصی (مانند بیمه سایبری مستقل) و چه با ادغام تدریجی ریسک‌ها در خطوط بیمه موجود.

هوش مصنوعی مولد به نظر می‌رسد مسیر مشابهی در مراحل اولیه خود طی می‌کند. ممکن است هوش مصنوعی مولد مستلزم یک محصول بیمه اختصاصی باشد، اگر ریسک‌هایی مانند مسئولیت تصمیم‌گیری خودکار یا انحراف مدل، تحت چارچوب‌های موجود بیمه‌پذیر نباشند. از سوی دیگر، اگر ریسک‌های هوش مصنوعی مولد در نهایت بتوانند در پوشش‌های استاندارد سایبری، مسئولیت یا بیمه حرفه‌ای جای گیرند، بیمه‌گران می‌توانند از تجربه تاریخی برای تسریع در این ادغام، استفاده کنند.

نگاه تاریخی به بیمه‌گران یادآوری می‌کند که ابهام فعلی پیرامون هوش مصنوعی مولد، پدیده‌ای بی‌سابقه نیست و مسیرِ پیش‌رو احتمالاً شامل تکامل مشابه از ارائه‌های محدود و محتاطانه به راهکارهای جامع و یکپارچه خواهد بود. برای جلوگیری از عقب ماندن از نوآوری، بیمه‌گران باید به‌صورت فعال مرزهای ریسک هوش مصنوعی مولد را تعریف نمایند و پیش از آنکه رخدادهای خسارت‌زا پاسخ‌های واکنشی را تحمیل کنند، آزمایش پوشش‌های پودمانی[162] و الحاقیه‌های تدریجی را آغاز کنند. صنعت بیمه نمی‌تواند منتظر داده‌های کامل بماند؛ بلکه باید محصولات انعطاف‌پذیر و پودمانی بسازد که با عمیق‌تر شدن درک ریسک‌ها، تکامل یابند.

منبع: پاول لوید، گروه ای.آی.آی[163]

 

همچنین، تحلیل تحقیق حاضر، تفاوت‌های عمده جغرافیایی را نشان می‌دهد. در حال حاضر، چین و ایالات متحده، پیشتاز در استفاده از هوش مصنوعی مولد هستند و تمایل بیشتری برای پرداخت حق بیمه مرتبط با هوش مصنوعی نشان می‌دهند، در حالی که بازارهایی مانند آلمان، فرانسه و ژاپن با سرعت کمتری به پذیرش هوش مصنوعی مولد پرداخته و تقاضای کمتری از خود نشان می‌دهند.

بیمه، تنها بخشی از مدیریت ریسک‌های هوش مصنوعی مولد است. راهبرد‌های مؤثر باید با ارزیابی ریسک‌هایی مانند خروجی‌های جانبدارانه، آسیب‌پذیری‌های سایبری و نقص‌های یکپارچگی سیستم، آغاز شود و سپس ترکیبی از تکنیک‌های اجتناب، کاهش، حفظ و انتقال ریسک به‌کار گرفته شود. اقدامات حفاظتی مانند شناسایی سوگیری، اعتبارسنجی خروجی‌ها و حاکمیت امن داده‌ها، فراوانی و شدت خطاها را کاهش می‌دهند و ریسک‌های باقیمانده را بیمه‌پذیرتر می‌کنند. ترکیب این اقدامات پیشگیرانه با بیمه، تاب‌آوری قوی‌تر و پایه‌ای متوازن‌تری برای بیمه‌پذیری ریسک‌های هوش مصنوعی مولد، ایجاد می‌کند.

بر اساس این یافته‌ها، به شرکت‌های بیمه موجود توصیه می‌شود موضعی فعال در برابر هوش مصنوعی مولد اتخاذ کنند. نگارندگان گزارش پژوهشی حاضر، پیشنهاد می‌کنند، بیمه‌گران به‌طور فعال محصولات جدید توسعه دهند و محصولات موجود را برای پوشش ریسک‌های هوش مصنوعی مولد بهبود بخشند، به‌عنوان مثال با گسترش پوشش مسئولیت انتشار اطلاعات نادرست، اختلافات مالکیت معنوی یا اختلال‌های عملیاتی ناشی از هوش مصنوعی و فرآیند صدور بیمه را با افزایش استفاده از هوش مصنوعی به‌طور مستمر تطبیق دهند. با این کار، بیمه‌گران نه تنها از مشتریان تجاری خود محافظت می‌کنند، بلکه می‌توانند جریان‌های درآمدی جدید ایجاد نمایند و نقش خود را در جذب ریسک‌های فناوری نوظهور تقویت کنند. همچنین، بیمه‌گران باید با توسعه‌دهندگان فناوری، شرکت‌های بیمه‌شده و ناظران همکاری نمایند تا استانداردهای مشترک برای مدیریت ریسک و پاسخگویی در حوزه هوش مصنوعی ایجاد و اطمینان حاصل شود که ریسک‌های متغیر هوش مصنوعی مولد، به‌صورت شفاف و مؤثر تحت پوشش قرار می‌گیرند.

در نهایت، تحلیل پژوهش حاضر، بر اساس نظرسنجی از ۶۰۰ مشتری تجاری در شش بازار منتخب، تصویری از پذیرش هوش مصنوعی مولد و ادراک ریسک‌ها تا اوایل سال ۲۰۲۵ ارائه می‌دهد. تحقیقات آینده می‌تواند بررسی کند که این پویایی‌ها، چگونه با تکامل فناوری تغییر می‌کنند. ارزیابی بیمه‌پذیری در این مرحله به‌صورت مفهومی است، زیرا استانداردهای حقوقی و فنی هوش مصنوعی مولد هنوز در حال تغییر هستند. همچنین، این گزارش صرفاً بر ریسک‌های ناشی از هوش مصنوعی مولد برای کسب‌وکارهای تجاری تمرکز دارد؛ با این حال، هوش مصنوعی مولد می‌تواند ریسک‌های اجتماعی نیز ایجاد کند، مانند تولید محتوای جعلی مرتبط با انتخابات یا کاهش اعتماد عمومی، که نیازمند بررسی جداگانه است.

تحقیقات آتی باید روند توسعه هوش مصنوعی مولد را در طول زمان رصد کنند، با تمرکز ویژه بر تمایز میان کاربردها و ریسک‌هایی که به‌سرعت در حال بلوغ هستند و آن‌هایی که هنوز نوظهور و نامشخص باقی مانده‌اند. چنین رصدی برای تطبیق محصولات بیمه‌ای، مدل‌های قیمت‌گذاری و رویکردهای نظارتی با چشم‌اندازِ بسیار متغیر هوش مصنوعی، اهمیت حیاتی خواهد داشت.

در حوزه ریسک‌های هوش مصنوعی مولد، دانسته‌های ما بسیار کمتر از آن چیزی است که نمی‌دانیم. آنچه می‌دانیم این است که هوش مصنوعی مولد ریسک‌هایی را ایجاد خواهد کرد، اما مشخص نیست فناوری هوش مصنوعی مولد با چه سرعتی پیشرفت خواهد کرد و چگونه مرزهای بیمه‌پذیری را شکل خواهد داد. تحقیقات آینده در بیمه باید ماهیت متغیر هوش مصنوعی مولد را بررسی نمایند، سرعت بلوغ فناوری آن را ارزیابی و ریسک‌های نوظهور را شناسایی کنند تا راهکارهای بیمه‌ایِ پاسخگو و مؤثر، توسعه یابند.

 


[1] Generative AI

[2] Intellectual property

[3] Cybersecurity

[4] Environmental, Social, and Governance

[5] Digital maturity

[6] Organizational culture

[7] Artificial Intelligence

[8] Adverse selection

[9] Berliner

[10] Insurability

[11] Information asymmetry

[12] Parametric trigger

[13] Due-diligence protocol

[14] Underwriting

[15] Modular coverage

[16] Simulation-based modeling

[18] Large language model

[19] Token

[20] Sequence

[21] Machine learning

[22] Regression

[24] Optimization

[25] Objective function

[26] Common objective function

[27] Preceding sequence

[28] Gradient descent

[29] Deep learning

[30] Neural network

[32] OpenAI

[33] ChatGPT

[34] Natural language

[35] TikTok

[36] Instagram

[38] Venture capital investment

[39] DeepSeek

[40] Cost-effectiveness

[42] McKinsey

[43] همان

[44] Algorithmic fairness

[45] Algorithmic hallucination

[46] هذیان الگوریتمی، هنگامی رخ می‌دهد ‌که هوش مصنوعی مولد، خروجی‌‌هایی را با اطمینان کامل، تولید ‌کند که درحقیقت، ناصحیح، غیرمنطقی یا کاملاً خارج از واقعیت هستند.

[48] Smart home device

[49] Audio deepfake

[51] مسئولیت حقوقی ارائه‌کنندگان فناوری، نیازمند تعیین سه موضوع است: ۱) شخص ثالثی که دچار زیان واقعی شده است؛ ۲) ارائه‌کننده، متعهد به وظیفه مراقبت (duty of care) در قبال شخص ثالث باشد و نسبت به این وظیفه، دچار قصور شود و یا تعهد قراردادی را نقض کند؛ ۳) نقض قانونی، علت مستقیمِ (proximate cause) خسارت باشد. مهم‌تر از همه، بسیاری از ارائه‌دهندگان نرم‌افزار از معافیت مسئولیت قراردادی یا محدودیت‌هایی از منظر خدمات برای کاهش این ریسک، بهره می‌برند. ناکارآمدی در خدمات و محصولات هوش مصنوعی مولد می‌تواند سبب زیان مالی یا عملیاتی به شخص اول یعنی همان ارائه‌کننده، ایجاد نماید. این مورد، غیر از مسئولیت شخص ثالث است.

[52] Bug

[53] Product liability risk

[54] اجرای نظام‌های سنتی مسئولیت محصول در نرم‌افزار مانند سامانه‌های هوش مصنوعی، پیچیده و نامطمئن است. برای مثال، تا همین اواخر، این موضوع نامشخص بود که تا چه میزان، نرم‌افزار می‌تواند به عنوان محصولی تحت اساسنامه‌هایی همچون دستورالعمل مسئولیت محصول اتحادیه اروپایی تلقی شود. در همین راستا، در ایالات متحده، دادخواهی در جریان است تا استانداردی برای مراقبت (care) در استفاده از نرم‌افزار تدوین شود.

[55] Misrepresentation

[56] Professional liability

[57] Environmental, Social, and Governance

[58] Third-party product risk

[59] Inventory management

[60] Prompt injection

[61] Model manipulation risk

[62] Date leakage

[63] Dependency and competitive risk

[64] Black box

[65] Malware

[66] Phishing

[67] Denial-of-service

[68] FraduGPT

[69] ElevenLabs

[70] Deepfake video

[71] Synthetic voice

[72] Cybercrime-as-as-service

[73] Attack chain

[76] Adobe Firefly

[78] Operational responsibility

[79] Automatic driving

[80] Closed-loop production system

[81] Agentic AI

[83] Agentic system

[84] Christoph Krieg, Peak3 (a member of ZhongAn Insurance Group)

[85] Copyright

[86] Intellectual Property

[87] Societal bias

[88] Training data bias

[89] Ethical content risk

[93] تمرکز نگارندگان بر کسب و کارهایی است که از پیش پوشش بیمه دارند. چراکه مواردی که هرکز بیمه نخریده‌اند، احتمال کمی وجود دارد که پوشش‌های مرتبط با هوش مصنوعی مولد را نیز تهیه نمایند.

[94] Influencer

[95] بر اساس شاخص‌های پرهیز از عدم‌اطمینان (Uncertainty Avoidance Index – UAI) هوفستید (۲۰۲۵)، ایالات متحده با ۴۶ شاخص و چین با ۴۰، به صورت معناداری، نرخ پایین‌تری از پرهیز از عدم‌اطمینان نسبت به آلمان با رقم ۶۵، فرانسه با رقم ۸۶  و ژاپن با رقم ۹۲، نشان دادند. این مسئله نشان می‌دهد که چرا نگرش‌ها نسبت به پذیرش هوش مصنوعی مورد در میان کسب و کارهای آمریکایی و چینی، مثبت‌تر است.

[97] نتایج نظرسنجی مطالعه حاضر، با یافته‌های سایر مطالعات هم‌خوانی دارد. به عنوان مثال به مطالعات مک‌کنزی در سال‌های ۲۰۲۳، ۲۰۲۴ و ۲۰۲۵ مراجعه نمایید.

[98] آمادگی برای پرداخت، به صورت تعجب‌آوری، بالا بود و بنابراین، باید با احتیاط تفسیر شود. اما، این امر نشانه‌ قوی است که کسب و کارها، آماده‌اند تا برای پوشش هوش مصنوعی، بیشتر بپردازند.

[99] برای اطمینان از اعتبار نتایج، رگرسیون‌هایی انجام شد تا اثر واقعی و حاشیه‌ای اندازه شرکت، تفاوت‌های بازار، صنعت، مواجهه با ریسک و میزان شکست‌های گذشته بر تقاضای بیمه، با حفظ ثبات سایر عوامل اثرگذار، بررسی شود. نتایج به‌دست‌آمده با یافته‌های این بخش همخوانی دارند.

[100] تحلیل رگرسیون اضافی نشان داد که خطا‌های کوچک و مکرر لزوماً باعث افزایش تقاضا نمی‌شوند، که نشان می‌دهد کسب‌وکارها عمدتاً نگران محافظت در برابر خسارات بزرگ هستند تا خطا‌های کوچک و مکرر.

[101] Beliner

[103] به منظور ارزیابی جامع‌تر قابلیت بیمه‌پذیری در دسته‌بندی‌های مختلف ریسک‌های نوظهور، به گزارش سال ۲۰۲۳ انجمن ژنو مراجعه کنید. لی و فاور ۲۰۲۵ شرایط بالقوه پوشش بیمه ریسک‌های هوش مصنوعی را از منظر قانونی بررسی می‌کنند. آن‌ها نتیجه می‌گیرند که با ارائه تعاریف قانونی کلیدی (برای مثال، برای هوش مصنوعی)، توسعه مفروضات پیوند عِلّی/عیب‌گذاری و تعیین الزامات و تعهدات قانونی، انتظار می‌رود چارچوب‌های حقوقی جدید، قطعیت‌های قانونی و عِلّی را تقویت نمایند و مسائل انتخاب معکوس و خطر اخلاقی را حل کنند و براین‌اساس، قابلیت بیمه‌پذیری را بهبود بخشند. با این حال، برخی از مقررات اخیر هوش مصنوعی ممکن است چالش‌های بیشتری برای قابلیت بیمه‌پذیری ایجاد کنند.

[104] Risk pool

[105] Adverse selection

[106] Open-source model

[107] Maintenance protocol

[108] Mandatory model audits

[109] AI governance maturity

[110] ISO 42001

[111] Certification

[112] Large Language Models

[113] Security scorecard

[114] Hallucination

[115] Tomo Asaka, Tokio Marine

[116] Risk profile

[117] Synthetic dataset

[118] Skye

[119] Achmea

[120] Modular design

[121] René Wissing

[122] Small and medium-sized enterprises

[123] Deepfake

[126] Specialized insurance product

[127] AXA XL

[128] Munich Re

[129] Data contamination

[130] AI Act

[131] این پوشش تکمیلی عمدتاً به شرکت‌هایی تعلق می‌گیرد که خود اقدام به توسعه و به‌کارگیری مدل‌های هوش مصنوعی مولد می‌کنند. در مورد استفاده‌کنندگان از خدمات هوش مصنوعی ارائه‌شده توسط شرکت‌های ثالث، مانند سامانه‌های مکالمه‌محور عمومی، پوشش مذکور لزوماً قابل اجرا نیست. این بیمه‌نامه شرکت‌هایی را پوشش می‌دهد که در اخذ حقوق بهره‌برداری مناسب، دچار قصور شده‌اند، در حالی که اقدامات عمدی یا همراه با سهل‌انگاری عمدی از شمول پوشش، خارج است. رویکرد آکسا ایکس‌اِل نشان می‌دهد، ارائه بیمه برای ریسک‌های پیچیده و متغیر امکان‌پذیر است، مشروط بر آنکه شرایط قراردادی شفاف و ارزیابی‌های دقیق ریسک وجود داشته باشد. AXA XL 2024.

[132] People's Insurance Company of China

[133] Abraham 1998.

[134] Peters et al. 2011.

[135] Cremer et al. 2024.

[136] Gatzert et al. 2016.

[137] لازم است میان افزایش آسیب‌پذیری سایبری ناشی از به‌کارگیری هوش مصنوعی مولد توسط کسب‌وکارها و استفاده عاملان مخرب از این فناوری برای انجام حملات سایبری تمایز قائل شد. بدیهی است که عاملان مخرب معمولاً اقدام به خرید بیمه نمی‌کنند، اما زیان‌های ناشی از حملات سایبری که با بهره‌گیری از هوش مصنوعی مولد انجام می‌شود، می‌تواند در چارچوب بیمه‌نامه‌های سایبری شرکت‌ها تحت پوشش قرار گیرد.

[138] Professional liability insurance

[139] Errors and Omissions

[141] AON

[143] aiSure

[144] First-party loss solution

[146] Armilla AI

[149] Vouch

[151] Relm

[153] AiShelter

[155] Jesus Gonzalez

[156] Aon Commercial Risk Solutions

[157] Deloitte

[159] Risk transfer

[160] Retention

[161] Blockchain

[162] Modular coverage

[163] Paul Lloyd, AIA Group

منبع خبر
منبع: انجمن ژنو، تاریخ انتشار: آذر 140۴ (اکتبر 2025)
امتیاز :  ۰ |  مجموع :  ۰

برچسب ها

    6.1.7.0
    V6.1.7.0