عنوان گروه خبري / مدیریت ریسک . نوآوری و فن‌آوری بیمه . تنظیم‌گری و نظارت بر بیمه . مدیریت بیمه .
  • ساعت : ۱۱:۲۳
  • تاريخ :
     ۱۴۰۴/۱۰/۰۹ 
  • تعداد بازدید : 39
تضمین انصاف در قیمت‌گذاری بیمه
پژوهشی برتر كه معیارهای انصاف و مقررات را با مدل‌های قیمت‌گذاری مرتبط ساخت
در دنیای بیمه، استفاده از الگوریتم‌ها و کلان داده‌ها برای قیمت‌گذاری و ارزیابی ریسک، به سرعت در حال تبدیل شدن به یک استاندارد شده است. با این حال، این پیشرفت‌ها نگرانی‌هایی را در زمینه انصاف و تبعیض پنهان برانگیخته‌اند. آیا ممکن است الگوریتم‌ها به‌طور ناخواسته منجر به تبعیض بر اساس ویژگی‌هایی مانند نژاد یا جنسیت شوند؟ در این راستا، پژوهش جدیدی که به‌عنوان مقاله برتر مجله بیم‌سنجی آمریکای شمالی شناخته شده است، با معرفی معیارهای انصاف در یادگیری ماشینی، به‌ویژه در مدل‌های رگرسیونی بیمه، گام‌های موثری برای تضمین انصاف در قیمت‌گذاری بیمه برداشته است. این پژوهش نشان می‌دهد که چگونه می‌توان مقررات ضدتبعیض را به الگوریتم‌های پیچیده قیمت‌گذاری بیمه پیوند داد و از این طریق، به تعادل میان دقت پیش‌بینی و انصاف دست یافت.

نگارنده: کارکنان انجمن بیم‌سنجی جهان؛ مترجم: دفتر پایگاه خبری تازه‌های بیمه ایران و جهان

در سال‌های اخیر، شرکت‌های بیمه به کلان داده‌ها[1] و الگوریتم‌های پیشرفته برای قیمت‌گذاری[2] و ارزیابی ریسک[3] روی آورده‌اند. هدف از این کار، افزایش دقت و کارایی است، اما درعین‌حال، چالش‌های جدیدی در زمینه انصاف[4] و سوگیری[5] ایجاد می‌کند. مدل‌های پیچیده که با داده‌های گسترده آموزش دیده‌اند، اغلب به‌صورت «جعبه سیاه»[6] عمل می‌کنند و به همین سبب، شناسایی اینکه آیا تبعیض غیرمستقیم در نتایج، نفوذ کرده است یا خیر، دشوار است.

در نتیجه، نهادهای ناظر و عموم مردم، نگرانی‌هایی در مورد سوگیری پنهان مطرح کرده‌اند، زیرا عوامل غیرمستقیم مانند کدپستی یا امتیاز اعتباری می‌توانند به‌طور ناخواسته به‌عنوان شاخص‌هایی برای نژاد، جنسیت و سایر ویژگی‌ها عمل کنند و منجر به تبعیض شوند.

در همین حال، کارشناسان یادگیری ماشینی (ML)[7] بر توسعه معیارهای انصاف، کار می‌کنند. اما، این معیارها بیشتر روی الگوریتم‌های طبقه‌بندی دودویی[8] تمرکز داشته‌اند، مانند تصمیم به استخدام فرد یا عدم تأیید وام و نه بر اساس مدل‌های رگرسیونی که در قیمت‌گذاری بیمه استفاده می‌شوند.

هیئت تحریریه مجله بیم‌سنجی آمریکای شمالی (NAAJ)[9]، مقاله «قیمت‌گذاری ضدتبعیض بیمه: مقررات، معیارهای انصاف و مدل‌ها»[10] را به‌عنوان برنده جایزه سالانه این مجله در بخش برترین مقاله منتشره در سال ۲۰۲۴، انتخاب کرده است.

این پژوهش برجسته توسط فی هوانگ[11]، دانشیار دانشکده ریسک و مطالعات بیم‌سنجی، دانشگاه نیو ساوث ولز (UNSW)[12]، و شی شین[13]، دانشجوی دکترای دانشکده کسب‌وکار این دانشگاه، به رشته تحریر در‌آمده است. مطالعه مذکور، با معرفی معیارهای انصاف در یادگیری ماشینی در قیمت‌گذاری بیمه با استفاده از مدل‌های رگرسیونی، گامی نوآورانه برداشته است.

نگارندگان مقاله مزبور، این معیارها را به مقررات ضدتبعیض، مرتبط می‌کنند و نشان می‌دهند که چگونه می‌توان آن‌ها را در مدل‌های گوناگون قیمت‌گذاری اعمال کرد و از این طریق، گامی مؤثر در راستای انصاف در قیمت‌گذاری بیمه برداشت.

مقابله با تبعیض غیرمستقیم

هوش مصنوعی به شرکت‌های بیمه امکان می‌دهد تا ریسک‌ها را با جزئیات بیشتری تحلیل کنند، اما الگوریتم‌ها می‌توانند الگوهایی را شناسایی نمایند که به‌عنوان جایگزینِ ویژگی‌هایی همچون نژاد یا درآمد، عمل کنند. ازآنجاکه مدل‌های پیشرفته، پیچیده و سخت‌تفسیر هستند، برای بیم‌سنج‌‌ها، نهادهای ناظر یا مصرف‌کنندگان، دشوار است که سوگیری پنهان در نتایج را شناسایی کنند.

در این زمینه، فی هوانگ اظهار داشت: «این نگرانی وجود دارد که چنین الگوریتم‌هایی، عمداً یا سهواً، بتوانند تبعیض را پشت لایه‌های پیچیده آماری پنهان کنند.»

هوانگ در گفتگو با کارشناسان صنعت بیمه و ناظران، پیشنهاد داد تا به همراه شین، پیوند بین قیمت‌گذاری بیمه، مقررات ضدتبعیض و مفاهیم انصاف در یادگیری ماشینی را بررسی کنند. همکاری آن‌ها در سال ۲۰۲۰ آغاز شد، درست زمانی که شین، دکترای خود را در دانشگاه نیو ساوث ولز آغاز کرد و صنعت بیمه نیز در حال استفاده از ابزارهای پیشرفته یادگیری ماشینی بود و نهادهای ناظر، درباره انصاف و تبعیض، بحث و گفتگو می‌کردند.

هوانگ افزود: «این لحظه، زمان مناسبی برای آغاز پروژه‌ای در تقاطع دانش بیم‌سنجی، حقوق و علم داده بود.»

موازنه‌ها و تعادل

پژوهش آن‌ها نشان داد که انصاف در قیمت‌گذاری بیمه می‌تواند از چندین مسیر دنبال شود، که هر کدام دارای معایب و مزایای خاص خود هستند:

· پیوندها : با ارتباط معیارهای انصاف و مقررات ضدتبعیض و سپس ادغام آن‌ها در مدل‌های مختلف قیمت‌گذاری، مطالعه هوانگ و شین نشان داد که این عناصر چگونه می‌توانند در یک چارچوب واحد، هماهنگ عمل کنند.

· موازنه‌ها: دستیابی به انصاف اغلب به معنای قربانی کردن بخشی از دقت در پیش‌بینی است و اهداف مختلف انصاف (مانند انصاف فردی در مقابل گروهی) نیازمند انتخاب‌های مختلف در مدل‌سازی هستند.

· سفارشی‌سازی مدل‌ها: پژوهش هوانگ و شین از مدل‌هایی مانند مدل‌های خطی تعمیم‌یافته (GLM)[14] و روش‌های یادگیری ماشینی مانند اکس‌جی‌بوست[15] استفاده کرد و نشان داد که هر یک می‌تواند برای تطبیق با تعاریف مختلف انصاف، تنظیم شود.

· عملگرایی: پژوهش آنها نشان داد که مدل‌های انصاف، عملی و قابل‌اندازه‌گیری هستند و سنجه‌هایی آشنا برای بیم‌سنج‌‌ها مانند دقت در پیش‌بینی، واسنجی و انتخاب مغایر[16] دارند.

· پیامدهای اقتصادی: برخی رویکردها ممکن است هزینه‌ها را بین گروه‌ها منتقل کنند و تنش بین انصاف بیم‌سنجی («ریسک‌های مشابه، حق بیمه مشابه») و همبستگی اجتماعی[17] (تسهیم ریسک در جامعه) را برجسته سازند.

· حساسیت روش‌ها: انتخاب تکنیک مدل‌سازی می‌تواند بر نتایج انصاف تأثیر بگذارد و این امر، نیاز به نظارت دقیق نهاد نظارتی دارد.


[1] Big data

[2] Pricing

[3] Underwriting

[4] Fairness

[5] Bias

[6] Black box

[7] Machine learning

[8] Binary classification

[9] The North American Actuarial Journal

[10] Xin, X., & Huang, F. (2024). Antidiscrimination Insurance Pricing: Regulations, Fairness Criteria, and Models. North American Actuarial Journal28(2), 285–319. https://doi.org/10.1080/10920277.2023.2190528

[11] Fei Huang

[12] University of New South Wales

[13] Xi Xin

[14] Generalized linear model

[15] XGBoost

[16] Adverse selection

[17] Solidarity

منبع خبر
منبع: مجله اکچوئری، تاریخ انتشار: دی‌ماه ۱۴۰۴ (دسامبر 2025)
امتیاز :  ۰ |  مجموع :  ۰

برچسب ها

    6.1.7.0
    V6.1.7.0