عنوان گروه خبري / نوآوری و فن‌آوری بیمه . مدیریت ریسک .
  • ساعت : ۰۰:۰۰
  • تاريخ :
     ۱۴۰۱/۰۱/۳۰ 
  • تعداد بازدید : 73
هوش مصنوعی، امنیت سایبری و ریسك بیمه
تهیه شده توسط امور بین‌الملل پژوهشکده بیمه
با حضور و مشارکت چندین تحلیل‌گر با پیشینه‌های اقتصادی-اجتماعی، اخلاقی و فردی متفاوت، امکان ریسک سوگیری نسبت به طرح‌های هوش مصنوعی، کمتر می‌شود.

این‌که از دارایی‌های فیزیکی که می‌توانیم آنها را ببینیم و لمس کنیم، حفاظت کنیم، قابل درک است؛ پنجره‌هایی که می‌شکنند، سرقت‌هایی که اتفاق می‌افتند، لوله‌هایی که می‌ترکند و هر حادثه دیگری شبیه به آن که ممکن است اتفاق بیفتد. اما دارایی‌هایی که ما نمی‌توانیم ببنیم چطور؟ امنیت سایبری چطور؟ اطلاعاتی که ما به صورت برخط (آنلاین) ذخیره می‌کنیم، ممکن است برای افرادی که می‌خواهند از آنها سوءاستفاده کنند، بسیار باارزش باشد و ما از آن باخبر نباشیم.

تقریبا، درحدود ۵/۲ کوینتیلیون[1] بایت داده‌ تنها در یک روز تولید می‌شود و حملات تله‌گذاری یا فیشینگ[2]، حملات باج‌افزاری[3] و حملات محروم‌سازی از سرویس[4] توزیع‌شده بسیار رایج هستند، به‌طوری‌که براساس پژوهش شرکت بیمه انگلیسی-برمودایی هیسکاکس[5]، در حدود ۲۳ درصد از مالکین کسب و کارهای کوچک، یکی از این حملات را طی ۱۲ ماه گذشته، تجربه کرده‌اند.

در اینجا، چندین نمونه از چگونگی کاربرد هوش مصنوعی برای مقابله با انواع تهدیدهای سایبری ارائه می‌گردد:

حریم خصوصی

تمامی سازمان‌ها چه دولتی، نیروهای انتظامی محلی یا حتی شبکه‌های خانگی شخصی که دارای هویت‌های ذخیره‌شده و قابلیت‌های منحصربه‌فردی در پایگاه داده‌های خود هستند که برای طراحی[6] الگوریتم‌ها به کار گرفته می‌شوند، همواره در معرض خطر قرار دارند. به منظور پیشگیری از لو رفتن این هویت‌ها، به عنوان بخشی از برنامه طراحی داده‌ها و افزودن حریم خصوصی به آن، سازمان‌ها و افراد می‌توانند از روش‌های یکتا مانند یادگیری متحد[7] استفاده نمایند. آنچه که به صورت عملی می‌توان انجام داد، آن است که الگوهای مجزایی، به صورت محلی و در منبع[8]،‌ طراحی نمود و سپس، آنها را در سطح جهانی، متحد کرد. با این کار می‌توان داده‌های شخصی را در محل اولیه خود، نگهداری کرد. در این میان، یافتن داده‌های پرت[9] و جداسازی آن از طراحی، کار مطلوبی است.

مسابقه هکرها

با وجود نرم‌افزارهای قدیمی‌تر، به اشتراک‌گذاری جزئیات پیچیده الگوریتم هوش مصنوعی می‌تواند به عنوان یک تعهد و مسئولیت محسوب شود. زیرا می‌تواند نسبت به ساختار مدل و عملکرد آن، اطلاعاتی ارائه کند. یکی از راه‌های مقابله که توسط شرکت فورستر به عنوان یک روند در سال ۲۰۲۲ معرفی می‌کند، برگزاری مسابقه هکرها[10] است که به شرکت‌های نرم‌افزار هوش مصنوعی کمک می‌کند تا استحکام و قابلیت اعتماد الگوریتم‌های خود را سنجیده و بهبود بخشند.

هنگامی که موضوع، دفاع از هوش مصنوعیِ اخلاقی و مسئول است، مسابقه هکرها، به عنوان یک راهکار مفید می‌تواند بسیار یاری‌رسان باشد. زیرا کمک می‌کند تا از این‌که الگوریتم‌ها بدون سوگیری، درست عمل کنند، اطمینان حاصل شود. چندین پردازش‌گر چشمی و فکری برای کمک به ارزیابی داده‌ها در این پویش وجود دارد.

سمی کردن داده‌ها

سمی کردن[11] داده‌ها، به معنی برداشت داده‌ها و استفاده از آنها با اهداف مغرضانه است. داده‌هایی که به عنوان نمونه در طراحی الگوریتم‌ها به کار گرفته می‌شوند، تغییر داده می‌شوند تا هنگامی که درون‌داد خاصی انتخاب می‌شود، برون‌داد یا پیش‌بینیِ خطا ارائه کنند.

سمی کردن داده‌ها پیش از گام طراحی مدل الگوریتم انجام می‌شود. شرکت نرم‌افزاری زلروس[12] فرانسه، دارای یک استاندارد گزارش اخلاقی است که در آن، امضای پایگاه داده‌ها[13] به صورت گام‌هایی متوالی برای مدل‌سازی، جمع‌آوری می‌شود تا از این‌که داده‌ها، مورد سوءاستفاده واقع شوند، جلوگیری شود.

رفتار انسانی

با دستکاری داده‌ها یا هوش مصنوعی،‌ فعالیت‌های مغرضانه معمولا مسئول شناخته می‌شوند. اما داده‌های شخصی که ما با اراده خود آنها را به اشتراک می‌گذاریم، می‌تواند علیه خود ما استفاده شود.

برجسته‌ترین ضعف امنیت سایبری، توان ما برای انتشار و تکثیر اطلاعات هویت و فعالیت‌ها در عرض چند ثانیه به میلیون‌ها نفر در سرتاسر جهان است. هوش مصنوعی یا حتی ابزارهای پایه‌ای که می‌توانند داده‌ها را جمع‌آوری کنند، این مشکل را تشدید می‌کنند.

برای مثال، داده‌های مکان‌یابی[14] که به صورت باز در شبکه‌های اجتماعی به اشتراک گذاشته می‌شوند را می‌توان توسط سیستم‌های هوش مصنوعی ارتقا داده تا اهداف مشتریان بالقوه را سطح‌بندی نموده و برون‌دادها یا پیشنهادهای خاصی ارائه کنند. اقتصاد توجه[15] بر داده‌های شخصی که به راحتی در دسترس است، بنیان گذاشته شده است. آگاهی فرهنگی و علمی، یکی از بهترین گزینه‌ها برای رفع این مشکل است ( به این مقاله مراجعه شود).

الگوی یادگیری ماشینی[16]، بیشتر از تصور ما می‌تواند یاد بگیرد. برای مثال، هنگامی‌که جنسیت به عنوان بخشی از داده مشتری، شناسایی نمی‌شود، این الگوریتم می‌تواند جنسیت را از طریق برخی قابلیت‌های پراکسی[17] دیگر، حدس بزند؛ به روشی که انسان با همین حجم از داده‌ها و طی همان زمان محدود، قادر به انجام آن نیست. به همین دلیل، تحلیل و رصد الگوی یادگیری ماشینی بسیار حائز اهمیت است.

درصورتی‌که ما رفتار الگوریتم و مدل را پیش‌بینی کنیم و کمک کنیم تا از بازشناسایی از طریق پراکسی‌ها پیشگیری شود، عنصر کلیدی،‌ تنوع است. با حضور و مشارکت چندین تحلیل‌گر با پیشینه‌های اقتصادی-اجتماعی، اخلاقی و فردی متفاوت، از همان ابتدای امر، امکان بروز ریسک سوگیری[18] نسبت به طرح‌های هوش مصنوعی، کمتر می‌شود. همچنین، سازمان‌ها می‌توانند، در صورتی که دانش و تنوع کافی برای اجرا و تکمیل این امور ندارند، از حسابرسان الگوریتمیک[19] که توسط شرکت‌های ثالث ارائه می‌شود، بهره‌مند شوند.

 


[1] Quintillion: کوینتیلیون در آمریکا برابر با 10 به توان 18 و در انگلستان برابر با 10 به توان 30 در نظر گرفته می‌شود.

[2] Phishing

[3] Ransomware attack

[4] Denial of service attack

[5] Hiscox

[6] Training

[7] Federated learning

[8] Source

[9] Outlier

[10] Bias bounty

[11] Poisoning

[12] Zelros

[13] Dataset signature

[14] Geolocalization

[15] Attention economy

[16] Learning machine

[17] Proxy feature

[18] Bias risk

[19] Algorithmic audit

منبع خبر
انشورنس ثات لیدرشیپ، تاریخ انتشار: 18 آوریل ۲۰۲۲
امتیاز :  ۰ |  مجموع :  ۰

برچسب ها

    6.1.7.0
    V6.1.7.0