اینکه از داراییهای فیزیکی که میتوانیم آنها را ببینیم و لمس کنیم، حفاظت کنیم، قابل درک است؛ پنجرههایی که میشکنند، سرقتهایی که اتفاق میافتند، لولههایی که میترکند و هر حادثه دیگری شبیه به آن که ممکن است اتفاق بیفتد. اما داراییهایی که ما نمیتوانیم ببنیم چطور؟ امنیت سایبری چطور؟ اطلاعاتی که ما به صورت برخط (آنلاین) ذخیره میکنیم، ممکن است برای افرادی که میخواهند از آنها سوءاستفاده کنند، بسیار باارزش باشد و ما از آن باخبر نباشیم.
تقریبا، درحدود ۵/۲ کوینتیلیون بایت داده تنها در یک روز تولید میشود و حملات تلهگذاری یا فیشینگ، حملات باجافزاری و حملات محرومسازی از سرویس توزیعشده بسیار رایج هستند، بهطوریکه براساس پژوهش شرکت بیمه انگلیسی-برمودایی هیسکاکس، در حدود ۲۳ درصد از مالکین کسب و کارهای کوچک، یکی از این حملات را طی ۱۲ ماه گذشته، تجربه کردهاند.
در اینجا، چندین نمونه از چگونگی کاربرد هوش مصنوعی برای مقابله با انواع تهدیدهای سایبری ارائه میگردد:
حریم خصوصی
تمامی سازمانها چه دولتی، نیروهای انتظامی محلی یا حتی شبکههای خانگی شخصی که دارای هویتهای ذخیرهشده و قابلیتهای منحصربهفردی در پایگاه دادههای خود هستند که برای طراحی الگوریتمها به کار گرفته میشوند، همواره در معرض خطر قرار دارند. به منظور پیشگیری از لو رفتن این هویتها، به عنوان بخشی از برنامه طراحی دادهها و افزودن حریم خصوصی به آن، سازمانها و افراد میتوانند از روشهای یکتا مانند یادگیری متحد استفاده نمایند. آنچه که به صورت عملی میتوان انجام داد، آن است که الگوهای مجزایی، به صورت محلی و در منبع، طراحی نمود و سپس، آنها را در سطح جهانی، متحد کرد. با این کار میتوان دادههای شخصی را در محل اولیه خود، نگهداری کرد. در این میان، یافتن دادههای پرت و جداسازی آن از طراحی، کار مطلوبی است.
مسابقه هکرها
با وجود نرمافزارهای قدیمیتر، به اشتراکگذاری جزئیات پیچیده الگوریتم هوش مصنوعی میتواند به عنوان یک تعهد و مسئولیت محسوب شود. زیرا میتواند نسبت به ساختار مدل و عملکرد آن، اطلاعاتی ارائه کند. یکی از راههای مقابله که توسط شرکت فورستر به عنوان یک روند در سال ۲۰۲۲ معرفی میکند، برگزاری مسابقه هکرها است که به شرکتهای نرمافزار هوش مصنوعی کمک میکند تا استحکام و قابلیت اعتماد الگوریتمهای خود را سنجیده و بهبود بخشند.
هنگامی که موضوع، دفاع از هوش مصنوعیِ اخلاقی و مسئول است، مسابقه هکرها، به عنوان یک راهکار مفید میتواند بسیار یاریرسان باشد. زیرا کمک میکند تا از اینکه الگوریتمها بدون سوگیری، درست عمل کنند، اطمینان حاصل شود. چندین پردازشگر چشمی و فکری برای کمک به ارزیابی دادهها در این پویش وجود دارد.
سمی کردن دادهها
سمی کردن دادهها، به معنی برداشت دادهها و استفاده از آنها با اهداف مغرضانه است. دادههایی که به عنوان نمونه در طراحی الگوریتمها به کار گرفته میشوند، تغییر داده میشوند تا هنگامی که درونداد خاصی انتخاب میشود، برونداد یا پیشبینیِ خطا ارائه کنند.
سمی کردن دادهها پیش از گام طراحی مدل الگوریتم انجام میشود. شرکت نرمافزاری زلروس فرانسه، دارای یک استاندارد گزارش اخلاقی است که در آن، امضای پایگاه دادهها به صورت گامهایی متوالی برای مدلسازی، جمعآوری میشود تا از اینکه دادهها، مورد سوءاستفاده واقع شوند، جلوگیری شود.
رفتار انسانی
با دستکاری دادهها یا هوش مصنوعی، فعالیتهای مغرضانه معمولا مسئول شناخته میشوند. اما دادههای شخصی که ما با اراده خود آنها را به اشتراک میگذاریم، میتواند علیه خود ما استفاده شود.
برجستهترین ضعف امنیت سایبری، توان ما برای انتشار و تکثیر اطلاعات هویت و فعالیتها در عرض چند ثانیه به میلیونها نفر در سرتاسر جهان است. هوش مصنوعی یا حتی ابزارهای پایهای که میتوانند دادهها را جمعآوری کنند، این مشکل را تشدید میکنند.
برای مثال، دادههای مکانیابی که به صورت باز در شبکههای اجتماعی به اشتراک گذاشته میشوند را میتوان توسط سیستمهای هوش مصنوعی ارتقا داده تا اهداف مشتریان بالقوه را سطحبندی نموده و بروندادها یا پیشنهادهای خاصی ارائه کنند. اقتصاد توجه بر دادههای شخصی که به راحتی در دسترس است، بنیان گذاشته شده است. آگاهی فرهنگی و علمی، یکی از بهترین گزینهها برای رفع این مشکل است ( به این مقاله مراجعه شود).
الگوی یادگیری ماشینی، بیشتر از تصور ما میتواند یاد بگیرد. برای مثال، هنگامیکه جنسیت به عنوان بخشی از داده مشتری، شناسایی نمیشود، این الگوریتم میتواند جنسیت را از طریق برخی قابلیتهای پراکسی دیگر، حدس بزند؛ به روشی که انسان با همین حجم از دادهها و طی همان زمان محدود، قادر به انجام آن نیست. به همین دلیل، تحلیل و رصد الگوی یادگیری ماشینی بسیار حائز اهمیت است.
درصورتیکه ما رفتار الگوریتم و مدل را پیشبینی کنیم و کمک کنیم تا از بازشناسایی از طریق پراکسیها پیشگیری شود، عنصر کلیدی، تنوع است. با حضور و مشارکت چندین تحلیلگر با پیشینههای اقتصادی-اجتماعی، اخلاقی و فردی متفاوت، از همان ابتدای امر، امکان بروز ریسک سوگیری نسبت به طرحهای هوش مصنوعی، کمتر میشود. همچنین، سازمانها میتوانند، در صورتی که دانش و تنوع کافی برای اجرا و تکمیل این امور ندارند، از حسابرسان الگوریتمیک که توسط شرکتهای ثالث ارائه میشود، بهرهمند شوند.
منبع خبر
انشورنس ثات لیدرشیپ، تاریخ انتشار: 18 آوریل ۲۰۲۲