سطح
|
ریسک موردنظر
|
هوش مصنوعی رایج
|
هوش مصنوعی مولد (ریسکهای جدید، تیرهتر نشان داده شدهاند)
|
عملیاتی
|
خطاهای الگوریتمی؛ ثبات؛ اعتبار
|
پیشبینیهای نادرست یا نتایج ناخواسته میتوانند روندهای کاری را مختل نماید و موجب بروز خطا شوند، مانند مشکلات در مدیریت موجودی.
|
خروجیهای هوش مصنوعی مولد ممکن است از اهداف مورد نظر فاصله بگیرند و محتواهایی توهینآمیز، نامرتبط یا ساختگی بر اساس «هذیان» تولید کنند. از آنجایی که این سامانهها برای اطمینان از صحت پیشبینیها اعتبارسنجی نشدهاند، خطاهای سیستماتیک ایجاد میکنند و ریسک استفاده در کاربردهای مواجهه با مشتری یا تولید محتوای خودکار را افزایش میدهند. علاوه بر این، هوش مصنوعی مولد در مقایسه با سامانههای سنتی فناوری اطلاعات در معرض اختلالات خدماتی بیشتری قرار دارد، زیرا جریانهای کاری وابسته به وضعیت آن مانند مکالمات چندمرحلهای یا تولید محتوا، در صورت وقفه، پیشرفت خود را بهطور جبرانناپذیری از دست میدهند.
|
مسائل جعبه سیاه
|
پیچیدگی و غیرشفاف بودن سامانههای هوش مصنوعی، ردیابی خطا و پاسخگویی را دشوار میسازد؛ موضوعی که بهویژه در صنایع مقرراتگذاریشده مانند بیمه اهمیت فراوانی دارد.
|
هوش مصنوعی سنتی معمولاً قابلیت توضیحپذیری بیشتری نسبت به هوش مصنوعی مولد دارد. فرآیندهای تصمیمگیری پشت نتایج هوش مصنوعی مولد اغلب دشوار یا حتی غیرقابل فهم هستند، که باعث میشود منشأ، منطق و خطاهای نهفته در آن برای توسعهدهندگان غیرقابل ردیابی و ممیزی باشد و در نتیجه ریسکهای تازهای برای کاربران ایجاد شود.
|
حملات مخرب
|
هوش مصنوعی میتواند توسط عاملان تهدید برای مقاصد نامناسب و سوءاستفادهآمیز بهکار گرفته شود.
|
محتوای تولیدشده توسط هوش مصنوعی مولد مانند مفاد ساختگی یا ایمیلهای تلهگذاری (فیشینگ)، میتواند برای اهداف مخرب مورد سوءاستفاده قرار گیرد. این مسئله با مشکلات مسمومسازی داده در هوش مصنوعی سنتی، که ناشی از تزریق نمونههای مخرب به دادههای آموزشدادهشده است، تفاوت دارد. افزون بر استفاده از هوش مصنوعی مولد توسط بازیگران مخرب، برخی کاربردهای این فناوری، خود به سطح حمله گستردهتری تبدیل میشوند؛ برای نمونه، رباتهایی سخنگو که دستورات زبانی اس.کیو.ال (SQL) را اجرا میکنند، از طریق حملات تزریق دستور میتوانند به نقطه ورود مهاجمان بدل شوند.
|
امنیت سایبری و حریم خصوصی
|
حملات مبتنی بر هوش مصنوعی
|
هوش مصنوعی میتواند برای تقویت حملات سایبری، مورد سوءاستفاده قرار گیرد و خطر نقض دادهها و به خطر افتادن امنیت عملیاتی را افزایش دهد.
|
مدلهای هوش مصنوعی مولد ممکن است از طریق حملاتی مانند تزریق دستور، دستکاری شوند و در نتیجه، کیفیت محتوا و امنیت آنها به خطر بیفتد؛ خطری که بهعنوان ریسک دستکاری مدل شناخته میشود.
|
نقض حریم خصوصی دادهها
|
گردآوری حجم گستردهای از دادهها میتواند در صورت مدیریت نادرست، ناقض قوانین حریم خصوصی باشد و به جریمههای قانونی و از دست رفتن اعتماد مشتریان منجر شود.
|
ریسک نقض حریم خصوصی در هوش مصنوعی مولد نسبت به هوش مصنوعی سنتی، بالاتر است، زیرا این فناوری با حجم بیشتری از دادههای پیچیده و غیرساختاریافته، سروکار دارد. این ریسک بهویژه زمانی تشدید میشود که هوش مصنوعی مولد به دادههایی دسترسی پیدا کند که مجاز به استفاده از آنها نیست، دادهها را به شیوهای خارج از چارچوب تعیینشده بهکار گیرد (برای مثال بدون اخذ رضایت قبلی کاربر)، یا آنها را به خارج از حوزههای قضایی منتقل کند. علاوه بر این، هوش مصنوعی مولد میتواند با مسائلی مانند مداخله در حریم خصوصی از طریق پایش مستمر، افزایش آسیبپذیری در برابر نشت دادهها و ایجاد چالش برای حقوق دادههای شخصی، همراه باشد.
|
شهرت و بازار
|
اعتماد مشتری و تصویر نام تجاری
|
سوءاستفاده از هوش مصنوعی میتواند اعتبار سازمان را خدشهدار کند، بهویژه زمانی که حریم خصوصی مشتریان نقض شود یا انتظار آنها نسبت به انصاف و عدالت برآورده نشود.
|
خروجیهای بیکیفیت یا نادرست هوش مصنوعی مولد میتوانند اعتماد مشتریان را کاهش دهند و اعتبار شرکت را تحت الشعاع قرار دهند، چرا که ذینفعان ممکن است دربارهی صحت و نیت پیامهای خودکار تردید کنند.
|
ریسک وابستگی و رقابت
|
اتکای بیش از حد به هوش مصنوعی میتواند در زمان بروز اختلال، عملکرد عملیاتی سازمان را به خطر بیندازد.
|
هوش مصنوعی مولد میتواند این ریسک را تشدید کند، زیرا بهصورت عمیقتر و فشردهتر در فرآیندها و مدلهای کسبوکار ادغام میشود.
|
چالشهای نیروی کار
|
جابهجائی شغلی
|
خودکارسازی فرآیندهای هوش مصنوعی میتواند منجر به نارضایتی و واکنش منفی نیروی کار شود، زیرا نقشها و مشاغل جایگزین میشوند.
|
هوش مصنوعی مولد این ریسک را تشدید میکند. همانطور که در جعبه ۲ نشان داده شده، هوش مصنوعی عاملی یا همان نسخه پیشرفتهتر هوش مصنوعی مولد، ممکن است بهطور گستردهای شغلها را جایگزین کند.
|
الزامات مهارتهای هوش مصنوعی
|
هوش مصنوعی نیازمند مهارتهای جدیدی است تا کیفیت و تبعات اخلاقی خروجیها مدیریت شود، که این موضوع چالشهایی را در زمینه ارتقاء مهارتهای نیروی کار بهوجود میآورد.
|
هوش مصنوعی مولد این مشکل را تشدید میکند. کارکنان باید آموزش ببینند تا خروجیهای هوش مصنوعی مولد را تفسیر کنند، به دغدغههای اخلاقی واکنش نشان دهند و کیفیت محتوا را تضمین نمایند (که به مهارتهای خاصی در این حوزه نیاز دارد). همچنین، هوش مصنوعی مولد برای پذیرش، به فرهنگ سازمانی مناسب نیاز دارد.
|
تنظیممقرراتی و تطابق با قانون
|
مقررات درحالتکامل هوش مصنوعی
|
قوانین جدید از کسبوکارها میخواهند که بهسرعت خود را با تغییرات تطبیق دهند؛ عدم رعایت این قوانین میتواند منجر به جریمهها شود، بهویژه در بخشهای مقرراتگذاریشده مانند بیمه.
|
قانون هوش مصنوعی اتحادیه اروپا مقرراتی جامع را برای توسعه و استفاده از هوش مصنوعی اعمال میکند. این مقررات باید بهدقت بین مدیریت ریسکهای هوش مصنوعی مولد و ترویج نوآوری فناورانه، تعادل برقرار کند.
|
مسئولیتپذیری و تعهد قانونی
|
کسبوکارها ممکن است با مسئولیتپذیری برای خسارات ناشی از سامانههای هوش مصنوعی روبهرو شوند، در حالی که تعیین مسئولیت در این زمینه با چالشهایی همراه است.
|
هوش مصنوعی مولد ممکن است از محتوای دارای حق تکثیر استفاده کند، که این موضوع کسبوکارها را در معرض ریسکهای قانونی و آسیب به شهرت (حقوق تکثیر و مالکیت معنوی) قرار میدهد.
|
سوگیری و دغدغههای اخلاقی
|
تبعیض و سوگیری
|
الگوریتمهای هوش مصنوعی ممکن است تعصبات اجتماعی را تقویت کند و به شیوههای تبعیضآمیز منجر شوند، که میتواند باعث دعاوی قضائی گردد.
|
هوش مصنوعی مولد بهطور فعال محتوای جدید تولید میکند؛ بنابراین، در صورتی که از دادههای مغرضانه استفاده کند، ممکن است خروجیهایی تولید کند که به تداوم و تشدید کلیشههای اجتماعی منجر شود و این امر، خطرات اخلاقی و احتمال دعاوی قضائی را افزایش میدهد.
|
تصمیمگیری اخلاقی
|
هوش مصنوعی ممکن است اولویت را به کارایی دهد تا اخلاق. بنابراین، در صورتی که تصمیمات منجر به آسیب به اعتماد مشتریان شود، میتواند به آسیب به شهرت سازمان را در پی داشته باشد.
|
خروجیهای هوش مصنوعی مولد ممکن است بهطور غیرعمدی اصول اخلاقی را نقض کنند، مانند تولید اطلاعات گمراهکننده یا مضر.
|
محیطزیستی، اجتماعی و حاکمیتی
|
محیطزیستی و انرژی
|
سامانههای هوش مصنوعی نیازمند مصرف قابل توجه انرژی و آب هستند، که ممکن است با تعهدات کاهش انتشار کربن و دستیابی به اهداف صفر خالص مغایرت داشته باشد.
|
هوش مصنوعی مولد این مشکل را تشدید میکند، زیرا فناوری زیربنایی آن، یعنی یادگیری عمیق، برای تولید خروجیهای پیچیده بهطور نمایی، به توان محاسباتی بیشتری نیاز دارد. این مصرف بالای انرژی نهتنها فشار بیشتری بر شبکههای برق وارد میکند، بلکه وابستگی به آب برای خنکسازی مراکز داده بسیار عظیم را نیز افزایش میدهد.
|