اخلاق در هوش مصنوعی
ندا احمدی: امروزه شاید هوش مصنوعی به آن شکلی که تصور میکنیم وجود نداشته باشد اما باز هم بسیاری از کارهایی که روزانه انجام میدهیم، مانند جستجوی اینترنت یا گشت و گذار در صفحات شبکههای اجتماعی و غیره، همه متاثر از هوش مصنوعی است و در حقیقت در این مواقع داریم از آن استفاده میکنیم.
آنقدر این استفاده ناملموس است و به آن عادت کردهایم که در آن لحظه حس نمیکنیم که داریم از هوش مصنوعی استفاده میکنیم. دلیل اصلی آن این است که نمیدانیم هوش مصنوعی واقعا چیست و چه کارهایی انجام میدهد. از آنجایی که آینده از آن هوش مصنوعی خواهد بود بهتر است به جای نگران بودن در مورد هوش مصنوعی یاد بگیریم که چه کارهایی را میتوانیم با آن انجام دهیم و اطلاعاتمان را در این زمینه بیشتر کنیم.
پس بیایید از ابتدا ببینیم هوش مصنوعی چیست.
هوش مصنوعی چیست
هوش مصنوعی (Artificial Intelligence) یا به اختصار AI، یک شاخه از علوم کامپیوتر است که به توسعه سیستمها و برنامههایی میپردازد که قادر به انجام وظایفی هستند که معمولاً به هوش انسانی نیاز دارند. این وظایف شامل یادگیری، استدلال، حل مسئله، درک زبان طبیعی و تصمیمگیری میشود. به زبان ساده، هوش مصنوعی به ماشینها امکان میدهد تا بهطور خودکار فکر کنند، یاد بگیرند و عمل کنند.
اهداف هوش مصنوعی
اساس هوش مصنوعی آن است که هوش انسان و طریق کار آن بهگونهای تعریف شود که یک ماشین بتواند آن را به راحتی اجرا کند و وظایفی که بر آن محول میشود را به درستی اجرا کند. هدف هوش مصنوعی در حقیقت بر سه پایه استوار است:
یادگیری
استدلال
درک
هوش مصنوعی (AI) شاخه گسترده ای از علوم رایانه است که مربوط به ساخت ماشین های هوشمند با توانایی انجام وظایفی است که معمولاً به هوش انسان نیاز دارند. هوش مصنوعی یک علم میان رشته ای با چندین رویکرد است ، اما پیشرفت در یادگیری ماشین و یادگیری عمیق باعث ایجاد تغییر الگوی تقریباً در هر بخش از صنعت فناوری می شود
اخلاق هوش مصنوعی چیست؟
اخلاق هوش مصنوعی به مجموعهای از اصول و استانداردها اطلاق میشود که توسعهدهندگان و محققان باید در فرایند طراحی و استفاده از هوش مصنوعی رعایت کنند. این اصول شفافیت، عدالت، مسئولیتپذیری و احترام به حریم خصوصی کاربران را شامل است. هدف از این اصول هم اطمینان از استفادهای امن و عادلانه از هوش مصنوعی است
شاید سادهترین روش برای نشان دادن اخلاق هوش مصنوعی استفاده از مثالهای واقعی باشد. در دسامبر 2022، اپلیکیشن Lensa AI از هوش مصنوعی برای تولید عکسهای پروفایل جالب و کارتونی با کمک تصاویر معمولی افراد استفاده کرد. برخی از مردم به دلیل نداشتن اعتبار یا پول کافی به هنرمندان این حوزه انتقاد کردند. بر اساس گزارش واشنگتن پست، لنزا بر روی میلیاردها عکسی که بدون رضایت از اینترنت تهیه شده بودند، کار میکرد.
مثال دیگر مدل AI ChatGPT است که کاربران با طرح سوالات مختلف با آن ارتباط برقرار میکنند. ChatGPT اینترنت را برای یافتن دادهها جستجو میکند و با یک متن، کد پایتون یا یک پیشنهاد پاسخ میدهد. معضل اخلاقی این روزها این است که مردم از ChatGPT برای برنده شدن در مسابقات کدنویسی یا نوشتن مقاله استفاده میکنند.
اینها فقط دو نمونه رایج از اخلاق هوش مصنوعی هستند. از آنجایی که هوش مصنوعی در سالهای اخیر رشد کرده و تقریباً بر هر صنعتی تأثیر گذاشته و اثرات مثبت زیادی بر صنایعی مانند مراقبتهای بهداشتی دارد، موضوع اخلاق هوش مصنوعی حتی برجستهتر از قبل هم شده است. چگونه از هوش مصنوعی بدون تعصب اطمینان حاصل کنیم؟ برای کاهش خطرات در آینده چه کاری می توان انجام داد؟ راهحلهای بالقوه زیادی وجود دارد، اما ذینفعان باید مسئولانه و مشارکتی عمل کنند تا نتایج مثبتی در سراسر جهان ایجاد شود.
نگرانیهای اساسی در مورد هوش مصنوعی
تعدادی از مسائل وجود دارد که در خط مقدم گفتگوهای اخلاقی پیرامون فناوریهای هوش مصنوعی قرار دارند. برخی از این موارد عبارتند از:
تکینگی تکنولوژیک:
بسیاری از پژوهشگران نگران این ایده نیستند که هوش مصنوعی در آینده نزدیک از هوش انسانی پیشی بگیرد، اما با توجه به توسعه فناوریهایی مانند خودروهای خودران، غیرمنطقی است که فکر کنیم یک خودروی بدون راننده هرگز دچار سانحه رانندگی نمیشود، اما در صورت وقوع حادثه چه کسی مسئول است؟
هنوز چندان درباره این موضوعات صحبت نمیشود، اما اینها انواع بحثهای اخلاقی هستند که با توسعه فناوری جدید و خلاقانه هوش مصنوعی در حال بروز هستند.
تاثیر هوش مصنوعی بر مشاغل:
در حالی که بسیاری از تصورات عمومی در مورد هوش مصنوعی به از دست دادن شغل متمرکز است، این نگرانی احتمالاً باید اصلاح شود. با ظهور هر فناوری جدید با پتانسیل مخرب بودن و آثار سوء، میبینیم که تقاضای بازار برای نقشهای شغلی خاص تغییر میکند. به عنوان مثال، وقتی به صنعت خودرو نگاه میکنیم، بسیاری از تولیدکنندگان روی تولید خودروهای الکتریکی تمرکز میکنند تا با ابتکارات سبز هماهنگ شوند. در واقع صنعت انرژی از بین نمیرود، اما منبع انرژی از مصرف سوخت به سمت برق میرود.
هوش مصنوعی باید به روشی مشابه مورد بررسی قرار گیرد. هوش مصنوعی تقاضای مشاغل را به مانند همین مثالی که زده شد، تغییر میدهد. با رشد و تغییر هر روز دادهها، باید افرادی وجود داشته باشند که به مدیریت این سیستمها کمک کنند. بنابراین جنبه مهم هوش مصنوعی و تأثیر آن بر بازار کار، کمک به انتقال افراد به این حوزههای جدید تقاضا در بازار خواهد بود.
حریم خصوصی:
حریم خصوصی معمولاً در زمینه حفظ حریم شخصی دادهها، حفاظت از اطلاعات و امنیت دادهها مورد بحث قرار میگیرد و این نگرانیها به سیاست گذاران اجازه داده است در سالهای اخیر گامهای بیشتری در این حوزه بردارند. به عنوان مثال در سال ۲۰۱۶، قانون GDPR برای محافظت از دادههای شخصی افراد در اتحادیه اروپا و منطقه اقتصادی اروپا ایجاد شد و به افراد کنترل بیشتری بر دادههای خود داد. در ایالات متحده، ایالتهای جداگانه در حال توسعه سیاستهایی مانند قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا(CCPA) هستند که از کسب و کارها میخواهد مصرفکنندگان را در مورد جمعآوری دادههای خود آگاه کنند.
این قانون اخیر شرکتها را مجبور کرده است که در نحوه ذخیره و استفاده از دادههای شناسایی شخصی(PII) تجدید نظر کنند. در نتیجه، سرمایهگذاری در حوزه امنیت به اولویت فزایندهای برای کسب و کارها تبدیل شده است، زیرا آنها به دنبال حذف هرگونه آسیبپذیری و فرصتهایی برای نظارت، هک و حملات سایبری هستند.
تعصب و تبعیض:
مواردی از تعصب و تبعیض در تعدادی از سیستمهای هوش مصنوعی، سوالات اخلاقی زیادی را در مورد استفاده از این فناوری ایجاد کرده است. چگونه میتوانیم در برابر سوگیری و تبعیض هوش مصنوعی از خود محافظت کنیم، در حالی که خودِ دادههای آموزشی میتوانند خود را در معرض سوگیری قرار دهند؟
نمونههایی از وجود تبعیض و تعصب در سیستمهای هوش مصنوعی مورد استفاده شرکتهای بزرگ فناوری دیده شده است و همچنین میتوان آن را در تعدادی از برنامههای کاربردی از نرم افزارهای تشخیص چهره گرفته تا الگوریتمهای شبکههای اجتماعی یافت.
در مجموع، همین طور که کسب و کارها از خطرات هوش مصنوعی آگاهتر میشوند، بحث رعایت اخلاق و ارزشها توسط هوش مصنوعی نیز فعالتر میشود.
مسئولیت:
از آنجایی که قانون قابل توجهی برای تنظیم شیوههای استفاده از هوش مصنوعی وجود ندارد، هیچ مکانیسم اجرایی واقعی برای اطمینان از اجرای اخلاقی هوش مصنوعی وجود ندارد. برای پر کردن این شکاف، چارچوبهای اخلاقی به عنوان بخشی از همکاری بین اخلاقشناسان و پژوهشگران برای کنترل ساخت و توزیع مدلهای هوش مصنوعی در جامعه پدیدار شدهاند. با این حال آنها در حال حاضر فقط برای راهنمایی هستند و ضمانت اجرایی ندارند.
برخی راهکارها و راه حلها
فناوری هوش مصنوعی پتانسیل بسیار زیادی برای بهبود کارایی، تصمیمگیری و تجربه کاربر در حوزههای مختلف دارد. با این حال، استقرار آن میتواند منجر به معضلات اخلاقی نیز شود. برای اطمینان از اینکه هوش مصنوعی یک نیروی مناسب است، توجه به چالشهای اخلاقی زیر ضروری است:
قوانین و مقررات اخلاقی
قبل از اجرای هوش مصنوعی، ذینفعان باید درک کاملی از ابعاد اخلاقی آن داشته باشند. این موضوع شامل تأثیر هوش مصنوعی بر حریم خصوصی، امنیت، تعصب، تبعیض و رفاه کلی انسان است. سیاستگذاران، توسعهدهندگان و سازمانها باید برای تنظیم دستورالعملهایی که توسعه هوش مصنوعی را با ارزشهای اجتماعی هماهنگ میکند، همکاری کنند.
در حوزه اخلاق هوش مصنوعی، همکاری بین کشورها ضروری است. سیاستگذاران باید برای ایجاد استانداردهای بین المللی جهت توسعه و استفاده از هوش مصنوعی با یکدیگر همکاری کنند. ابتکاراتی مانند بیانیه مونترال و مشارکت در هوش مصنوعی زمینه را برای همکاری جهانی در حکمرانی هوش مصنوعی فراهم کرده است.
سیستمهای هوش مصنوعی میتوانند عواقب ناخواستهای داشته باشند که ممکن است به افراد یا گروهها آسیب برساند. بنابراین، در نظر گرفتن حقوق بشر هنگام توسعه و استفاده از سیستمهای هوش مصنوعی ضروری است. این موضوع شامل اطمینان از عدم استفاده از سیستم هوش مصنوعی برای تبعیض علیه افراد یا گروهها است.
کشورهای سراسر جهان در حال توسعه استراتژیهای هوش مصنوعی ملی هستند تا ضمن رسیدگی به نگرانیهای اخلاقی، از پتانسیل هوش مصنوعی استفاده کنند. این استراتژیها بر تحقیق، نوآوری، توسعه استعدادها، مدیریت دادهها و استقرار مسئولانه فناوریهای هوش مصنوعی متمرکز هستند.
طراحی مسئولانه سیستمها
الگوریتمهای هوش مصنوعی در صورتی که بهدقت طراحی و آزمایش نشوند، پتانسیل تداوم تعصب و تبعیض را دارند. اجرای اقدامات عادلانه در طول توسعه هوش مصنوعی برای به حداقل رساندن سوگیری و اطمینان از تصمیم گیری بی طرفانه بسیار مهم است. تکنیکهایی مانند پیش پردازش دادهها برای حذف سوگیری، استفاده از مجموعه دادههای آموزشی متنوع و ممیزی منظم سیستمهای هوش مصنوعی میتواند به کاهش تعصب کمک کند.
شفافیت برای ایجاد اعتماد در سیستمهای هوش مصنوعی بسیار مهم است. کاربران و ذینفعان باید بدانند که هوش مصنوعی چگونه تصمیم میگیرد. استفاده از مدلهای هوش مصنوعی قابل تفسیر، ارائه توضیحات برای تصمیمگیریها و ارائه مستندات واضح از فرآیندهای هوش مصنوعی برای داشتن شفافیت ضروری است.
پرداختن به نگرانیهای مربوط به حریم خصوصی یک جنبه ضروری در توسعه هوش مصنوعی اخلاقی است. هنگامی که دادههای شخصی جمعآوری، پردازش یا ذخیره میشود، احتمال بروز نگرانیهای مربوط به حریم خصوصی ایجاد میشود. اطمینان از مطابقت سیستم هوش مصنوعی با مقررات حفاظت از داده ضروری است. علاوه بر این، اطمینان از جمع آوری و پردازش ایمن دادههای شخصی برای محافظت از حریم خصوصی افراد نیز اهمیت بسیاری دارد.
نظارت انسانی
فنآوریهای هوش مصنوعی باید طوری طراحی شوند که مسئولیت تصمیمهای گرفته شده را بر عهده گیرند. این امر مستلزم ایجاد خطوط شفاف پاسخگویی و تضمین نظارت انسانی در فرآیندهای تصمیم گیری حیاتی است. در موارد پیامدهای منفی، باید مشخص شود که چه کسی مسئول رسیدگی و اصلاح مسائل است.
هیئتهای بازبینی اخلاقی میتوانند راهنمایی و نظارت ارزشمندی را در طول توسعه هوش مصنوعی ارائه دهند. این هیئتها متشکل از کارشناسان بین رشتهای هستند که پیامدهای اخلاقی پروژههای هوش مصنوعی را بررسی و ارزیابی میکنند.
آموزش کارکنان در مورد پیامدهای اخلاقی هوش مصنوعی و ارائه آموزش به آنها در مورد چگونگی توسعه و استفاده از هوش مصنوعی اخلاقی نیز ضروری است. این امر کمک میکند مطمین شوید که همه کارکنان درگیر در توسعه یا استفاده از سیستمهای هوش مصنوعی اهمیت هوش مصنوعی اخلاقی را درک میکنند. ارائه آموزش همچنین به کارکنان کمک میکند تا چگونگی شناسایی و کاهش مسائل اخلاقی بالقوه را درک کنند.
همکاری با ارائه دهندگان اخلاقی که ارزشهای شما را در نظر گرفته و میتوانند به شما در توسعه و پیادهسازی هوش مصنوعی اخلاقی کمک کنند حیاتی است. به دنبال ارائه دهندگانی باشید که در هنگام توسعه و استفاده از سیستمهای هوش مصنوعی، تنوع و شمول، شفافیت و حقوق بشر را در اولویت قرار میدهند.