شنیده ها

اخبار ایران و جهان

شنیده ها

اخبار ایران و جهان


طبقه بندی موضوعی

اخلاق در هوش مصنوعی

۰۴/۰۴/۱۸ ۱۹:۴۶:۵۳

ندا احمدی: ‌امروزه شاید هوش مصنوعی به آن شکلی که تصور می‌کنیم وجود نداشته باشد اما باز هم بسیاری از کارهایی که روزانه انجام می‌دهیم، مانند جستجوی اینترنت یا گشت و گذار در صفحات شبکه‌های اجتماعی و غیره، همه متاثر از هوش مصنوعی است و در حقیقت در این مواقع داریم از آن استفاده می‌کنیم.

آنقدر این استفاده ناملموس است و به آن عادت کرده‌ایم که در آن لحظه حس نمی‌کنیم که داریم از هوش مصنوعی استفاده می‌کنیم. دلیل اصلی آن این است که نمی‌دانیم هوش مصنوعی واقعا چیست و چه کارهایی انجام می‌دهد. از آنجایی که آینده از آن هوش مصنوعی خواهد بود بهتر است به جای نگران بودن در مورد هوش مصنوعی یاد بگیریم که چه کارهایی را می‌توانیم با آن انجام دهیم و اطلاعاتمان را در این زمینه بیشتر کنیم.

پس بیایید از ابتدا ببینیم هوش مصنوعی چیست.

 

هوش مصنوعی چیست

هوش مصنوعی (Artificial Intelligence) یا به اختصار AI، یک شاخه از علوم کامپیوتر است که به توسعه سیستم‌ها و برنامه‌هایی می‌پردازد که قادر به انجام وظایفی هستند که معمولاً به هوش انسانی نیاز دارند. این وظایف شامل یادگیری، استدلال، حل مسئله، درک زبان طبیعی و تصمیم‌گیری می‌شود. به زبان ساده، هوش مصنوعی به ماشین‌ها امکان می‌دهد تا به‌طور خودکار فکر کنند، یاد بگیرند و عمل کنند.

 

اهداف هوش مصنوعی

اساس هوش مصنوعی آن است که هوش انسان و طریق کار آن به‌گونه‌ای تعریف شود که یک ماشین بتواند آن را به راحتی اجرا کند و وظایفی که بر آن محول می‌شود را به درستی اجرا کند. هدف هوش مصنوعی در حقیقت بر سه پایه استوار است:

 یادگیری

 استدلال

 درک

هوش مصنوعی (AI) شاخه گسترده ای از علوم رایانه است که مربوط به ساخت ماشین های هوشمند با توانایی انجام وظایفی است که معمولاً به هوش انسان نیاز دارند. هوش مصنوعی یک علم میان رشته ای با چندین رویکرد است ، اما پیشرفت در یادگیری ماشین و یادگیری عمیق باعث ایجاد تغییر الگوی تقریباً در هر بخش از صنعت فناوری می شود

 

اخلاق هوش مصنوعی چیست؟

اخلاق هوش مصنوعی به مجموعه‌ای از اصول و استانداردها اطلاق می‌شود که توسعه‌دهندگان و محققان باید در فرایند طراحی و استفاده از هوش مصنوعی رعایت کنند. این اصول شفافیت، عدالت، مسئولیت‌پذیری و احترام به حریم خصوصی کاربران را شامل است. هدف از این اصول هم اطمینان از استفاده‌ای امن و عادلانه از هوش مصنوعی است

شاید ساده‌ترین روش برای نشان دادن اخلاق هوش مصنوعی استفاده از مثال‌های واقعی باشد. در دسامبر 2022، اپلیکیشن Lensa AI از هوش مصنوعی برای تولید عکس‌های پروفایل جالب و کارتونی با کمک تصاویر معمولی افراد استفاده کرد. برخی از مردم به دلیل نداشتن اعتبار یا پول کافی به هنرمندان این حوزه انتقاد کردند. بر اساس گزارش واشنگتن پست، لنزا بر روی میلیاردها عکسی که بدون رضایت از اینترنت تهیه شده بودند، کار می‌کرد.

مثال دیگر مدل AI ChatGPT است که کاربران با طرح سوالات مختلف با آن ارتباط برقرار می‌کنند. ChatGPT اینترنت را برای یافتن داده‌ها جستجو می‌کند و با یک متن، کد پایتون یا یک پیشنهاد پاسخ می‌دهد. معضل اخلاقی این روزها این است که مردم از ChatGPT برای برنده شدن در مسابقات کدنویسی یا نوشتن مقاله استفاده می‌کنند.

اینها فقط دو نمونه رایج از اخلاق هوش مصنوعی هستند. از آنجایی که هوش مصنوعی در سال‌های اخیر رشد کرده و تقریباً بر هر صنعتی تأثیر گذاشته و اثرات مثبت زیادی بر صنایعی مانند مراقبت‌های بهداشتی دارد، موضوع اخلاق هوش مصنوعی حتی برجسته‌تر از قبل هم شده است. چگونه از هوش مصنوعی بدون تعصب اطمینان حاصل کنیم؟ برای کاهش خطرات در آینده چه کاری می توان انجام داد؟ راه‌حل‌های بالقوه زیادی وجود دارد، اما ذینفعان باید مسئولانه و مشارکتی عمل کنند تا نتایج مثبتی در سراسر جهان ایجاد شود.

 

نگرانی‌های اساسی در مورد هوش مصنوعی

تعدادی از مسائل وجود دارد که در خط مقدم گفتگوهای اخلاقی پیرامون فناوری‌های هوش مصنوعی قرار دارند. برخی از این موارد عبارتند از:

تکینگی تکنولوژیک:

بسیاری از پژوهشگران نگران این ایده نیستند که هوش مصنوعی در آینده نزدیک از هوش انسانی پیشی بگیرد، اما با توجه به توسعه فناوری‌هایی مانند خودروهای خودران، غیرمنطقی است که فکر کنیم یک خودروی بدون راننده هرگز دچار سانحه رانندگی نمی‌شود، اما در صورت وقوع حادثه چه کسی مسئول است؟

هنوز چندان درباره این موضوعات صحبت نمی‌شود، اما این‌ها انواع بحث‌های اخلاقی هستند که با توسعه فناوری جدید و خلاقانه هوش مصنوعی در حال بروز هستند.

تاثیر هوش مصنوعی بر مشاغل:

در حالی که بسیاری از تصورات عمومی در مورد هوش مصنوعی به از دست دادن شغل متمرکز است، این نگرانی احتمالاً باید اصلاح شود. با ظهور هر فناوری جدید با پتانسیل مخرب بودن و آثار سوء، می‌بینیم که تقاضای بازار برای نقش‌های شغلی خاص تغییر می‌کند. به عنوان مثال، وقتی به صنعت خودرو نگاه می‌کنیم، بسیاری از تولیدکنندگان روی تولید خودروهای الکتریکی تمرکز می‌کنند تا با ابتکارات سبز هماهنگ شوند. در واقع صنعت انرژی از بین نمی‌رود، اما منبع انرژی از مصرف سوخت به سمت برق می‌رود.

هوش مصنوعی باید به روشی مشابه مورد بررسی قرار گیرد. هوش مصنوعی تقاضای مشاغل را به مانند همین مثالی که زده شد، تغییر می‌دهد. با رشد و تغییر هر روز داده‌ها، باید افرادی وجود داشته باشند که به مدیریت این سیستم‌ها کمک کنند. بنابراین جنبه مهم هوش مصنوعی و تأثیر آن بر بازار کار، کمک به انتقال افراد به این حوزه‌های جدید تقاضا در بازار خواهد بود.

حریم خصوصی:

حریم خصوصی معمولاً در زمینه حفظ حریم شخصی داده‌ها، حفاظت از اطلاعات و امنیت داده‌ها مورد بحث قرار می‌گیرد و این نگرانی‌ها به سیاست گذاران اجازه داده است در سال‌های اخیر گام‌های بیشتری در این حوزه بردارند. به عنوان مثال در سال ۲۰۱۶، قانون GDPR برای محافظت از داده‌های شخصی افراد در اتحادیه اروپا و منطقه اقتصادی اروپا ایجاد شد و به افراد کنترل بیشتری بر داده‌های خود داد. در ایالات متحده، ایالت‌های جداگانه در حال توسعه سیاست‌هایی مانند قانون حفظ حریم خصوصی مصرف کنندگان کالیفرنیا(CCPA) هستند که از کسب و کارها می‌خواهد مصرف‌کنندگان را در مورد جمع‌آوری داده‌های خود آگاه کنند.

این قانون اخیر شرکت‌ها را مجبور کرده است که در نحوه ذخیره و استفاده از داده‌های شناسایی شخصی(PII) تجدید نظر کنند. در نتیجه، سرمایه‌گذاری در حوزه امنیت به اولویت فزاینده‌ای برای کسب ‌و کارها تبدیل شده است، زیرا آنها به دنبال حذف هرگونه آسیب‌پذیری و فرصت‌هایی برای نظارت، هک و حملات سایبری هستند.

تعصب و تبعیض:

مواردی از تعصب و تبعیض در تعدادی از سیستم‌های هوش مصنوعی، سوالات اخلاقی زیادی را در مورد استفاده از این فناوری ایجاد کرده است. چگونه می‌توانیم در برابر سوگیری و تبعیض هوش مصنوعی از خود محافظت کنیم، در حالی که خودِ داده‌های آموزشی می‌توانند خود را در معرض سوگیری قرار دهند؟

نمونه‌هایی از وجود تبعیض و تعصب در سیستم‌های هوش مصنوعی مورد استفاده شرکت‌های بزرگ فناوری دیده شده است و همچنین می‌توان آن را در تعدادی از برنامه‌های کاربردی از نرم افزارهای تشخیص چهره گرفته تا الگوریتم‌های شبکه‌های اجتماعی یافت.

در مجموع، همین طور که کسب ‌و کارها از خطرات هوش مصنوعی آگاه‌تر می‌شوند، بحث رعایت اخلاق و ارزش‌ها توسط هوش مصنوعی نیز فعال‌تر می‌شود.

مسئولیت:

از آنجایی که قانون قابل توجهی برای تنظیم شیوه‌های استفاده از هوش مصنوعی وجود ندارد، هیچ مکانیسم اجرایی واقعی برای اطمینان از اجرای اخلاقی هوش مصنوعی وجود ندارد. برای پر کردن این شکاف، چارچوب‌های اخلاقی به عنوان بخشی از همکاری بین اخلاق‌شناسان و پژوهشگران برای کنترل ساخت و توزیع مدل‌های هوش مصنوعی در جامعه پدیدار شده‌اند. با این حال آنها در حال حاضر فقط برای راهنمایی هستند و ضمانت اجرایی ندارند.

 

برخی راه‌کارها و راه حل‌ها

فناوری هوش مصنوعی پتانسیل بسیار زیادی برای بهبود کارایی، تصمیم‌گیری و تجربه کاربر در حوزه‌های مختلف دارد. با این حال، استقرار آن می‌تواند منجر به معضلات اخلاقی نیز شود. برای اطمینان از اینکه هوش مصنوعی یک نیروی مناسب است، توجه به چالش‌های اخلاقی زیر ضروری است:

قوانین و مقررات اخلاقی

قبل از اجرای هوش مصنوعی، ذینفعان باید درک کاملی از ابعاد اخلاقی آن داشته باشند. این موضوع شامل تأثیر هوش مصنوعی بر حریم خصوصی، امنیت، تعصب، تبعیض و رفاه کلی انسان است. سیاست‌گذاران، توسعه‌دهندگان و سازمان‌ها باید برای تنظیم دستورالعمل‌هایی که توسعه هوش مصنوعی را با ارزش‌های اجتماعی هماهنگ می‌کند، همکاری کنند.

در حوزه اخلاق هوش مصنوعی، همکاری بین کشورها ضروری است. سیاست‌گذاران باید برای ایجاد استانداردهای بین المللی جهت توسعه و استفاده از هوش مصنوعی با یکدیگر همکاری کنند. ابتکاراتی مانند بیانیه مونترال و مشارکت در هوش مصنوعی زمینه را برای همکاری جهانی در حکمرانی هوش مصنوعی فراهم کرده است.

سیستم‌های هوش مصنوعی می‌توانند عواقب ناخواسته‌ای داشته باشند که ممکن است به افراد یا گروه‌ها آسیب برساند. بنابراین، در نظر گرفتن حقوق بشر هنگام توسعه و استفاده از سیستم‌های هوش مصنوعی ضروری است. این موضوع شامل اطمینان از عدم استفاده از سیستم هوش مصنوعی برای تبعیض علیه افراد یا گروه‌ها است.

کشورهای سراسر جهان در حال توسعه استراتژی‌های هوش مصنوعی ملی هستند تا ضمن رسیدگی به نگرانی‌های اخلاقی، از پتانسیل هوش مصنوعی استفاده کنند. این استراتژی‌ها بر تحقیق، نوآوری، توسعه استعدادها، مدیریت داده‌ها و استقرار مسئولانه فناوری‌های هوش مصنوعی متمرکز هستند.

 

طراحی مسئولانه سیستم‌ها

الگوریتم‌های هوش مصنوعی در صورتی که به‌دقت طراحی و آزمایش نشوند، پتانسیل تداوم تعصب و تبعیض را دارند. اجرای اقدامات عادلانه در طول توسعه هوش مصنوعی برای به حداقل رساندن سوگیری و اطمینان از تصمیم گیری بی طرفانه بسیار مهم است. تکنیک‌هایی مانند پیش پردازش داده‌ها برای حذف سوگیری، استفاده از مجموعه داده‌های آموزشی متنوع و ممیزی منظم سیستم‌های هوش مصنوعی می‌تواند به کاهش تعصب کمک کند.

شفافیت برای ایجاد اعتماد در سیستم‌های هوش مصنوعی بسیار مهم است. کاربران و ذینفعان باید بدانند که هوش مصنوعی چگونه تصمیم می‌گیرد. استفاده از مدل‌های هوش مصنوعی قابل تفسیر، ارائه توضیحات برای تصمیم‌گیری‌ها و ارائه مستندات واضح از فرآیندهای هوش مصنوعی برای داشتن شفافیت ضروری است.

پرداختن به نگرانی‌های مربوط به حریم خصوصی یک جنبه ضروری در توسعه هوش مصنوعی اخلاقی است. هنگامی که داده‌های شخصی جمع‌آوری، پردازش یا ذخیره می‌شود، احتمال بروز نگرانی‌های مربوط به حریم خصوصی ایجاد می‌شود. اطمینان از مطابقت سیستم هوش مصنوعی با مقررات حفاظت از داده ضروری است. علاوه بر این، اطمینان از جمع آوری و پردازش ایمن داده‌های شخصی برای محافظت از حریم خصوصی افراد نیز اهمیت بسیاری دارد.

 

نظارت انسانی

فن‌آوری‌های هوش مصنوعی باید طوری طراحی شوند که مسئولیت تصمیم‌های گرفته شده را بر عهده گیرند. این امر مستلزم ایجاد خطوط شفاف پاسخگویی و تضمین نظارت انسانی در فرآیندهای تصمیم گیری حیاتی است. در موارد پیامدهای منفی، باید مشخص شود که چه کسی مسئول رسیدگی و اصلاح مسائل است.

هیئت‌های بازبینی اخلاقی می‌توانند راهنمایی و نظارت ارزشمندی را در طول توسعه هوش مصنوعی ارائه دهند. این هیئت‌ها متشکل از کارشناسان بین رشته‌ای هستند که پیامدهای اخلاقی پروژه‌های هوش مصنوعی را بررسی و ارزیابی می‌کنند.

آموزش کارکنان در مورد پیامدهای اخلاقی هوش مصنوعی و ارائه آموزش به آنها در مورد چگونگی توسعه و استفاده از هوش مصنوعی اخلاقی نیز ضروری است. این امر کمک می‌کند مطمین شوید که همه کارکنان درگیر در توسعه یا استفاده از سیستم‌های هوش مصنوعی اهمیت هوش مصنوعی اخلاقی را درک می‌کنند. ارائه آموزش همچنین به کارکنان کمک می‌کند تا چگونگی شناسایی و کاهش مسائل اخلاقی بالقوه را درک کنند.

همکاری با ارائه دهندگان اخلاقی که ارزش‌های شما را در نظر گرفته و می‌توانند به شما در توسعه و پیاده‌سازی هوش مصنوعی اخلاقی کمک کنند حیاتی است. به دنبال ارائه دهندگانی باشید که در هنگام توسعه و استفاده از سیستم‌های هوش مصنوعی، تنوع و شمول، شفافیت و حقوق بشر را در اولویت قرار می‌دهند.

موافقین ۰ مخالفین ۰ ۰۴/۰۴/۱۸