پژوهشگران "دانشگاه استنفورد"، الگوریتمهایی را ابداع کردهاند تا به اصلاح رفتارهای منفی مانند تبعیض در سیستمهای مبتنی بر هوش مصنوعی کمک کنند.
به گزارش ایسنا و به نقل از وب سایت رسمی دانشگاه استنفورد، شاید به زودی امکان داشتن رفتار بهتر برای رباتها، خودروهای خودران و دیگر ماشینهای هوشمند فراهم شود. پژوهشگران "دانشگاه استنفورد" (stanford university)، روش جدیدی ارائه دادهاند تا به طراحان حوزه یادگیری ماشینی کمک کنند که کاربردهای هوش مصنوعی را با دوری از مواردی مانند تبعیض جنسیتی یا نژادی افزایش دهند.
هوش مصنوعی به خاطر پیشرفت الگوریتمهای یادگیری ماشینی که رایانهها را برای کارهایی مانند راندن خودرو، کنترل رباتها یا تصمیمگیری خودکار آموزش میدهند، در حال ورود به حوزه تجاری است. در هر حال همان گونه که هوش مصنوعی، اداره کارهای حساس را به دست میگیرد، میتواند پیامدهای منفی مانند تبعیض نژادی یا جنسیتی را نیز به همراه داشته باشد.
دانشگاه استنفورد با همکاری پژوهشگران "دانشگاه ماساچوست در امهرست" (UMass)، روشی ارائه دادهاند تا اطمینان لازم را برای استفاده از هوش مصنوعی فراهم کنند. هدف آنها از ابداع این روش، جلوگیری از پیش آمدن تبعیض با ارائه معیاری است که این امکان را برای الگوریتم یادگیری ماشینی فراهم میکند تا هوش مصنوعی را برای دوری از چنین رفتارهایی آموزش دهد.
"اما برونسکیل" (Emma Brunskill)، استادیار علوم رایانه دانشگاه استنفورد و از نویسندگان این پژوهش گفت: ما قصد داریم هوش مصنوعی را آنقدر ارتقا دهیم تا بتواند ارزشهای انسانی را رعایت کند و قابلیت لازم را برای استفاده در سیستمهای خودران به دست آورد.
پیشگیری از رفتارهای منفی
فرضیه پژوهشگران این بود که اگر بتوان رفتارهای غیر ایمن یا ناعادلانه را به صورت ریاضی تعریف کرد، ابداع الگوریتمهایی که میتوانند دوری از چنین رفتاری را از دادهها یاد بگیرند نیز باید امکانپذیر شود.
پژوهشگران تصمیم گرفتند روشهایی ابداع کنند که کاربران بتوانند با استفاده از آنها، رفتارهای نامطلوب را مشخص کنند و از عهده پیشبینی رفتار سیستم با استفاده از دادهها برآیند.
"فیلیپ توماس" (Philip Thomas)، استادیار علوم رایانه دانشگاه ماساچوست در امهرست و نویسنده ارشد این پژوهش گفت: ما در این پژوهش نشان دادهایم که چگونه طراحان الگوریتمهای یادگیری ماشینی میتوانند به افرادی که میخواهند هوش مصنوعی را برای ارائه محصولات و خدمات خود به کار ببرند، کمک کنند تا رفتارهای سیستم هوش مصنوعی را تحت کنترل درآورند.
عدالت و اطمینان
پژوهشگران، به آزمایش روش جدید خود پرداختند تا به بهبود الگوریتمهایی که نمرات دانشجویان را بر اساس نتیجه امتحانات آنها پیشبینی میکنند، کمک کنند. آنها در این آزمایش، دستورالعملهای ریاضی را با استفاده از یک مجموعه داده آزمایشی انجام دادند تا یک روش پیشبینی را برای پیشبینی نمره دانشجویان ارائه دهند.
الگوریتم هوش مصنوعی با کمک این دستورالعملها توانست روش بهتری را برای پیشبینی نمرات ارائه دهد که تبعیضهای جنسیتی آن بسیار کمتر از دیگر روشهای کنونی بود. روشهای پیشین، هیچ محدودیتی در زمینه عدالت و اطمینان نداشتند و محدودیت آنها نیز بیش از حد بود. این پژوهش، در مجله "Science" به چاپ رسید.