زبان شناسی علوم شناختی

زنگ خطر برای پروژه هوش مصنوعی، ظهور ماشین های نژادپرست

ki1b
نوشته شده توسط تیم تحریریه علمنا

ماشین های نژادپرست. این عنوان در ابتدا ممکن است بی ربط به نظر برسد چرا که نژادپرستی یک رفتار انسانی است و تصور آنکه یک کامپیوتر یا ماشین نژاد پرست باشد ساده نیست. اما اینک مشخص شده که سیستم های هوش مصنوعی در کنار یادگیری زبان از محتوای تکست ها گاهی تفکر قالبی stereotype و اصطلاحا کلیشه های آن متون را نیز فرا می گیرند. بر اساس یک آزمون برخی از برنامه های کامپیوتری همان پیش داوری های نژادپرستانه یا کلیشه های جنسیتی را به کار می گیرند که بسیاری از مردم در زندگی روزمره اجتماعی در رفتار خود علنی می کنند. این مساله ممکن است حال حاضر مشکل چندان جدی به نظر نرسد اما بی تردید در آینده با به عهده گرفتن وظایف اجتماعی توسط سیستم های هوش مصنوعی می تواند به یک دردسر بزرگ تبدیل شود.
سیستم های کامپیوتری هوش مصنوعی که رفتار انسانی را تقلید می کنند به تدریج توانایی شگفت آوری پیدا می کنند. این ماشین های هوش مصنوعی می توانند زبان ها و تصاویر و متون را رده بندی کنند و حتی بنویسند. آنها یاد می گیرند که چگونه به صورت متقابل از یکدیگر بیاموزند و با وظایف پیچیده که به آنها داده می شود کنار بیایند. سیستم های هوش مصنوعی در سال های اخیر در بسیاری موارد نظیر بازی های پوکر و یا Go و نظایر آن بر عقل انسانی نیز چیره شده اند. برای اینکه ماشین های هوش مصنوعی بتوانند رفتارهای انسانی را تقلید کنند پیش از هر چیز باید یک سرای مسایل را بیاموزند. مهندسان نرم افزار در آغاز انبوهی از اطلاعات و دیتا را در اختیار آنها قرار می دهند. در ادامه کار سیستم های هوش مصنوعی با به کار بستن این دیتاها تلاش می کنند رفتارهای هوشمند انسانی را تقلید کنند. ماشین های هوش مصنوعی چت و یا ترجمه نه تنها باید کلمات مورد بررسی در یک متن را تشخیص دهند بلکه باید مفهوم آنها را نیز در بافت متن و با توجه به موضوع درک کنند. البته کلمه درک اینجا محل مناقشه است و اینکه آیا یک سیستم هوش مصنوعی قادر به درک مفهوم است یا خیر موضوع دیگری است. الگوریتم هایی مانند برنامه GloVe برنامه هایی هستند که وظیفه آنها درک کلمات است. این الگوریتم ها در پی یافتن رابطه بین تصاویر و کلمات بر می آیند و با یک رابطه ریاضی به آنها امتیاز می دهند. به همین روش آنها قادرند بین دو کلمه “شاعر” و “شاعره”  تمایز بگذارند و متوجه شوند اولین کلمه به جنس مذکر اشاره کرده و دومین به جنس مونث.  دانشمندان تیم آیلین کالیسکن  Aylin Caliskan از دانشگاه پرینستون با آزمون کردن توانایی های GloVe در مطالعه ای که لینک آن اینجا در دسترس است اینک دریافته اند که سیستم های هوش مصنوعی در کنار یادگیری تجزیه و تحلیل زبانی، کلیشه ها و پیش داوری های فرهنگی را نیز می آموزند.
روش مطالعه آنها یک روش شناخته شده در مطالعات روانشناسی و علوم اجتماعی است. بر مبنای این آزمون ، سوژه های آزمون بدون اطلاع داشتن از محتوای انتظارات در معرض انتخاب بین کلماتی با کلیشه های فرهنگی قرار گرفتند. مثلا در کنار کلماتی مانند (گل) نزدیکترین مفهوم که می توان آن را با گل مرتبط کرد کلمه (مطلوب) بوده و مثلا در این بافت، کلمه ی (حشره) به عنوان کلمه ای (نامطلوب) ارزیابی می شود. در برنامه GloVe مشخص شد که رفتار نژادپرستانه به تدریج پررنگ و پررنگ تر   ظاهر می شود. مثلا اسم های آفرو آمریکایی (آمریکایی های با تبار آفریقایی) اغلب به عنوان نامطلوب ارزیابی می شدند و اسم هایی که در بین سفید پوستان متداول به عنوان مطلوب. در تحلیل های سیستم هوش مصنوعی GloVe  اسم های زنانه بیشتر با هنر و اسم های مردانه بیشتر با ریاضیات ارتباط داده می شدند. اما به راستی چطور سیستم های هوش مصنوعی می توانند چنین دیدگاه فرهنگی یا کلیشه های که مختص به انسان است را بازنمایی کنند؟ پاسخ به این پرسش هم سخت است و هم آسان. سخت به این معنی که ما هنوز نمی دانیم فهم و درک در عامل های هوش مصنوعی از نظر فلسفی به چه معناست و آسان از این رو که دیتا بیس و منبع اطلاعات  این سیستم ها بر اساس کلیشه ها و تفکر قالبی است که در داده های اولیه وجود دارد. یوآخیم شارلوت Joachim Scharloth  زبان شناس از دانشگاه صنعتی درسدن می گوید متن هایی که به عنوان دیتای اولیه به خورد سیستم های هوش مصنوعی داده می شود کلمات و متونی هستند که توسط انسان نوشته شده اند. بنابراین در آنها پیش داوری های جنسیتی یا نژادپرستانه نیز لحاظ شده است. بنابراین تعجبی ندارد که ماشین ها همان چیزهایی را بیاموزند که تفکر قالب در جهان کنونی است.

درباره نویسنده

تیم تحریریه علمنا

دیدگاه شما چیست