مقالات

ویکیپدیا به سراغ هوش مصنوعی رفت

ویکیپدیا - wikipedia
نوشته شده توسط مسعود محمدی

بهره گیری ویکیپدیا از هوش مصنوعی برای توسعه ویرایشگران انسانی خود با برنامه ای تحت عنوان ORES؛ هالفیکر یک دانشمند ارشد تحقیقات در موسسه‎ی Wikimedia Foundation (سازمانی که بر ویکیپدیا نظارت می کند)، یک موتور هوش مصنوعی به شیوه‎ای ساخته که چنین خرابکاری‎هایی را شناسایی کند.

ویکیپدیا دانش نامه‎ی آنلاینی است که هر فردی می‎تواند آن را ویرایش کنید. این سایت دیگر راه کسب اطلاعات توسط ما را تغییر داده است؛ ویکیپدیا با هدف استفاده از منابع متعدّد برای ایجاد یک دانش نامه، پای به عرصه وجود گذاشت؛ حالا جزو ده سایتی است که بیشتر از همه در اینترنت از آن‎ها بازدید می‎شود، و کتاب‎های قطوری نظیر World Book و Encyclopedia Britannica را به زباله‌دان تاریخ انداخته است.
ولی بدون نقص هم نیست. همین که هر فردی بتواند آن را ویرایش کند، یک مشکل تلقی می گردد؛ چرا که ممکن است اطلاعات ساختگی را سهواً و حتی گاهی عمدا وارد این دانش نامه آنلاین کنند و زمینه ساز ترویج یک اشتباه در بین آحاد جوامع باشد، که البته موارد متعددی هم در این بین در خصوص وارد کردن اطلاعات نادرست در آن توسط برخی شکل گرفته.
هالفیکر 
یک دانشمند ارشد تحقیقات در موسسه‎ی Wikimedia Foundation (سازمانی که بر ویکیپدیا نظارت می کند)، یک موتور هوش مصنوعی به شیوه‎ای ساخته که چنین خرابکاری‎هایی را شناسایی کند.
به طور کلی، معنای این حرف، کار کمتر برای ویرایشگران داوطلب است که بر مقالات ویکیپدیا نظارت می‎کنند؛ و شاید ممکن است به نوعی دیگر یک گام به جلو برای حذف این ویرایشگران نیز به شمار بیاید و میتوان گفت این مساله نمونه‎ی دیگری از هوش مصنوعی که دارد جایگزین انسان می‎شود نیز محسوب می گردد.
اما جالب است بدانید پروژه‎ی هالفیکردر واقع تلاشی برای افزایش سهیم بودن انسان در ویکیپدیا است.
یکی از مدیران بخش تحقیقات ویکی مدیا در خصوص این پروژه می گوید: “این پروژه تلاشی برای برگرداندن عنصر انسانی برای اختصاص دادن توجه انسان به جایی که بیشتر از همه، آنجا نیاز است، می‎باشد.”

تازه‌کاران را نترسانید
در گذشته، اگر شما تغییری در یک مقاله‎ی مهم ویکیپدیا وارد می‎کردید، گاهی اوقات یک پاسخ خودکار دریافت می‎کردید که شما مجاز به تغییر دادن نیستید.
این سیستم اجازه‎ی شرکت به شما در این امر را نمی‎دهد مگر اینکه یک سری قوانین را پیروی کرده باشید.
طبق تحقیقی که توسط هالفیکر و موسسه‎های آکادمیک مختلف صورت گرفته است، این امر تا حد زیادی مانع پیوستن افراد به ویرایشگران معمولی ویکیپدیا می‎شود. طی تحقیقی در سال ۲۰۰۹، مشخص شد که شرکت افراد در ویرایش مطالب ویکیپدیا، ۸ سال بعد از شروعش، کاهش یافته است.
هالفیکر می گوید: “دلیل آن این است که تازه‌واردان دیگر نمی‎مانند. ضرورتاً افرادی که در امور ویکیپدیا سهیم هستند کارآمدی برخورد با خرابکاران و افراد نامطلوبی که به ویکی می‎آیند را با ارائه‎ی یک تجربه‎ی انسانی به تازه‌واردان عوض کرده‎اند. این تجربه بسیار ربات‌وار شده است و تجربه‎ای منفی به شمار می‎رود.”

هافیکر با استفاده از این پروژه‎ی جدید هوش مصنوعی که از آن با نام Objective Revision Evaluation Service که به اختصار “ORES” یاد می‎شود، قصد دارد مشارکت افراد در ویکیپدیا را با کاربر پسندانه‌تر کردن آن برای ویرایشگران تازه‌وارد، افزایش دهد.
با استفاده از الگوریتم‎های یادگیری ماشینی متن باز با نام SciKit Learn، (کدی که در اختیار عموم افراد است)، این سرویس به دنبال این است که به صورت خودکار خرابکاران را شناسایی کند و آن‎ها را از تغییراتی که با هدف خوبی صورت گرفته‎اند، جدا سازد.
با یک نگاه دقیق‌تر به ویرایش‎های جدید، این الگوریتم‎ها می‎توانند بدون فراری دادن مشارکت کنندگانی که قصد کمک دارند، خرابکاران را شناسایی کنند.
این چنین نیست که ویکیپدیا برای جذب ویرایشگران انسانی بیشتر نیاز به ابزار خودکار دارد. قضیه این است که ویکیپدیا نیاز به ابزار خودکار بهتری برای مدیریت این ویرایشگران دارد.
الگوریتم‎های جدید هوش مصنوعی نسبتاً نمونه‎های ساده‎ای از یادگیری ماشینی هستند. آن‎ها بواسطه‎ی شناسایی کلماتی خاص، مشتقاتی از کلمات مختلف، یا الگوهای کیبوردی ویژه عمل می‎کنند.
هالفیکر همچنین می گوید:  “این سرویس نمی‎تواند جلوی هر نوع خرابکاری را بگیرد، ولی اعتقادم این است که در اکثر مواقع موفق عمل می‎کند”.

مقاله هایی که خودشان نویسنده هستند؟
اما در آنسوی میدان، غول‎های دنیای اینترنت (نظیر گوگل، فیسبوک، مایکروسافت) در حال اتخاذ استفاده از یادگیری ماشینی جدیدی به اسم یادگیری عمیق هستند. الگوریتم‎های یادگیری عمیق با استفاده از شبکه‎های عصبی، شبکه‎ای از دستگاه‎هایی که شبکه‎ی نورون‎ها در مغز انسان را شبیه سازی می کنند، سعی در شناخت کلمات گفته شده، و ترجمه‎ی آن‎ها از زبانی به زبان دیگر هستند.
مثلا با خوراندن تصاویر یک عکس به داخل یک شبکه‎ی عصبی از این دستگاه ها، شما می‎توانید به آن یاد بدهید یک سگ را بشناسد.
همچنین محققان با استفاده از همین الگوریتم‎ها شروع به ساخت سیستم‎هایی برای درک زبان طبیعی – شیوه‎ی روزمره‎ای که انسان‎ها سخن می‎گویند و می‎نویسند- کرده‎اند. با خوراندن مقادیر زیادی از زبان انسانی به شبکه‎های عصبی، آن‎ها می‎توانند به دستگاه‎ها درک یک مکالمه را یاد بدهند. با خوراندن ده‎ها هزار داستان خبری، شما می‎توانید به ماشین‎ها یاد دهید مقالات خودشان را بنویسند. در این موارد، شبکه‎های عصبی راه درازی با خبرگی و تخصص فاصله دارند. ولی آن‎ها به جهانی اشاره می‎کنند که به عنوان مثال ماشین‎ها می‎توانند ویکیپدیا را ویرایش کنند.
البته «هالفیکر» عقیده دارد که هنوز با چنین جهانی فاصله‎ی زیادی داریم و او می‎گوید حتّی اگر برسد، ویکیپدیا باز هم به انسان برای هدایت این شبکه‎های عصبی نیاز دارد. او می‎گوید: “من مطمئن نیستم که ما اصلاً به جایی برسیم که الگوریتم بر قضاوت انسان غلبه کند، یا اینکه به زودی به چنین جایی نخواهیم رسید و حتی در این مورد، ما هنوز به عنوان قسمتی از فرآیند قضاوت انسان را می‎خواهیم.”
این امر نشان از این دارد که او و موسسه‎ی ویکیپدیا در حال اجرای این الگوریتم‎ها از یک مکان مرکزی نیستند. آن‎ها این الگوریتم‎ها را به عنوان یک سرویس آنلاین عرضه می‎کنند که جامعه‎ی وسیع‌تر ویکیپدیا می‎تواند از آن به نحوی که مناسب است استفاده کند. او می‌گوید “ما داریم سعی می‎کنیم تجربه‎ی کار با آن آسان باشد و بتوان با سهولت این الگوریتم‎ها را مورد نقد قرار داد. ما می‎خواهیم یک مکالمه را ممکن کنیم، مکالمه‎ای برای حرکت دادن ما به سمتی که به شیوه‎ای بهتر از ویرایشگران جدید و محتوای جدید استفاده کنیم.” چنین چیزی هوش مصنوعی است، ولی مجدداً باید گفت انسان در آن بسیار سهیم است.

درباره نویسنده

مسعود محمدی

دیدگاه شما چیست