شناسه خبر : 26093 لینک کوتاه

درون جعبه سیاه

هوش مصنوعی

خلبانان لطیفه‌ای در میان خود دارند که می‌گوید خدمه پرواز مطلوب شامل یک رایانه، یک خلبان و یک سگ می‌شود: وظیفه رایانه پرواز هواپیماست، خلبان باید غذای سگ را بدهد و وظیفه سگ آن است که اگر خلبان خواست به رایانه دست بزند او را گاز بگیرد.

خلبانان لطیفه‌ای در میان خود دارند که می‌گوید خدمه پرواز مطلوب شامل یک رایانه، یک خلبان و یک سگ می‌شود: وظیفه رایانه پرواز هواپیماست، خلبان باید غذای سگ را بدهد و وظیفه سگ آن است که اگر خلبان خواست به رایانه دست بزند او را گاز بگیرد.

واسپاری وظایف پیچیده به رایانه‌ها موضوع تازه‌ای نیست. اما پیشرفت‌های ناگهانی اخیر در زمینه یادگیری ماشینی که زیرشاخه هوش مصنوعی (AI) است رایانه‌ها را قادر می‌سازد تا مشکلاتی را حل کنند که در گذشته از توان آنها خارج بود. نتیجه این پیشرفت‌ها شکوفایی هوش مصنوعی است به گونه‌ای که رایانه‌ها در همه حوزه‌ها از تشخیص پزشکی گرفته تا بیمه و اتومبیل‌های خودران وارد شده‌اند.

با این حال یک مانع وجود دارد. چگونگی کار یادگیری ماشینی به این صورت است که رایانه‌ها این توانایی را پیدا می‌کنند تا خود را آموزش دهند و برنامه خود را طبق وظیفه‌ای که بر عهده دارند سازگار سازند. مردم عادی دقیقاً نمی‌توانند بفهمند این برنامه‌های خودنوشته چگونه می‌توانند کارها را به انجام رسانند. وقتی الگوریتم‌ها وظایف ساده‌ای مانند بازی شطرنج یا توصیه برای تماشای یک فیلم خاص را انجام می‌دهند این مشکل «جعبه سیاه» را می‌توان به سادگی نادیده گرفت اما وقتی آنها تصمیم می‌گیرند چه کسی وام دریافت کند، به کدام زندانی عفو مشروط تعلق گیرد یا چگونه یک اتومبیل در یک خیابان شلوغ شهر هدایت شود آنگاه خطرات بالقوه آشکار می‌شوند. و هر گاه اشتباهی پدید آید -که حتی در مورد بهترین سامانه‌ها نیز غیرقابل اجتناب است- مشتریان، مقررات‌گذاران و دادگاه‌ها همه می‌خواهند دلیل آن را بدانند.

برخی افراد این را دلیلی برای محدود کردن هوش مصنوعی می‌دانند. منیر محجوبی وزیر اقتصاد دیجیتال فرانسه گفته است که دولت نباید از الگوریتمی استفاده کند که تصمیمات آن را نمی‌توان توضیح داد. اما این واکنش زیاده‌روی است. با وجود قابلیت‌های آینده‌نگری، بسیاری از مشکلات ناشی از رایانه‌های هوشمند غافلگیرکننده نخواهند بود. جوامع تجربه زیادی در برخورد با جعبه‌ سیاه‌های مشکل‌آفرین دارند که رایج‌ترین نمونه آنها انسان‌ها هستند. افزودن جعبه‌های جدید چالش‌های بیشتر اما قابل کنترل را پدید می‌آورد. جامعه در پاسخ به اشتباهات انسانی سازوکارهای اجرایی زیادی دارد که قوانین،  مقررات و قواعد نامیده می‌شوند. بسیاری از اینها را می‌توان با اندکی دستکاری برای ماشین‌ها نیز به کار برد. 

ذهن باز داشته باشید

بگذارید از انسان‌ها شروع کنیم. درک انسان‌ها از درک یک رایانه بسیار دشوارتر است. وقتی دانشمندان با استفاده از دستگاه‌های گران‌قیمت اسکن مغزی درون سر انسان‌ها را می‌کاوند نمی‌توانند از آنچه می‌بینند چیزی بفهمند. علاوه بر این، با وجود اینکه انسان‌ها می‌توانند رفتار خود را توضیح دهند این توضیحات همواره صحیح نیستند. نه صرفاً به این خاطر که افراد دروغگو یا پنهان‌کار هستند بلکه به این دلیل که حتی افراد راستگو نیز نمی‌توانند به آنچه در ذهن ناخودآگاه‌شان می‌گذرد دسترسی کامل پیدا کنند. توضیحاتی که آنها ارائه می‌دهند اغلب نوعی منطقی‌سازی بر اساس گذشته است تا خلاصه‌ای از کل فرآیند پیچیده‌ای که مغز طی می‌کند. یادگیری ماشینی چنین چیزی را نشان می‌دهد. اگر افراد می‌توانستند الگوهای تفکرشان را توضیح دهند آنگاه می‌توانستند دستگاه‌ها را به گونه‌ای برنامه‌ریزی کنند که این الگوها را مستقیماً تکرار کنند به جای آنکه مجبور باشند به دستگاه‌ها بیاموزند از طریق آزمایش و خطای یادگیری ماشینی معلومات کسب کنند.

اما گذشته از این فلسفه‌بازی پیچیده، انسان‌ها دهه‌هاست که در امور پیچیده با رایانه‌ها کار می‌کنند. رایانه‌ها علاوه بر پرواز هواپیماها، حساب‌های بانکی را برای کشف تقلب زیر نظر دارند و در مورد ادعای خسارت بیمه نیز قضاوت می‌کنند. درسی که از این کاربردها می‌توان گرفت آن است که افراد باید در هر زمان ممکن بر دستگاه‌ها نظارت کنند. در لطیفه‌ای که ابتدا اشاره شد باید گفت وجود خلبان در مواردی که امری فراتر از توان هوش مصنوعی اتفاق می‌افتد حیاتی است. با گسترش رایانه‌ها،  شرکت‌ها و دولت‌ها باید اطمینان یابند که اولین خط دفاعی یک انسان حقیقی است که می‌تواند در صورت لزوم الگوریتم‌ها را از کار بیندازد.

حتی در مواردی مانند اتومبیل‌های کاملاً خودران که افراد هیچ نقشی ندارند قوانین کنونی مسوولیت را می‌توان به کار برد. اگر نه الگوریتم و نه برنامه‌ریز نتوانند به طور صحیح اقدامات خود را توضیح دهند دادگاه‌ها در پیدا کردن مقصر با مشکل مواجه خواهند شد. اما در مورد تصمیم‌گیری درباره اینکه آیا می‌شد از یک حادثه جلوگیری کرد نیازی نیست که دقیقاً بدانیم در مغز (سیلیکونی یا بیولوژیکی) چه گذشته است. در مقابل، دادگاه می‌تواند این سوال را مطرح کند که آیا می‌شد با یک اقدام متفاوت به طور منطقی از بروز اشتباه جلوگیری کرد؟ اگر پاسخ مثبت باشد مسوولیت بر عهده کسی است که محصول را فروخته یا سامانه را اداره کرده است.

نگرانی‌های دیگری نیز وجود دارد. ماشینی که با داده‌های قدیمی آموزش‌دیده ممکن است در شرایط جدیدی مانند تغییر دیدگاه‌های فرهنگی دچار مشکل شود. نمونه‌هایی از الگوریتم وجود دارند که پس از آموزش توسط انسان‌ها در نهایت مرتکب تبعیض نژادی یا جنسیتی شده‌اند. اما در اینجا بحث بر سر تفاوت بین الگوریتم‌های جانبدارانه و ذهن‌های عدالت‌خواه نیست بلکه موضوع بر سر انسان‌های متعصب و دستگاه‌های جانبدارانه و متعصبی است که آن انسان‌ها ساخته‌اند. یک قاضی انسانی نژادپرست ممکن است سال‌ها رویه غلط خود را ادامه دهد. الگوریتمی که به قضات مشاوره می‌دهد ممکن است هر سال در هزاران پرونده به کار رود. در این حالت داده‌ها آنقدر زیاد می‌شوند که می‌توان موارد جانبداری و تعصب را به راحتی تشخیص داد و اصلاح کرد.

هوش مصنوعی بدون تردید مشکلاتی خواهد داشت اما مزایای فوق‌العاده‌ای دارد و مشکلات آن هم قابل پیش‌بینی هستند. افراد باید همانند ماشین‌ها به داده‌ها توجه کنند. مقررات‌گذاران باید نظارت مختصری داشته باشند و در صورت بروز اشتباه بلافاصله درخواست اصلاح کنند. اگر ثابت شود که جعبه‌ سیاه‌های جدید فریبنده و خطاکار هستند لازم است مقررات سختگیرانه‌تر شود.

منبع: اکونومیست

دراین پرونده بخوانید ...