درون جعبه سیاه
هوش مصنوعی
خلبانان لطیفهای در میان خود دارند که میگوید خدمه پرواز مطلوب شامل یک رایانه، یک خلبان و یک سگ میشود: وظیفه رایانه پرواز هواپیماست، خلبان باید غذای سگ را بدهد و وظیفه سگ آن است که اگر خلبان خواست به رایانه دست بزند او را گاز بگیرد.
خلبانان لطیفهای در میان خود دارند که میگوید خدمه پرواز مطلوب شامل یک رایانه، یک خلبان و یک سگ میشود: وظیفه رایانه پرواز هواپیماست، خلبان باید غذای سگ را بدهد و وظیفه سگ آن است که اگر خلبان خواست به رایانه دست بزند او را گاز بگیرد.
واسپاری وظایف پیچیده به رایانهها موضوع تازهای نیست. اما پیشرفتهای ناگهانی اخیر در زمینه یادگیری ماشینی که زیرشاخه هوش مصنوعی (AI) است رایانهها را قادر میسازد تا مشکلاتی را حل کنند که در گذشته از توان آنها خارج بود. نتیجه این پیشرفتها شکوفایی هوش مصنوعی است به گونهای که رایانهها در همه حوزهها از تشخیص پزشکی گرفته تا بیمه و اتومبیلهای خودران وارد شدهاند.
با این حال یک مانع وجود دارد. چگونگی کار یادگیری ماشینی به این صورت است که رایانهها این توانایی را پیدا میکنند تا خود را آموزش دهند و برنامه خود را طبق وظیفهای که بر عهده دارند سازگار سازند. مردم عادی دقیقاً نمیتوانند بفهمند این برنامههای خودنوشته چگونه میتوانند کارها را به انجام رسانند. وقتی الگوریتمها وظایف سادهای مانند بازی شطرنج یا توصیه برای تماشای یک فیلم خاص را انجام میدهند این مشکل «جعبه سیاه» را میتوان به سادگی نادیده گرفت اما وقتی آنها تصمیم میگیرند چه کسی وام دریافت کند، به کدام زندانی عفو مشروط تعلق گیرد یا چگونه یک اتومبیل در یک خیابان شلوغ شهر هدایت شود آنگاه خطرات بالقوه آشکار میشوند. و هر گاه اشتباهی پدید آید -که حتی در مورد بهترین سامانهها نیز غیرقابل اجتناب است- مشتریان، مقرراتگذاران و دادگاهها همه میخواهند دلیل آن را بدانند.
برخی افراد این را دلیلی برای محدود کردن هوش مصنوعی میدانند. منیر محجوبی وزیر اقتصاد دیجیتال فرانسه گفته است که دولت نباید از الگوریتمی استفاده کند که تصمیمات آن را نمیتوان توضیح داد. اما این واکنش زیادهروی است. با وجود قابلیتهای آیندهنگری، بسیاری از مشکلات ناشی از رایانههای هوشمند غافلگیرکننده نخواهند بود. جوامع تجربه زیادی در برخورد با جعبه سیاههای مشکلآفرین دارند که رایجترین نمونه آنها انسانها هستند. افزودن جعبههای جدید چالشهای بیشتر اما قابل کنترل را پدید میآورد. جامعه در پاسخ به اشتباهات انسانی سازوکارهای اجرایی زیادی دارد که قوانین، مقررات و قواعد نامیده میشوند. بسیاری از اینها را میتوان با اندکی دستکاری برای ماشینها نیز به کار برد.
ذهن باز داشته باشید
بگذارید از انسانها شروع کنیم. درک انسانها از درک یک رایانه بسیار دشوارتر است. وقتی دانشمندان با استفاده از دستگاههای گرانقیمت اسکن مغزی درون سر انسانها را میکاوند نمیتوانند از آنچه میبینند چیزی بفهمند. علاوه بر این، با وجود اینکه انسانها میتوانند رفتار خود را توضیح دهند این توضیحات همواره صحیح نیستند. نه صرفاً به این خاطر که افراد دروغگو یا پنهانکار هستند بلکه به این دلیل که حتی افراد راستگو نیز نمیتوانند به آنچه در ذهن ناخودآگاهشان میگذرد دسترسی کامل پیدا کنند. توضیحاتی که آنها ارائه میدهند اغلب نوعی منطقیسازی بر اساس گذشته است تا خلاصهای از کل فرآیند پیچیدهای که مغز طی میکند. یادگیری ماشینی چنین چیزی را نشان میدهد. اگر افراد میتوانستند الگوهای تفکرشان را توضیح دهند آنگاه میتوانستند دستگاهها را به گونهای برنامهریزی کنند که این الگوها را مستقیماً تکرار کنند به جای آنکه مجبور باشند به دستگاهها بیاموزند از طریق آزمایش و خطای یادگیری ماشینی معلومات کسب کنند.
اما گذشته از این فلسفهبازی پیچیده، انسانها دهههاست که در امور پیچیده با رایانهها کار میکنند. رایانهها علاوه بر پرواز هواپیماها، حسابهای بانکی را برای کشف تقلب زیر نظر دارند و در مورد ادعای خسارت بیمه نیز قضاوت میکنند. درسی که از این کاربردها میتوان گرفت آن است که افراد باید در هر زمان ممکن بر دستگاهها نظارت کنند. در لطیفهای که ابتدا اشاره شد باید گفت وجود خلبان در مواردی که امری فراتر از توان هوش مصنوعی اتفاق میافتد حیاتی است. با گسترش رایانهها، شرکتها و دولتها باید اطمینان یابند که اولین خط دفاعی یک انسان حقیقی است که میتواند در صورت لزوم الگوریتمها را از کار بیندازد.
حتی در مواردی مانند اتومبیلهای کاملاً خودران که افراد هیچ نقشی ندارند قوانین کنونی مسوولیت را میتوان به کار برد. اگر نه الگوریتم و نه برنامهریز نتوانند به طور صحیح اقدامات خود را توضیح دهند دادگاهها در پیدا کردن مقصر با مشکل مواجه خواهند شد. اما در مورد تصمیمگیری درباره اینکه آیا میشد از یک حادثه جلوگیری کرد نیازی نیست که دقیقاً بدانیم در مغز (سیلیکونی یا بیولوژیکی) چه گذشته است. در مقابل، دادگاه میتواند این سوال را مطرح کند که آیا میشد با یک اقدام متفاوت به طور منطقی از بروز اشتباه جلوگیری کرد؟ اگر پاسخ مثبت باشد مسوولیت بر عهده کسی است که محصول را فروخته یا سامانه را اداره کرده است.
نگرانیهای دیگری نیز وجود دارد. ماشینی که با دادههای قدیمی آموزشدیده ممکن است در شرایط جدیدی مانند تغییر دیدگاههای فرهنگی دچار مشکل شود. نمونههایی از الگوریتم وجود دارند که پس از آموزش توسط انسانها در نهایت مرتکب تبعیض نژادی یا جنسیتی شدهاند. اما در اینجا بحث بر سر تفاوت بین الگوریتمهای جانبدارانه و ذهنهای عدالتخواه نیست بلکه موضوع بر سر انسانهای متعصب و دستگاههای جانبدارانه و متعصبی است که آن انسانها ساختهاند. یک قاضی انسانی نژادپرست ممکن است سالها رویه غلط خود را ادامه دهد. الگوریتمی که به قضات مشاوره میدهد ممکن است هر سال در هزاران پرونده به کار رود. در این حالت دادهها آنقدر زیاد میشوند که میتوان موارد جانبداری و تعصب را به راحتی تشخیص داد و اصلاح کرد.
هوش مصنوعی بدون تردید مشکلاتی خواهد داشت اما مزایای فوقالعادهای دارد و مشکلات آن هم قابل پیشبینی هستند. افراد باید همانند ماشینها به دادهها توجه کنند. مقرراتگذاران باید نظارت مختصری داشته باشند و در صورت بروز اشتباه بلافاصله درخواست اصلاح کنند. اگر ثابت شود که جعبه سیاههای جدید فریبنده و خطاکار هستند لازم است مقررات سختگیرانهتر شود.