فناوری
هوش مصنوعی و منابع باز
نوآوری باز کانون رشد و شکوفایی هوش مصنوعی است. شبکه خنثای تحولآفرین (Transformer یا همان حرف T در GPT) که زیربنای اوپن ایآی به شمار میرود اولینبار از سوی مهندسان گوگل و در قالب طرح پژوهشی معرفی شد. گوگل و متا، به ترتیب Flow Tensor و Pytorch را ساختند که برای ساخت این شبکهها به کار میروند و آنها را با جهانیان به اشتراک گذاشتند، اما امروز برخی عقیده دارند که هوش مصنوعی بسیار مهم و حساس است و نباید در همهجا و برای هرکس در دسترس باشد. مدلهای منبع باز -یعنی آنهایی که کد زیربنایی را برای استفاده مجدد در اختیار دیگران قرار میدهند- اغلب ابزاری خطرناک تلقی میشوند. چندین اتهام علیه هوش مصنوعی منبع باز مطرح میشود. اول اینکه این فناوری به رقبای آمریکا کمک میکند. در اول نوامبر مشخص شد که پژوهشگران چینی الگوی زبانی بزرگ متا به نام Llama2 را برداشته و آن را برای اهداف نظامی سازگار کردهاند. استدلال دوم علیه هوش مصنوعی منبع باز به کاربری آن از سوی تروریستها و مجرمان برمیگردد. بنگاه مدلسازی انتروپیک (Antropic) خواستار نظارت اضطراری شد و هشدار داد مدلهای باز مخاطرات منحصربهفردی دارند و به عنوان مثال میتوان از آنها برای ساخت سلاحهای بیولوژیک استفاده کرد. حقیقت آن است که، همانند تمام فناوریها، میتوان از مدلهای منبع باز هم سوءاستفاده کرد. اما چنین اندیشهای وزن زیادی برای خطرات هوش مصنوعی منبع باز قائل میشود و ما را از توجه به منافع آن دور میکند. اطلاعات مربوط به ساخت سلاحهای بیولوژیک هماکنون در اینترنت موجود است و آنگونه که مارک زاکربرگ میگوید، هوش مصنوعی منبع باز بیشتر به مدافعان کمک میکند تا مهاجمان. علاوه بر این، مدلهای ساخت چین از برخی جهات با مدلهای متا برابری میکنند. مزایای نرمافزارهای باز به سادگی قابل مشاهده هستند. آنها در مجموع زیربنای بخش فناوری به شمار میروند و میلیاردها ابزار مورد استفاده روزانه مردم را به راه میاندازند. هماکنون بنیانهای نرمافزاری وب و الگوریتمهای اسپاتیفای برای میلیونها نفر در دسترس هستند. آزاد بودن نرمافزارها همواره به توسعهدهندگان کمک میکند تا کدهای قویتری بسازند، قابل اعتماد بودن محصولاتشان را به اثبات رسانند، حجم زیادی از کارهای داوطلبانه را جذب کنند و در برخی موارد با فروش خدمات پشتیبانی به کاربران درآمد کسب کنند. باز بودن میتواند به خلق نوآوریهای زیربنایی هوش مصنوعی منجر شود. اگر فناوری به آن اندازه که حامیانش ادعا میکنند توان بالقوه دارد پس منطقی نیست که صرفاً در اختیار چند بنگاه کالیفرنیایی باشد. مدلهای بسته برای موارد حساس یا کارهای توسعهای ضرورت پیدا میکنند. اما مدلهایی که کاملاً یا تا حدی باز هستند نیز ضروری تلقی میشوند. بنگاه «ابتکار منبع باز» (OSI) یک مدل را در صورتی دارای منبع باز میداند که بتوان آن را بارگیری (دانلود) و مطابق میل استفاده کرد یا دادههای آموزشی زیربنایی آن توصیف شده باشند. هیچکدام از مدلهای باز آزمایشگاههای بزرگی مانند علیبابا و متا در قالب این تعریف قرار نمیگیرند. اما همین آزمایشگاهها با ارائه سکوهای نیمهباز دیگران را از مدلهایشان آگاه میکنند و به آنها امکان میدهند تا از مدلها یاد بگیرند و آنها را توسعه دهند. یک دلیل برای آنکه ابتکار منبع باز مدلهای متا را دارای منبع باز نمیداند آن است که کاربری آنها به 700 میلیون کاربر در ماه محدود میشود، اما شاید به نفع متا باشد که مدلهایش را بازتر کند. هرچه مدلها بازتر باشند سکوهایش برای توسعهدهندگان جذابتر خواهند شد و احتمال بیشتری وجود دارد که فناوریهایش در آینده یک کاربری فوقالعاده پیدا کنند. دولتها نیز باید به هوش مصنوعی منبع باز اجازه رشد دهند. آنها باید قواعد یکسان نظارتی وضع و از محدودیتهایی اجتناب کنند که به بهانه محافظت از حق مالکیت معنوی دستوپای پژوهشگران را میبندند. نوآوری در فضای باز رشد میکند. این اصل هم در مورد هوش مصنوعی و هم در مورد بسیاری از فناوریهای دیگر مصداق دارد.