جهان چگونه باید به خودمختاری هوش مصنوعی واکنش نشان دهد؟
به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از گاردین، «سرنیک کلگ»، رئیس سیاست جهانی متا و معاون سابق نخست وزیر بریتانیا از درخواستهای یک آژانس بینالمللی برای هدایت مقررات هوش مصنوعی در صورت خودمختار شدن حمایت کرده است. به گفته وی «دولتها در سطح جهانی باید از قوانین پیرامون این فناوری اجتناب کنند.»
اما کلگ پیشنهادهای پرداخت برای خالقان محتوا مانند هنرمندان یا خبرگزاریهایی که کار آنها برای آموزش چتباتها و هوش مصنوعی مولد خلاصه میشود را رد کرد و پیشنهاد داد که چنین اطلاعاتی تحت تمهیدات خاصی در دسترس خواهند بود.
کلگ معتقد است که «سازندگانی که به جای تلاش برای مسدود کردن یا جلوگیری از استفاده از خروجی خلاقانه خود، به استفاده از این فناوری روی میآورند، در طولانی مدت موقعیت بهتری نسبت به کسانی خواهند داشت که خود را در برابر این فناوری قرار میدهند.»
چرا متا مدل هوش مصنوعی متن باز منتشر میکند؟
از دادهها باید در راستای قوانین موجود استفاده کرد. بسیاری از این دادهها در حال تغییر در نحوه به کارگیری توسط این مدلهای هوش مصنوعی مولد هستند. در طولانی مدت باتوجه به اینکه این مدلها از اطلاعات عمومی موجود در اینترنت استفاده میکنند، نمیتوان جلوی پیشرفت آن را گرفت.
رئیس امور جهانی متا گفته است که «این شرکت به دنبال تعیین معیار اولیه در مورد شفافیت و کاهش ایمنی با انتشار مدل زبانی بزرگ که با مایکروسافت توسعه یافته است، خواهد بود.»
مدلهای زبانی بزرگ یا «الالام» (LLM)ها، از مجموعه دادههایی که به صورت آنلاین در دسترس عموم هستند برای تولید محتوای جدید استفاده میکنند. شتاب سریع چنین سرویسهایی باعث ارزیابی نگرانیهای اخلاقی و قانونی پیرامون این فناوری از جمله مسائل کپیرایت، اطلاعات نادرست و امنیت آنلاین شده است.
دولت فدرال استرالیا اکنون در حال کار بر روی مقررات هوش مصنوعی است و با انتشار یک مقاله ممنوعیت استفادههای پرخطر از هوش مصنوعی را به همراه نگرانیهای مطرح شده در مورد اخبار جعلی، تصمیمگیری خودکار و تعصب الگوریتمی اعلام کرده است.
به گفته «اد هوسیک»، وزیر صنعت و علوم استرالیا «دولت چارچوبهای بهتری میخواهد تا آنها بتوانند با اعتماد به نفس هوش مصنوعی را در حوزههایی مانند کیفیت آب، مدیریت ترافیک و مهندسی به کار بگیرند. دوران خودتنظیمی به پایان رسیده است. ما باید انتظار داشته باشیم که قوانین و اعتبارات مناسب برای کاربردهای پرخطر هوش مصنوعی اعمال شود.»
کلگ معتقد است که «مقررات خوب، چندجانبه یا همسو با حوزههای قضایی اصلی خواهند بود. این فناوری از هر شرکت یا کشوری بزرگتر است. اگر به صورت پراکنده ظاهر شوند، خودبه خود شکست خواهند خورد. بسیار مهم است که حوزههای قضایی اصلی از جمله استرالیا با دیگران همکاری کنند. در این فضای نظارتی چیزی به نام راه حل انفرادی وجود ندارد.»
به گفته وی «متا شرکتهای فناوری را تشویق میکند تا دستورالعملهای خود را در مورد شفافیت، پاسخگویی و ایمنی تنظیم کنند، در حالی که دولتها قوانین را تدوین میکنند. متا، مایکروسافت، گوگل، اوپنایآی و … در حال توسعه فناوری برای کمک به کاربران در تشخیص محتوای تولید شده توسط هوش مصنوعی هستند، اما تشخیص متن تولید شده توسط هوش مصنوعی عملا غیرممکن خواهد بود.»
نظارت بر هوش مصنوعی با یک آژانس بینالمللی
«سم آلتمن» مدیرعامل اوپنایآی ماه گذشته پیشنهاد داد که یک آژانس بینالمللی بر توسعه فناوری هوش مصنوعی نظارت کند و آژانس بینالمللی انرژی اتمی را بهعنوان مثال مطرح کرد.
کلگ از تایید چنین اقدامی برای هدایت فناوری فعلی دست نکشید و مدلهای زبانی بزرگ را ماشینهای حدس پیچیده توصیف کرد، اما از برخی نظارتهای بینالمللی در صورت قدرتمندتر شدن هوش مصنوعی حمایت کرد. به گفته وی «ایده اساسی این است که وقتی هوش مصنوعی به درجهای از خودمختاری و توسعه برسد، ما به عنوان یک جهان چگونه باید واکنش نشان دهیم؟ به هر حال وقتی از آن عبور کنیم در دنیایی بسیار متفاوتی هستیم.»
در اطلاعیه حفظ حریم خصوصی آمده است که «خبرنامهها ممکن است حاوی اطلاعاتی درمورد خیریهها، تبلیغات آنلاین و محتوای تامین مالی شده توسط طرفهای خارجی باشند. برای اطلاعات بیشتر به سیاست حفظ حریم خصوصی خود مراجعه کنید. ما از گوگل اسیستنت برای محافظت از وبسایت خود استفاده میکنیم و سیاست حفظ حریم خصوصی گوگل و شرایط سرویس اعمال میشود.»
رئیس سیاست جهانی متا گفته است که «مدلهای زبانی بزرگی که منتشر کردهایم در مقایسه با چشمانداز آینده بسیار ابتدایی هستند. این ماموریت ما برای ساخت هوش مصنوعی مولد نیست، این چیزی نیست که متا سعی در ساخت آن دارد. اما اگر چنین اتفاقی بیفتد، فکر میکنم، چه آژانس بینالمللی انرژی اتمی باشد و چه مدل نظارتی دیگری، شما در یک بازی کاملا متفاوت قرار دارید.»
نگرانی درباره مطالب دارای حق کپیرایت
نگرانی دیگری که در مورد فناوری موجود مطرح میشود این است که چگونه مدلهای هوش مصنوعی آموزش داده میشوند و چه دادههایی را استخراج میکنند که منجر به پرسشهایی در مورد مطالب دارای حق کپیرایت میشود.
کلگ اعتقاد دارد که «این مدل زبانی بزرگ براساس دادههای کاربران متا آموزش ندیده است، اما به حقوق مالکیت معنوی احترام میگذارد. ما معتقدیم که این کار را مستقیما در راستای استانداردهای موجود برای استفاده منصفانه از دادهها انجام میدهیم. من کاملا درک میکنم که صاحبان کپیرایت شروع به مطرح کردن پرسشهایی در مورد اینکه دقیقا چه پیامدهایی برای مالکیت معنوی خود دارند، خواهند کرد.»
کلگ مقایسه با قانون چانه زنی رسانههای خبری استرالیا را رد کرد که به رسانههای خبری بابت ارزشی که محتوای آنها برای فیسبوک به ارمغان میآورد، پول پرداخت میکرده است.
به گفته وی «ملاحظاتی در مورد اینکه چگونه اطلاعات عمومی که در محیطهای مختلف مورد استفاده قرار میگیرد، باید مرکز توجه شود. حداقل به نظر ما ذاتی بودن این فناوری نکته مثبتی برای جهان است، اما من شک دارم که چیزی که شما خواهید داشت، بحثهای بسیار مبهمی در مورد اینکه آیا دادهها به شکل تغییر نیافته یا به شکل تغییریافته استفاده میشوند، باشد.»
رئیس سیاست جهانی متا در ادامه گفته است که «اینترنت به نوعی عمل میکند، به خصوص براساس اصل استفاده منصفانه که مردم میتوانند از دادههای در دسترس عمومی به روشی بسیار متنوع استفاده کنند. در غیر این صورت اینترنت به سادگی کار نمیکرد. من قبول دارم که قوانین، برای مردمی نوشته شده که در آن زمان هوش مصنوعی مولد وجود نداشت.»
«میا گارلیک»، مدیر سیاست عمومی منطقهای متا اعلام کرد که «این شرکت در حال بررسی برنامههای دولت استرالیا و ارائه بازخورد در مورد مقاله مورد بحث است. این فناوری باید مسئولانه توسعه یابد. ما از اصلاحاتی حمایت میکنیم که فضای به سرعت در حال توسعه هوش مصنوعی را به رسمیت میشناسد و از توسعه استانداردهای صنعتی برای اطمینان از نوآوری مسئولانه همه ما حمایت می کند. ما در حال حاضر تاثیر مثبت هوش مصنوعی را برای بسیاری از افراد میبینیم و معتقدیم که این موضوع باید به نفع همه باشد.»