جهان چگونه باید به خودمختاری هوش مصنوعی واکنش نشان دهد؟

به گزارش خبرنگار خبرگزاری علم و فناوری آنا به نقل از گاردین، «سرنیک کلگ»، رئیس سیاست جهانی متا و معاون سابق نخست وزیر بریتانیا از درخواست‌های یک آژانس بین‌المللی برای هدایت مقررات هوش مصنوعی در صورت خودمختار شدن حمایت کرده است. به گفته وی «دولت‌ها در سطح جهانی باید از قوانین پیرامون این فناوری اجتناب کنند.»

چرا متا مدل هوش مصنوعی متن باز منتشر می‌کند؟

اما کلگ پیشنهادهای پرداخت برای خالقان محتوا مانند هنرمندان یا خبرگزاری‌هایی که کار آن‌ها برای آموزش چت‌بات‌ها و هوش مصنوعی مولد خلاصه می‌شود را رد کرد و پیشنهاد داد که چنین اطلاعاتی تحت تمهیدات خاصی در دسترس خواهند بود.

کلگ معتقد است که «سازندگانی که به جای تلاش برای مسدود کردن یا جلوگیری از استفاده از خروجی خلاقانه خود، به استفاده از این فناوری روی می‌آورند، در طولانی مدت موقعیت بهتری نسبت به کسانی خواهند داشت که خود را در برابر این فناوری قرار می‌دهند.»

چرا متا مدل هوش مصنوعی متن باز منتشر می‌کند؟

از داده‌ها باید در راستای قوانین موجود استفاده کرد. بسیاری از این داده‌ها در حال تغییر در نحوه به کارگیری توسط این مد‌ل‌های هوش مصنوعی مولد هستند. در طولانی مدت باتوجه به اینکه این مد‌ل‌ها از اطلاعات عمومی موجود در اینترنت استفاده می‌کنند، نمی‌توان جلوی پیشرفت آن را گرفت.

رئیس امور جهانی متا گفته است که «این شرکت به دنبال تعیین معیار اولیه در مورد شفافیت و کاهش ایمنی با انتشار مدل زبانی بزرگ که با مایکروسافت توسعه یافته است، خواهد بود.»

مدل‌های زبانی بزرگ یا «ال‌ال‌ام» (LLM‌)‌ها، از مجموعه داده‌هایی که به صورت آنلاین در دسترس عموم هستند برای تولید محتوای جدید استفاده می‌کنند. شتاب سریع چنین سرویس‌هایی باعث ارزیابی نگرانی‌های اخلاقی و قانونی پیرامون این فناوری از جمله مسائل کپی‌رایت، اطلاعات نادرست و امنیت آنلاین شده است.

دولت فدرال استرالیا اکنون در حال کار بر روی مقررات هوش مصنوعی است و با انتشار یک مقاله ممنوعیت استفاده‌های پرخطر از هوش مصنوعی را به همراه نگرانی‌های مطرح شده در مورد اخبار جعلی، تصمیم‌گیری خودکار و تعصب الگوریتمی اعلام کرده است.

به گفته «اد هوسیک»، وزیر صنعت و علوم استرالیا «دولت چارچوب‌های بهتری می‌خواهد تا آن‌ها بتوانند با اعتماد به نفس هوش مصنوعی را در حوزه‌هایی مانند کیفیت آب، مدیریت ترافیک و مهندسی به کار بگیرند. دوران خودتنظیمی به پایان رسیده است. ما باید انتظار داشته باشیم که قوانین و اعتبارات مناسب برای کاربردهای پرخطر هوش مصنوعی اعمال شود.»

کلگ معتقد است که «مقررات خوب، چندجانبه یا همسو با حوزه‌های قضایی اصلی خواهند بود. این فناوری از هر شرکت یا کشوری بزرگ‌تر است. اگر به صورت پراکنده ظاهر شوند، خودبه خود شکست خواهند خورد. بسیار مهم است که حوزه‌های قضایی اصلی از جمله استرالیا با دیگران همکاری کنند. در این فضای نظارتی چیزی به نام راه حل انفرادی وجود ندارد.»

به گفته وی «متا شرکت‌های فناوری را تشویق می‌کند تا دستورالعمل‌های خود را در مورد شفافیت، پاسخگویی و ایمنی تنظیم کنند، در حالی که دولت‌ها قوانین را تدوین می‌کنند. متا، مایکروسافت، گوگل، اوپن‌ای‌آی و … در حال توسعه فناوری برای کمک به کاربران در تشخیص محتوای تولید شده توسط هوش مصنوعی هستند، اما تشخیص متن تولید شده توسط هوش مصنوعی عملا غیرممکن خواهد بود.»

نظارت بر هوش مصنوعی با یک آژانس بین‌المللی

«سم آلتمن» مدیرعامل اوپن‌ای‌آی ماه گذشته پیشنهاد داد که یک آژانس بین‌المللی بر توسعه فناوری هوش مصنوعی نظارت کند و آژانس بین‌المللی انرژی اتمی را به‌عنوان مثال مطرح کرد.

کلگ از تایید چنین اقدامی برای هدایت فناوری فعلی دست نکشید و مدل‌های زبانی بزرگ را ماشین‌های حدس پیچیده توصیف کرد، اما از برخی نظارت‌های بین‌المللی در صورت قدرتمندتر شدن هوش مصنوعی حمایت کرد. به گفته وی «ایده اساسی این است که وقتی هوش مصنوعی به درجه‌ای از خودمختاری و توسعه برسد، ما به عنوان یک جهان چگونه باید واکنش نشان دهیم؟ به هر حال وقتی از آن عبور کنیم در دنیایی بسیار متفاوتی هستیم.»

در اطلاعیه حفظ حریم خصوصی آمده است که «خبرنامه‌ها ممکن است حاوی اطلاعاتی درمورد خیریه‌ها، تبلیغات آنلاین و محتوای تامین مالی شده توسط طرف‌های خارجی باشند. برای اطلاعات بیشتر به سیاست حفظ حریم خصوصی خود مراجعه کنید. ما از گوگل اسیستنت برای محافظت از وب‌سایت خود استفاده می‌کنیم و سیاست حفظ حریم خصوصی گوگل و شرایط سرویس اعمال می‌شود.»

رئیس سیاست جهانی متا گفته است که «مدل‌های زبانی بزرگی که منتشر کرده‌ایم در مقایسه با چشم‌انداز آینده بسیار ابتدایی هستند. این ماموریت ما برای ساخت هوش مصنوعی مولد نیست، این چیزی نیست که متا سعی در ساخت آن دارد. اما اگر چنین اتفاقی بیفتد، فکر می‌کنم، چه آژانس بین‌المللی انرژی اتمی باشد و چه مدل نظارتی دیگری، شما در یک بازی کاملا متفاوت قرار دارید.»

نگرانی درباره مطالب دارای حق کپی‌رایت

نگرانی دیگری که در مورد فناوری موجود مطرح می‌شود این است که چگونه مدل‌های هوش مصنوعی آموزش داده می‌شوند و چه داده‌هایی را استخراج می‌کنند که منجر به پرسش‌هایی در مورد مطالب دارای حق کپی‌رایت می‌شود.

کلگ اعتقاد دارد که «این مدل زبانی بزرگ براساس داده‌های کاربران متا آموزش ندیده است، اما به حقوق مالکیت معنوی احترام می‌گذارد. ما معتقدیم که این کار را مستقیما در راستای استانداردهای موجود برای استفاده منصفانه از داده‌ها انجام می‌دهیم. من کاملا درک می‌کنم که صاحبان کپی‌رایت شروع به مطرح کردن پرسش‌هایی در مورد اینکه دقیقا چه پیامدهایی برای مالکیت معنوی خود دارند، خواهند کرد.»

کلگ مقایسه با قانون چانه زنی رسانه‌های خبری استرالیا را رد کرد که به رسانه‌های خبری بابت ارزشی که محتوای آن‌ها برای فیسبوک به ارمغان می‌آورد، پول پرداخت می‌کرده است.

به گفته وی «ملاحظاتی در مورد اینکه چگونه اطلاعات عمومی که در محیط‌های مختلف مورد استفاده قرار می‌گیرد، باید مرکز توجه شود. حداقل به نظر ما ذاتی بودن این فناوری نکته مثبتی برای جهان است، اما من شک دارم که چیزی که شما خواهید داشت، بحث‌های بسیار مبهمی در مورد اینکه آیا داده‌ها به شکل تغییر نیافته یا به شکل تغییریافته استفاده می‌شوند، باشد.»

چرا متا مدل هوش مصنوعی متن باز منتشر می‌کند؟

رئیس سیاست جهانی متا در ادامه گفته است که «اینترنت به نوعی عمل می‌کند، به خصوص براساس اصل استفاده منصفانه که مردم می‌توانند از داده‌های در دسترس عمومی به روشی بسیار متنوع استفاده کنند. در غیر این صورت اینترنت به سادگی کار نمی‌کرد. من قبول دارم که قوانین، برای مردمی نوشته شده‌ که در آن زمان هوش مصنوعی مولد وجود نداشت.»

«میا گارلیک»، مدیر سیاست عمومی منطقه‌ای متا اعلام کرد که «این شرکت در حال بررسی برنامه‌های دولت استرالیا و ارائه بازخورد در مورد مقاله مورد بحث است. این فناوری باید مسئولانه توسعه یابد. ما از اصلاحاتی حمایت می‌کنیم که فضای به سرعت در حال توسعه هوش مصنوعی را به رسمیت می‌شناسد و از توسعه استانداردهای صنعتی برای اطمینان از نوآوری مسئولانه همه ما حمایت می کند. ما در حال حاضر تاثیر مثبت هوش مصنوعی را برای بسیاری از افراد می‌بینیم و معتقدیم که این موضوع باید به نفع همه باشد.»

دکمه بازگشت به بالا