بزرگان صنعت هوش مصنوعی در بیانیه ای اعلام کردند؛

خطر هوش مصنوعی همتراز با بمب هسته ای است

خطر هوش مصنوعی همتراز با بمب هسته ای است
سه شنبه 9 خرداد 1402 - 20:20

بزرگان صنعت کامپیوتر خطر هوش مصنوعی را همتراز با بیماری‌های واگیردار و بمب هسته ای می دانند.

العالم - فناوری

پس از آنکه ایلان ماسک مالک شرکت‌های بزرگ تکنولوژی از جمله توئیتر و نیورالینک و شرکت خودروسازی تسلا نسبت به خطر chatGPT و سایر پروژه‌ی پردازش زبان طبیعی در مقیاس بزرگ (LLM) هشدار داده بود حالا جمعی از بزرگان صنعت هوش مصنوعی نیز در بیانیه ای یک جمله ای خطر هوش مصنوعی را همتراز با جنگ اتمی و بیماری های واگیردار اعلام کردند.

به گزارش مجله اینترنتی فناوری انگجت، سازمان غیرانتفاعی Center for AI Safety بیانیه‌ای را در یک‌جمله‌ای منتشر کرده است که می‌گوید: «کاهش ریسک انقراض توسط هوش مصنوعی باید در کنار سایر ریسک‌های بزرگ اجتماعی از جمله بیماری های همه‌گیر و جنگ هسته‌ای، به‌عنوان یک اولویت جهانی در نظر گرفته شود.»

این نامه توسط 350 نفر از بزرگان صنعت کامپیوتر از جمله «سم آلتمن»، مدیرعامل شرکت OpenAI، «دمیس هاسابیس»، مدیرعامل دیپ‌مایند گوگل و «داریو آمودی»، مدیرعامل شرکت Anthropic امضا شده است.

«جفری هینتون» و «یوشوئا بنجیو» که دو برنده جایزه تورینگ در‌زمینه شبکه‌های عصبی هستند و اغلب به‌عنوان پدرخواندگان هوش مصنوعی مدرن شناخته می‌شوند نیز از جمله امضا کنندگان این بیانیه هستند.

این دومین بیانیه در اعلام خطر هوش مصنوعی است، پیش از این در ماه مارس نیز ایلان ماسک، استیو وزنیاک (از بنیانگذاران شرکت اپل) و هزار نفر دیگر خواستار توقف 6 ماهه توسعه هوش مصنوعی شدند تا مردم نسبت به آن شناخت بیشتری پیداکنند.

تفاوت این بیانیه در اینجاست که تنها در یک جمله به بیان یک نگرانی عمومی درباره فناوری هوش مصنوعی پرداخته و از ورود به جزئیاتی که ممکن است بر سر آن‌ها اختلافاتی وجود داشته باشد، خودداری کرده است.

openAI خواستار راه‌اندازی سازمانی مشابه آژانس انرژی اتمی برای مقابله با خطرات هوش مصنوعی است

سم آلتمن و دیگر مدیران OpenAI (شرکت سازنده chatGPT) هفته گذشته در مطلبی در وبلاگ این شرکت اعلام کردند که به سازمانی بین‌المللی شبیه به آژانس انرژی اتمی نیاز است تا بتواند هوش مصنوعی را در سطح جهانی کنترل کرد. پیش‌تر نامه سرگشاده دیگری توسط سازمان غیرانتفاعی Future of Life با امضای افرادی مثل ایلان ماسک منتشر شده بود که درخواست توقف توسعه مدل‌های پیشرفته هوش مصنوعی را داشت.

اگرچه هنوز هوش مصنوعی همانطور که برخی از آن می ترسیدند (احتمالاً) خودآگاه نیست، در حال حاضر خطرات سوء استفاده و آسیب را از طریق دیپ‌فیک، تغییر صدا و ...باعث افزایش نگرانی ها شده است، از سوی دیگر پروژه های پردازش زبان طبیعی در مقیاس بزرگ (LLM) می‌توانند نحوه تولید محتوا، هنر و ادبیات را تغییر دهند و به طور بالقوه بر مشاغل متعدد تأثیر بگذارند.

دسته بندی ها :

پربیننده ترین خبرها