ترس از هوش مصنوعی
ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعت در نامهای سرگشاده اعلام کردند که خواستار توقف ششماهه سیستمهای آموزشی قدرتمندتر از مدل تازه راهاندازیشده GPT-4 هستند و به خطرات احتمالی آن برای جامعه و بشریت اشاره کردند.
رکنا: ایلان ماسک و گروهی از کارشناسان هوش مصنوعی و مدیران صنعت در نامهای سرگشاده اعلام کردند که خواستار توقف ششماهه سیستمهای آموزشی قدرتمندتر از مدل تازه راهاندازیشده GPT-4 هستند و به خطرات احتمالی آن برای جامعه و بشریت اشاره کردند. نامهای سرگشاده توسط مؤسسه زندگی آینده منتشر شده و به امضای بیش از هزار نفر ازجمله ماسک رسیده است. افراد در این نامه خواستار این هستند که تا زمان اجرا و ممیزی پروتکلهای ایمنی مشترک برای طرحهای آموزش هوش مصنوعی پیشرفته توسط کارشناسان، توسعه آن متوقف شود. در این نامه آمده است: «سیستمهای قدرتمند هوش مصنوعی تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل مدیریت خواهد بود». در این نامه همچنین خطرات بالقوه برای جامعه و تمدن توسط سیستمهای هوش مصنوعی رقابتی در قالب اختلالات اقتصادی و سیاسی شرح داده شده و از توسعهدهندگان خواسته شده است تا با سیاستگذاران در زمینه حاکمیت و مقامات نظارتی همکاری کنند.
این نامه در حالی منتشر میشود که نیروی پلیس اتحادیه اروپا (یوروپل) روز دوشنبه به گروهی از نگرانیهای اخلاقی و قانونی در مورد هوش مصنوعی پیشرفته مانند چت جیپات پیوست و درمورد سوءاستفاده احتمالی از سیستم در تلاشهای فیشینگ، اطلاعات نادرست و جرائم سایبری هشدار داد. چت جیپال از زمان انتشار آن در سال گذشته توسط OpenAI با پشتیبانی مایکروسافت، رقبا را بر آن داشت تا توسعه مدلهای زبان بزرگ مشابه را تسریع کنند و شرکتها مدلهای هوش مصنوعی مولد را در محصولات خود ادغام کنند. یکی از سخنگویان زندگی آینده به رویترز گفت که سم آلتمن، مدیر اجرائی OpenAI، این نامه را امضا نکرده است. گری مارکوس، استاد دانشگاه نیویورک که نامه را امضا کرده، اظهار کرد که باید سرعت خود را برای توسعه هوش مصنوعی کم کنیم تا زمانی که عواقب آن را بهتر درک کنیم زیرا آنها میتوانند آسیب جدی به بار آورند.