|

بالاخره هوش مصنوعی برای بشر خطرناک است یا خیر؟

«یان لکان» همچنین درباره کمبودهای فعلی مدل‌های زبانی بزرگ امروزی صحبت کرده است.

بالاخره هوش مصنوعی برای بشر خطرناک است یا خیر؟

به گزارش شبکه شرق،  «یان لکان»، دانشمند ارشد هوش مصنوعی متا در مصاحبه جدیدی گفته است فکر نمی‌کند هوش مصنوعی واقعاً در آستانه عبور از هوشمندی انسان باشد و نگرانی‌های مربوط به تهدید وجودی این فناوری از نظر او «کاملاً مزخرف» هستند.

به گزارش دیجیاتو، یان لکان، استاد دانشگاه نیویورک، محقق ارشد متا و برنده جایزه معتبر تورینگ، در مصاحبه‌ای با وال‌استریت ژورنال نظرات خود را بیان کرد و به سؤالاتی درمورد خطرات هوش مصنوعی برای بشریت پاسخ داد.

او درباره خطرات بالقوه هوش مصنوعی برای بشریت گفت: «باید مرا ببخشید، اما این موضوع مزخرف کامل است.»

لکان در استدلال خود می‌گوید مدل‌های زبانی بزرگ امروزی برخی قابلیت‌های کلیدی مانند حافظه مداوم، استدلال، برنامه‌ریزی و درک دنیای فیزیکی را ندارد. از نظر او، مدل‌های زبانی بزرگ (LLM) صرفاً نشان می‌دهند «شما می‌توانید زبان را دستکاری کنید» و هرگز به هو‌ش جامع مصنوعی (AGI) واقعی منجر نمی‌شود.

البته این‌طور نیست که او کاملاً به دستیابی به AGI بدبین باشد، اما به عقیده دانشمند ارشد متا، برای توسعه آن نیاز به رویکرد‌های جدید است؛ برای مثال، او به کار روی هضم‌کردن ویدیو‌ها توسط تیم تحقیقاتی بنیادی هوش مصنوعی خود در متا اشاره کرده است.

نظر متفاوت سایر پیشگامان حوزه هوش مصنوعی

لکان سال ۲۰۱۸ به‌خاطر «پیشرفت‌های مفهومی و مهندسی که شبکه‌های عصبی عمیق را به بخش مهمی از محاسبات تبدیل کرده است» همراه «یوشوا بنجیو» و «جفری هینتون» جایزه تورینگ را دریافت کرد.

هفته گذشته، هینتون همراه «جان جی. هاپفیلد» (John J. Hopfield) برای اکتشافات و اختراعات بنیادی در حوزه یادگیری ماشینی، جایزه نوبل فیزیک ۲۰۲۴ را دریافت کرد. پس از این مصاحبه، هینتون که او را «پدرخوانده هوش مصنوعی» می‌نامند، در مصاحبه‌ای گفته بود با این جایزه، ممکن است مردم نگرانی‌هایش درباره هوش مصنوعی را بیشتر درک کنند.

هینتون چند ماه قبل گفته بود اکنون که هوش این فناوری بسیار کمتر از انسان است، باید آزمایش‌های مختلفی انجام بدهند تا راه‌هایی برای کنترل آن در آینده به وجود بیاید.

«یاشوا بنجیو»، دیگر پدرخوانده هوش مصنوعی، نیز به‌تازگی در مصاحبه‌ای اختصاصی با یاهو فاینانس درباره خطرات توسعه بی‌قاعده این فناوری صحبت کرد و این کار را به ساخت هیولا‌هایی تشبیه کرد که از انسان‌ها قوی‌تر خواهند بود.

 

منبع:انتخاب 
 

 

 

 

اخبار مرتبط سایر رسانه ها