هوش مصنوعی و بیم و امیدهای انسان هوشمند و ترسان
راهرفتن روی لبه تیغ
فناوری و بهویژه هوش مصنوعی، میتواند مانند یک واحه در بیابان باشد و عطش ما را برای دانش، خروجی، بهرهوری یا قدرت سیراب کند. این در نهایت سرابی از خلقت خودمان است.
مریم مرامی-کارشناس ارشد علوم شناختی: فناوری و بهویژه هوش مصنوعی، میتواند مانند یک واحه در بیابان باشد و عطش ما را برای دانش، خروجی، بهرهوری یا قدرت سیراب کند. این در نهایت سرابی از خلقت خودمان است. حتی نام این فناوری را مصنوعی گذاشتیم و هنوز بسیاری از ما صرفا اولین خروجی را به عنوان حقیقت میپذیریم. اما چه چیزی واقعی است و ما چه چیزی را نمیبینیم؟ در روانشناسی، این گرایش از مفهومی به نام خطوط خیالی گرفته میشود. ذهن ما با اطمینان، شکافهای اطلاعاتی را پر میکند و معمولا به ما کمک میکند نتیجهگیری کنیم. گاهی مغز صرفا از اطلاعات محدودی برای ایجاد یک تصویر بزرگتر استفاده میکند. استنباط اطلاعات به انسانها کمک میکند تا سریع یاد بگیرند و با آن سازگار شوند، ولی ما را در خطر نتیجهگیری سریع قرار میدهد، همانطور که اغلب در مورد اخبار جعلی یا رسانههای جعلی عمیقا اتفاق میافتد. در بحبوحه انقلاب هوش مصنوعی، توانایی تشخیص واقعیبودن در مقابل مصنوعی هرگز مهمتر از این نبوده است. ازدستدادن علاقه به محتوای تولیدشده توسط هوش مصنوعی میتواند ناشی از چندین عامل روانی باشد. ازجمله آنها، پدیده سراب است. در ابتدا، ما مجذوب امکانات هوش مصنوعی بودیم، اما با گذشت زمان، این علاقه در واقع کمتر از انتظارات ما بود. پدیده سراب که به شکاف بین انتظارات و واقعیت اشاره دارد، شبیه شکاف بین هیاهو و عملکرد واقعی است، هرچند هوش مصنوعی به گونهای ترویج میشود که گویی جایگزین مشاغل انسانی میشود یا درک و خلاقیت در سطح انسانی دارد. دراصل، این فناوریها هنوز در مراحل ابتدایی خود هستند و مردم اغلب به دنبال احساسات یا تجربیات انسانی در داستانگویی یا آثار هنری میگردند و محتوای ایجادشده توسط هوش مصنوعی فاقد این ارتباط انسانی است و سطح ارتباط عاطفی یکسانی را برای مخاطب فراهم نمیکند. به همین دلیل، علاقه کاهش مییابد و اشتیاق اولیه به مرور زمان به ارزیابی واقعبینانه تبدیل میشود. مردم از دانشمندان انتظار دانش عمیق و بینش در مورد مسائل پیچیده دارند. مهم نیست که چقدر هوش مصنوعی پیشرفته است، در حال حاضر تقلید یا جایگزینی کامل این عمق فکری انسان، دشوار است. علاوه بر این، گفتوگوی دانشگاهی میتواند بستری برای ارتباط دوطرفه و تفکر عمیق باشد. هوش مصنوعی میتواند مکالمات را براساس اسکریپتها یا الگوریتمها ایجاد کند، اما توانایی آن برای ثبت جزئیات و عمق مکالمات آکادمیک واقعی، محدود است. پدیده سراب مرتبط با هوش مصنوعی، تعامل پیچیده بین پیشرفت سریع فناوری و انتظارات عمومی را نشان میدهد. این مهم است که پتانسیل و محدودیتهای هوش مصنوعی را درک کنیم و انتظارات واقعبینانه را تعیین کنیم. فناوری دائما در حال پیشرفت است، اما این فرایند ساده نیست و انتظارات و تصورات ما باید بر این اساس تغییر کند. آینده هوش مصنوعی همچنان روشن است، اما مسیر ممکن است پیچیدهتر و چالشبرانگیزتر از آن چیزی باشد که ما انتظار داریم.
سراب القایی
فیزیکدان نابغه، «استیون هاوکینگ» هشدار داده بود: توسعه هوش مصنوعی میتواند به پایان بشریت منجر شود. بله، نگرانیهای زیادی وجود دارد که هوش مصنوعی میتواند تواناییهای بسیار بیشتری نسبت به آنچه مردم تصور میکنند نشان دهد و اینکه میزان پیشرفت به صورت تصاعدی است. تعداد بیشماری از رهبران فناوری، خواستار توقف تحقیقات در زمینه هوش مصنوعی شدند تا زمانی که اطلاعات بیشتری در مورد خطرات بالقوه فناوری هوش مصنوعی مشخص شود. آنها نامهای را در مورد خطرات عمیق برای جامعه و بشریت امضا و ابراز نگرانی کردند و گفتند: ما باید بسیار مراقب باشیم. هرچند وعده مزایای عظیمی که هوش مصنوعی برای طیف گستردهای از بخشهای صنعت، اقتصاد، آموزش، علم، کشاورزی، پزشکی و تحقیقات به ارمغان میآورد را نمیتوان نادیده گرفت. با این حال، هشدار در مورد پیامدهای ناخواسته فناوریهای مخرب به سرعت در حال افزایش است. تواناییهای اضطراری که اغلب به عنوان قابلیتهای نوظهور یا ویژگیهای نوظهور شناخته میشوند، یکی از حوزههای مورد علاقه است که به عنوان مجموعهای از تعاملات که بهطور ناگهانی و غیرقابل پیشبینی در سیستمهای هوشمند ظاهر میشوند که از رفتارهای برنامهریزیشده ساده با مؤلفههای فردی حاصل میشود. محققان میگویند شواهدی از این رفتار را میتوان در مدلهایی مشاهده کرد که در آن سیستمهایی که برای بازی شطرنج آموزش دیدهاند، استراتژیهای منحصربهفردی برای پیشرفت ایجاد میکنند، یا در مدلهایی که رباتها زمانی که تنوع در الگوهای حرکتی که در ابتدا برنامهریزی نشده بودند، زبان را به تنهایی یاد میگیرند. ظهور جهشهای آنی و غیرقابل پیشبینی، تحقیقات گستردهای را در مورد ریشههای این تواناییها و مهمتر از آن، پیشبینیپذیری آنها انجام داده است. به این دلیل که در حوزه تحقیقات همسویی هوش مصنوعی، ظهور پیشبینینشده تواناییهای هوش مصنوعی، بهعنوان یک شاخص هشداردهنده در نظر گرفته میشود که شبکههای هوش مصنوعی با مقیاس بالا ممکن است به طور غیرمنتظرهای تواناییهای ناخواسته یا حتی خطرناک را بدون هیچ هشداری ایجاد کنند. پیرو آن، محققان دانشگاه استنفورد با انتشار مقالهای که سروصدای زیادی به پا کرد، اظهار کردند که شواهد رفتارهای غیرمنتظره مبتنی بر آماری است که ممکن است اشتباه تفسیر شده باشد و قابلیتهای نوظهور قبلی احتمالا سرابی هستند که توسط تجزیه و تحلیل محققان هدایت میشوند. تجزیه و تحلیل آماری را میتوان به روشهای مختلفی بیان کرد. محققان استدلال میکنند که وقتی نتایج در معیارهای غیرخطی یا ناپیوسته گزارش میشوند، به نظر میرسد تغییرات سریع و غیرقابل پیشبینی را نشان میدهند که بهعنوان شاخصهای رفتار نوظهور به اشتباه تعبیر میشوند. با این حال، روشهای جایگزین برای اندازهگیری همان دادهها با استفاده از متریکهای خطی، تغییرات هموار و پیوسته را نشان میدهند که برخلاف اندازهگیریهای قبلی، رفتار قابل پیشبینی را نشان میدهد. ادعاهای موجود در مورد قابلیتهای نوظهور به جای تغییرات اساسی در رفتار مدل برای وظایف خاص، توسط تحلیلهای محققان ایجاد میشود. بهعبارتی روششناسی مطالعات گذشته احتمالا منجر به نتیجهگیریهای گمراهکننده شده است. نکته مهم این است که محققان میتوانند معیارهایی را برای ایجاد قابلیتهای نوظهور و یا حذف آن انتخاب کنند. این به نتیجه چتجیپیتی مربوط میشود که نشان میدهد خروجی الگوریتم به پارامترهای تنظیمشده توسط سازنده بستگی دارد، به این معنی که در خودِ هوش مصنوعی، فضایی برای سوگیری احتمالی وجود دارد. این روزها ویژگیهای نوظهور، تیتر خبرها شده است زیرا ماشینهای هوشمند مهارتهای بیشتری کسب میکنند و درک ما از عملکرد درونی آنها مبهمتر میشود. به نظر میرسد که مهارتها لازم است تا مدلهای هوش مصنوعی بهطور قابلتوجهی توانمندتر و بالقوه خطرناکتر شوند. به همین دلیل ضروری است که ابزارهای ارزیابی دقیقی را برای ردیابی چگونگی توسعه هوش مصنوعی ایجاد کنیم. نگرانی محققان این است که چگونه کل زمینه تحقیقات هوش مصنوعی در چنین کلیپی پیشرفت میکند که از طریق کنترلهایی که پایه اصلی روش علمی بودهاند، نفوذ میکند. مشکلِ برخورد با این مدلهای بزرگ هوش مصنوعی این است که شما به مدلها دسترسی ندارید. شما حتی نمیتوانید به آنها ورودی بدهید زیرا مدلها توسط شرکتهای خصوصی کنترل میشوند. محققان اغلب مجبورند مجموعهای از داده بسازند و آنها را به شرکتها بفرستند تا مدلهایشان را اجرا کنند. سپس شرکتها خروجیها را نمرهگذاری کرده و آنها را به محقق ارسال میکنند. این شرکتها برای کمک به فروش محصولات و همچنین به حداقل رساندن عوارض جانبی مضر احتمالی که ممکن است برای کسبوکار مناسب نباشد، انگیزه دارند تا تواناییهای هوش مصنوعی را بیش از حد ارزیابی کنند. این واقعیت که مدلها خصوصی هستند و اطلاعات کنترل میشود، اجرای فرایندهای علمی را بسیار سخت میکند.
سراب مدرن
در گذشته زمانی که گوشیهای هوشمند و اینترنت یک داستان علمی تخیلی دوردست بودند، مردم هرگز نمیتوانستند تصور کنند که آینده چه خواهد بود و اعتقاد بر این بود چیزی نیست که وجود نداشته باشد! درست به همین دلیل فقط چیزی را که میبینیم باور میکنیم. اما آنچه امروز میبینیم اغلب وجود ندارد. مثل یک سراب مدرن است. فناوری ویدئویی هوش مصنوعی که ویدئوهای واقعی را با استفاده از ورودی متن ایجاد میکند - ورودی صوتی در آینده نزدیک در راه است - ما را به لبه آنچه فکر میکنیم ممکن است میبرد. آنچه میبینیم همیشه آن چیزی نیست که به نظر میرسد. این انقلاب تکنولوژیک نسخه مدرن جعبه پاندورا را باز میکند و موجی از تغییرات پیشگامانه را به راه میاندازد که سریعتر و گستردهتر از هر چیزی در سه قرن اخیر خواهد بود. اکنون زمان مناسبی برای کشف این دنیای شگفتانگیز و در عین حال گیجکننده است. برای کشف امکانات جدید در سرگرمی، سیاست، آموزش و زندگی شخصی و در عین حال پرداختن به سؤالات جدی اخلاقی. در حالی که مزایای ویدئوهای تولیدشده با هوش مصنوعی آشکار است، اما خطراتی را نیز به همراه دارند که نمیتوان نادیده گرفت. یکی از نگرانیهای اصلی، استفاده نادرست بالقوه از دیپفیکهاست؛ ویدئوهایی که نشان میدهند مردم چیزهایی را میگویند یا انجام میدهند که هرگز اتفاق نیفتاده است. این میتواند برای دستکاری افکار عمومی، بیاعتبارکردن مخالفان سیاسی، یا به تصویر کشیدن افراد مشهور در موقعیتهای سازشکار استفاده شود. خطر دیگر مربوط به حریم خصوصی و امنیت است: با دادههای کافی، هوش مصنوعی میتواند آنقدر واقعبینانه از یک فرد تقلید کند که حتی کارشناسان در تشخیص واقعی و جعلی با مشکل مواجه شوند که میتواند منجر به از دست دادن اعتماد به محتوای دیجیتال شود و پایههای جامعه اطلاعاتی ما را متزلزل کند. بهعنوان مثال فناوری جدیدی را تصور کنید که به زودی میتواند به واقعیت تبدیل شود: صفحهنمایش را روشن میکنید و ناگهان با تصویر کامل خود روبهرو میشوید - تغییر، منیت شما، که دقیقا و بدون نقص تا کوچکترین جزئیات از شما تقلید میکند. لباسهای همسان، همان صدا، همان چشمان. این دوبل دیجیتال نه خطاهای پیکسلی و نه دیدگاههای تحریفشده را نشان میدهد، بلکه نمایشی کاملا واقعی از خودتان است. بسته به برنامهنویسی، این داپلگانگر دیجیتال میتواند به شیوهای تحسینآمیز یا تهدیدآمیز پاسخ دهد. در یک سناریوی وحشتناک، همتای شما میتواند محرمانهترین اسرار شما را فاش کند و آنها را در تمام کانالهای تلویزیونی و رسانههای اجتماعی پخش کند، مگر اینکه مبلغ مشخصی را به حسابی مشخص پرداخت کنید. با این حال شما شهروندی شرافتمند و بیتقصیر هستید و از هرگونه تخلفی مبرا هستید. شما رفتاری مثالزدنی دارید و شایسته احترام هستید. اما چه کسی باور میکند که اگر یک نسخه واقعی و متمایز از شما در تلویزیون به گناه خود اعتراف کند؟ چگونه ممکن است چنین تصویر واقعبینانهای از شما وجود داشته باشد. تعجب خواهید کرد که هر چند وقت یک بار تصویر شما بر روی تلفنهای همراه متعدد چه عمدا یا ناخواسته گرفته میشود. با توجه به خطرات محتوای تولیدشده توسط هوش مصنوعی، واضح است که اقدامات نظارتی قوی لازم است. کارشناسان خواستار توافقنامهها و قوانین بینالمللی برای تنظیم تولید و توزیع این فناوریها هستند. یک ایده امیدوارکننده ایجاد یک نهاد بینالمللی است که یک واترمارک تغییرناپذیر را در تمام ویدئوهای تولیدشده توسط هوش مصنوعی تعبیه کند. این به عنوان یک «اثر انگشت» دیجیتال عمل میکند تا به وضوح منشأ و اعتبار یک ویدئو را شناسایی کند که نمادی از تعهد به امنیت و اخلاق در دنیای دیجیتال است. اما حتی با وجود چنین چارچوب بینالمللی، مکانیسمهای نظارتی و اجرائی باید برای اطمینان از رعایت قوانین توسط همه طرفهای درگیر ایجاد شود. علیرغم این اقدامات، چالش همچنان باقی است که مجرمان با انگیزه بالا یا حتی بازیگران دولتی میتوانند به طور بالقوه راههایی برای دورزدن این اقدامات امنیتی بیابند و رقابت تسلیحاتی دائمی بین فناوریهای امنیتی و روشهای دورزدن آنها ایجاد کنند. مجرمان میتوانند از ویدئوهای تولیدشده توسط هوش مصنوعی برای باجگیری از افراد با محتوای جعلی و سازشآور استفاده کنند که اعتماد عمومی را تضعیف میکند و میتواند مشاغل را از بین ببرد. بزرگترین خطر این فناوری در ایجاد اخبار جعلی متقاعدکننده نهفته است که میتواند از طریق ویدئوهای پخش سریع حاوی اظهارات نادرست از شخصیتهای سیاسی قبل از افشای آنها آسیب قابل توجهی ایجاد کند. این میتواند اعتماد به ارتباطات سیاسی را تضعیف کند، نارضایتی از سیاست را ترویج دهد و تأثیر مستقیمی بر نتایج انتخابات داشته باشد. بازیگران خارجی نیز میتوانند از چنین ویدئوهایی برای دامنزدن به ناآرامیهای سیاسی و تهدید امنیت جهانی استفاده کنند. در زمانی که اطلاعات، سریعتر از آن چیزی که صحت آن قابل تأیید است منتشر میشود، فرایندهای دموکراتیک به طور جدی در خطر است.
نورالینک سراب است یا شاهکار
اخیرا اخباری منتشر شد مبنیبر اینکه نورالینک -یک استارتآپ علوم اعصاب آمریکایی که توسط ایلان ماسک، مدیرعامل تسلا تأسیس شده است- یک تراشه رابط مغز و کامپیوتر (BCI) را در مغز انسان کاشته است. ایلان ماسک گفت: «بیمار بهخوبی بهبود مییابد». خواندن سیگنالهای مغز درنهایت به معنای توانایی رمزگشایی مغز است. ماسک درعینحال گفت: افرادی که دچار ناتوانی اندام هستند، اولین استفادهکننده خواهند بود. این بدان معناست که میتوان راهحلی برای غلبه بر بیماریهای عصبی مختلف از جمله کوادریپلژی (Quadriplegia) پیدا کرد. کوادریپلژی نوعی از فلج است که در این حالت، انسان حس و کنترل در دستها و پاهای خود را از دست میدهد و به فلج چهاراندام معروف است که در پی آسیبهای شدید به مغز یا نخاع پدید میآید. مردم سراسر جهان هیجانزده هستند که آیندهای که آنها تصور میکردند، به واقعیت تبدیل خواهد شد. آیا نورالینک ماسک، دنیای جدیدی را برایمان باز خواهد کرد یا یک سراب موقتی است؟ اولین پیوند نورالینک هشت ماه پس از تأیید آزمایشات بالینی توسط سازمان غذا و داروی ایالات متحده (FDA) در سال گذشته انجام شد و با پذیرش شرکتکنندگان برای کارآزمایی بالینی برای کاشت یک تراشه کامپیوتری در مغز انسان، این موضوع داغتر شد. از سوی دیگر، تخمین زده میشود که در مجموع هزارو 500 حیوان، از جمله گوسفند، خوک و میمون، در نتیجه آزمایشهای نورالینک از سال ۲۰۱۸ مردهاند. اگرچه در مورد سوءاستفاده اختلاف نظر وجود داشت، اما چرا FDA ایالات متحده، آزمایشات بالینی را بر روی انسان مجاز دانست؟ هدف پزشکی عالی خواهد بود تنها به این دلیل که یک فناوری رؤیایی به بیمارانی که نمیتوانند راه بروند اجازه میدهد راه بروند. اولین بیمار کاشت تراشه چه نوع آزمایشاتی را انجام خواهد داد؟ از اولین بیماران انتظار میرود که با حرکتدادن تلفن همراه، رایانه یا ماشین تنها با استفاده از افکار خود، وظایف خاصی را انجام دهند. ماسک ادعا میکند که هرچیزی که از طریق مغز قابل کنترل باشد، امکانپذیر است. این بدان معناست که بیماریهایی مانند چاقی، اوتیسم، افسردگی و اسکیزوفرنی قابل درمان هستند. البته واکنش دانشگاهیان هم خالی از لطف نیست. پروفسور میگوئل نیکورلیس از دانشگاه دوک، بهشدت از این تحقیق انتقاد کرد و گفت: «این تحقیق از تحقیقات سایر محققان تقلید میکند، بههیچوجه نوآورانه نیست و به جای درنظرگرفتن تأثیر آن بر انسان، بر فناوری تمرکز دارد». نورالینک چیزی نیست جز تکرار تحقیقات قبلی و تظاهر به اینکه نتایج شگفتانگیزی به دست آورده است. افراد زیادی هستند که از فناوری استقبال میکنند. پس از اجرا، هرچیزی که تصور میکنیم به واقعیت تبدیل میشود. خاطرات را نیز میتوان ذخیره کرد. هرچیزی که بخواهید ممکن میشود. ایلان ماسک چه نوع برنامهای دارد؟ در کوتاهمدت، او قصد دارد ناتوانیها و بیماریها را درمان کند، اما در درازمدت، او ذخیره و بارگیری کل مغز انسان را در خارج از خود در نظر میگیرد و به مردم اجازه میدهد تا به طور مجازی «برای همیشه» زندگی کنند. آزمایشهای بالینی نورالینک یکی از دروازههای تکمیل تصویر ماسک است. حتی اگر مرحله کاشت تراشه تثبیت شود، این سؤال وجود دارد که آیا میتوان به هدف بعدی دست یافت؟ حتی اگر این آزمون با موفقیت به پایان برسد، با مسائل اخلاقی آن مواجه خواهد شد. سؤال اینجاست که آیا ترکیب انسان و ماشین واقعا درست است؟ نگرانیهایی وجود دارد که این امر میتواند خطری جدی برای کرامت انسانی ایجاد کند. مسیر نورالینک هموار نخواهد بود، عوامل خطرناک مختلفی وجود دارد؛ ولی بااینحال، جذاب است. اگرچه وظایف گامبهگام بسته به موفقیت آزمون باقی میماند، اما واضح است که در آینده تأثیر قابل توجهی بر بازار جهانی خواهد داشت. اگر این یک آینده طبیعی است که بشریت باید با آن مواجه شود، ما باید برای آن آماده شویم. حتی اگر شکست بخورد، این فناوری است که روزی در عصر هوش مصنوعی باید با آن روبهرو شویم. اگر دقت کنید مجبور نیستید فریب سراب را بخورید.
برای تبدیلشدن به یک دوره جدید، نه یک سراب
این روزها به هرکجا که میروم، فقط در مورد چتجیپیتی صحبت میشود. از آنجایی که به عنوان منبع باز منتشر شده است و هرکسی میتواند از طریق اینترنت به آن دسترسی داشته باشد، ما توانستهایم تجربه کنیم که هوش مصنوعی چقدر برای ما پیشرفته شده است. هوش مصنوعی که زمانی شبیه چیزی از دنیای دیگری به نظر میرسید، اکنون عمیقتر به زندگی روزمره ما نفوذ کرده است. هوش مصنوعی باز -که با انتشار چتجیپیتی بیش از شوک و ترس را به صنعت وارد کرد- درحالحاضر با پیشیگرفتن از گوگل، در روند نوآوری در هوش مصنوعی پیشرو است. چتجیپیتی مجهز به الگوریتم یادگیری تقویتی است که محتوای مکالمه را از طریق گفتوگو با کاربران یاد میگیرد و جمعآوری میکند، سپس به سؤالات کاربر گوش میدهد و پاسخهای بهینهتری ارائه میدهد. این هیولایی است که متون منتشرشده توسط صدها میلیون کاربر در سراسر جهان را براساس ۱۷۵ میلیارد پارامتر، فورا یاد میگیرد. به عبارت دیگر، هرچه کاربران بیشتر از آن استفاده کنند، هوش چتجیپیتی بالاتر میرود. به زبان ساده، ماشینی است که در مدتزمان کوتاهی مقادیر بیشماری از دادهها را طبقهبندی کرده و یاد میگیرد و نتایج بهینه را تولید میکند. استفاده از چتجیپیتی واقعا بیپایان است زیرا از تمام اطلاعات موجود در اینترنت پر میشود و یاد میگیرد. چتجیپیتی میتواند شما را به یک گزارشگر، شاعر یا آهنگساز تبدیل کند و حتی میتواند جایگزین یک پلتفرم سایت جستوجو شود. هوش مصنوعی که به پردازش ساده اطلاعات محدود میشد، تنها در عرض پنج سال به سطح پیش از خلاقیت رسیده است. در این مرحله، لازم است به موقعیت گوگل که منجر به جنون هوش مصنوعی شد، نگاهی بیندازیم. در واقع، گوگل حتی قبل از انتشار چتجیپیتی در سال ۲۰۱۷، با عرضه مدلی به نام Transformer، صنعت هوش مصنوعی را پیشتاز کرده است. گوگل به این دلیل مشهور است که شرکتی است که به توسعه «هوش مصنوعی با هوشیاری انسانمانند» نزدیکتر شده است. گوگل که مهارت و قابلیتهای فناورانهای را در هوش مصنوعی محاورهای و هوش مصنوعی مولد نشان میدهد، هنوز هم به محدودیتهای هوش مصنوعی اشاره میکند حتی در این لحظه که چتجیپیتی رهبری این جنون را برعهده دارد. گوگل شرکتی است که هوش مصنوعی را نه به عنوان یک سراب، بلکه به عنوان پیوندی میداند که میتواند عصر جدیدی را بگشاید. برای اینکه این اتفاق بیفتد، مهمترین شرایط باید رعایت شود؛ به عبارت دیگر، هوش مصنوعی باید به دادههای با کیفیت بالاتر و پیشرفتهتر دسترسی داشته باشد. بسیاری از هوشهای مصنوعی، از جمله چتجیپیتی فعلی، توانایی بسیار خوبی برای یادگیری مداوم دارند، اما نمیتوانند قضاوت کنند که کدام اطلاعات معتبر و کدام اطلاعات نادرست است. در نتیجه، چتجیپیتی اغلب پاسخهای کتبی به سؤالات و درخواستهای کاربر ارائه میدهد. مطالعه تمام دادههای موجود در اینترنت یک روش مطالعه احمقانه و وقتگیر است. یک دانشآموز خوب فقط نکات کلیدی و اطلاعات معتبری را که در آزمون ظاهر میشود، یاد میگیرد، حفظ میکند و میفهمد؛ اما هوش مصنوعی هنوز به این سطح نرسیده است. این به این دلیل است که دادههای اینترنتی نادرست است و علاوهبراین، هوش مصنوعی نمیتواند دادههای پیشرفته مانند مقالات دانشگاهی مورد نیاز برای حل آینده را بیاموزد. افشای دادههای با کیفیت، شرط رشد هوش مصنوعی مولد است. برای مثال، هوش مصنوعی مولد کنونی مانند چتجیپیتی میتواند بهراحتی متن و تصاویر اصلی را بفهمد و یاد بگیرد، اما نمیتواند فرمولها و نمودارهای پیچیدهای را که توسط محققان در مقالات دانشگاهی استفاده میشود، درک کند. تفسیر دادههای امآرآی و سیتیاسکن و نتایجی که محققان برای مبارزه با سرطان و بیماریهای صعبالعلاج تجزیهوتحلیل کردهاند برای هوش مصنوعی دشوار است. اگر دادههای با کیفیت بیشتری فاش نشود، چتجیپیتی ممکن است چیزی بیش از یک سراب نباشد. در سایتهای مقاله دانشگاهی که در آن محققان میخوانند و مینویسند، کپیرایت معمولا فقط با مجله دانشگاهی و نویسنده به اشتراک گذاشته میشود. برای مرجع، بالای ۷۰ درصد مجلات دانشگاهی در سراسر جهان پولی هستند. هوش مصنوعی مولد، مانند چتجیپیتی تنها با یادگیری از دادهها و محتوایی که توسط محققان افشا شده و تأیید شده است، میتواند به طور گستردهتری برای حل مشکلات انسانی مورد استفاده قرار گیرد. تا زمانی که مقالات دانشگاهی به دلیل مسائل مربوط به کپیرایت مسدود میشوند، هوش مصنوعی نمیتواند برای حل بیماریهای صعبالعلاج مانند سرطان استفاده شود. گوگل اشاره میکند که مدلهای هوش مصنوعی که تاکنون منتشر شدهاند، صرفنظر از نوع آنها، به دلیل اتکای بیشازحد به دادههای نامناسب که از متن و تصاویر موجود در اینترنت یاد میگیرند، با مشکل کیفیت و دقت پایین مواجه هستند. یادگیری دادههای نامناسب درنهایت میتواند برای نفرت و تفرقه طرفین مورد سوءاستفاده قرار گیرد و تنها میتواند با انتشار گسترده اطلاعات نادرست، مسائل امنیت سایبری را افزایش دهد. به همین دلیل است که گوگل ادعا میکند که هوش مصنوعی به این دلیل که فقط از دادههای اینترنتی یاد گرفته است برای بشریت مفید نیست. برای اینکه چتجیپیتی به عصر جدیدی برای بشریت تبدیل شود، محققان در هر زمینه باید هوش مصنوعی را باز کنند و نتایج تحقیقات را به اشتراک بگذارند تا هوش مصنوعی مولد بتواند دادههای با کیفیت بیشتری بیاموزد و مشکلات بشریت را بر این اساس حل کند. سال گذشته گوگل موفق شد ساختار بیش از ۲۰۰ میلیون پروتئین را از طریق برنامه هوش مصنوعی خود پیشبینی کند. این نمونه چشمگیر استفاده مؤثر از هوش مصنوعی است.
در پایان
میتوانیم از عملکرد و پتانسیل هوش مصنوعی برای تغییر دنیای خود قدردانی کنیم. همچنین باید بپذیریم که هوش مصنوعی بازتابی از انسانیت است؛ چشمگیر و درعینحال ذاتا ناقص. همانطورکه ما در این چشمانداز دیجیتال پیمایش میکنیم، بسیار مهم است که هوشیار بمانیم، اطلاعاتی را که دریافت میکنیم مورد پرسش قرار دهیم و اعتبارسنجی کنیم. با انجام این کار، میتوانیم از قدرت هوش مصنوعی به عنوان ابزاری برای رشد و نوآوری استفاده کنیم و درعینحال اطمینان حاصل کنیم که بشریت با تمام تفکر انتقادی و تشخیص خود، در خط مقدم باقی میماند. تنها در این صورت است که میتوانیم سراب را به واحهای واقعی از دانش تبدیل کنیم.