هوش مصنوعی چه بر سر جامعه ما خواهد آورد؟
بُن میبریم؟
جایگزینی هوش مصنوعی با انسانها در برخی از شغلها میتواند دو جنبه متفاوت داشته باشد. از یک سو، این تکنولوژیها میتوانند بهبودهای درخورتوجهی در بهرهوری و کارایی شغلی ایجاد و در برخی از وظایف به انسانها کمک کنند و وابستگی آن وظایف به انسانها را کاهش دهند؛ اما از سوی دیگر، این تکنولوژیها میتوانند در برخی از شغلها کاملا جایگزین انسان شده و منجر به بیکاری و بیتوجهی به مهارتهای انسانی شود.
محمدجواد شاکر: هوش مصنوعی بهعنوان یکی از پیشرفتهای بزرگ علوم کامپیوتر و فناوری اطلاعات، در دهههای اخیر بهشدت در حال توسعه و پیشرفت بوده و تأثیرات عمدهای بر زندگی انسانها و جوامع گذاشته است. در این گزارش، به بررسی تأثیرات هوش مصنوعی بر زندگی روزمره انسانها و به ویژه جایگزینی آن با انسان در موقعیتهای مختلف شغلی و بیکاری احتمالی انسانها در آینده میپردازیم.
در سالهای اخیر، هوش مصنوعی بهسرعت وارد صنایع و حوزههای مختلف اقتصادی شده است. سامانهها و الگوریتمهای هوش مصنوعی با تواناییهایی مانند یادگیری، تحلیل دادهها، تشخیص الگو و تصمیمگیری، در بسیاری از وظایف و شغلها قادر به انجام عملکردهای انسانی شدهاند؛ برای مثال، در حوزه ارتباط با مشتریان، چتباتها و سیستمهای پاسخگویی خودکار با استفاده از هوش مصنوعی در حال جایگزینی با انسانها هستند. همچنین در حوزه حملونقل، خودروهای هوشمند بدون راننده که با استفاده از هوش مصنوعی و سیستمهای خودران کار میکنند، به طور کلی میتوانند مشاغل مرتبط با حملونقل را تغییر دهند.
جایگزینی هوش مصنوعی با انسانها در برخی از شغلها میتواند دو جنبه متفاوت داشته باشد. از یک سو، این تکنولوژیها میتوانند بهبودهای درخورتوجهی در بهرهوری و کارایی شغلی ایجاد و در برخی از وظایف به انسانها کمک کنند و وابستگی آن وظایف به انسانها را کاهش دهند؛ اما از سوی دیگر، این تکنولوژیها میتوانند در برخی از شغلها کاملا جایگزین انسان شده و منجر به بیکاری و بیتوجهی به مهارتهای انسانی شود.
در برخی از صنایع و شغلها، جایگزینی هوش مصنوعی با انسانها بهبودهای درخورتوجهی در بهرهوری و کارایی شغلی ایجاد کرده است؛ بهعنوان مثال، در صنعت تولید، رباتها و خطوط تولید هوشمند با استفاده از هوش مصنوعی میتوانند بهبودهای چشمگیری در سرعت و کیفیت تولید داشته باشند. در حوزه مالی، الگوریتمهای هوش مصنوعی در تحلیل دادههای مالی و پیشبینی روند بازارها به افزایش سرعت و دقت تصمیمگیری در تجارت و خرید و فروش کمک کردهاند.
با این حال، جایگزینی هوش مصنوعی با انسانها چالشها و ریسکهایی را نیز به همراه دارد. یکی از چالشهای اصلی این است که برخی از شغلها قدرتها و مهارتهای انسانی مانند خلاقیت، ارتباط انسانی، تصمیمگیری اخلاقی و حل مسئله را میطلبند که هنوز قابلیت جایگزینی با هوش مصنوعی را ندارد. همچنین، جایگزینی هوش مصنوعی با انسانها در برخی از حوزهها میتواند به بیکاری انسانها منجر شود.
این تغییرات در بازار کار و جایگزینی انسانها با هوش مصنوعی میتواند پیامدهای اقتصادی، اجتماعی و سیاسی مختلفی به همراه داشته باشد. بیکاری افزایشیافته میتواند به چالشهای اجتماعی و اقتصادی مانند کاهش درآمد، افزایش تفاوتهای طبقاتی و کاهش تقاضا در برخی از صنایع منجر شود.
بنابراین بررسی تأثیر هوش مصنوعی بر جایگزینی انسانها در شغلها و بیکاری احتمالی در آینده یک موضوع پیچیده است که نیاز به برنامهریزی، سیاستگذاری و توجه به تأثیرات اجتماعی و اقتصادی آن دارد. این موضوع نیازمند بررسی دقیق تکنولوژیهای هوش مصنوعی، تأثیرات آنها در صنایع و شغلها و طراحی راهبردها و سیاستها برای مدیریت بهینه تغییرات در بازار کار است.
هوش مصنوعی میتواند تأثیرات مثبتی هم داشته باشد. پیشرفت هوش مصنوعی میتواند با افزایش کارایی، دقت و سرعت و کاهش خطاها، بهبودهای زیادی را در زمینههای مختلف از جمله بهداشت، پزشکی، علوم مواد، کشاورزی، انرژی و محیط زیست، حملونقل و... به ارمغان بیاورد. همچنین، هوش مصنوعی میتواند به ایجاد شغلهای جدید و جایگزینی شغلهای قدیمی با شغلهای نو و فرصتهای کسبوکاری تازه منجر شود. توسعه و استفاده از هوش مصنوعی نیازمند کارشناسان و متخصصان در زمینههای مختلف مانند علوم کامپیوتر، مهندسی، طراحی رابط کاربری، امنیت و... است که میتواند فرصتهای شغلی جدیدی ایجاد کند.
برای مدیریت بهتر تأثیرات هوش مصنوعی در بازار کار و جامعه، لازم است که استراتژیها و سیاستهای مناسبی اتخاذ شود. این شامل آموزش و آمادهسازی انسانها برای تسلط بر فنون مورد نیاز در عصر هوش مصنوعی، توسعه سیستمهای اجتماعی و حمایت از افراد تحت تأثیر جایگزینی شغلی و تنظیم سیاستهای اقتصادی و اجتماعی است که بتوانند به جامعه کمک کنند تا با چالشهای ناشی از پیشرفت هوش مصنوعی در آینده مواجه شود.
همچنین مسائل اخلاقی و قانونی نیز در استفاده از هوش مصنوعی در جامعه باید مورد توجه قرار گیرد. باید تضمین شود که استفاده از هوش مصنوعی با رعایت اصول اخلاقی، حقوق انسانی و حریم خصوصی انسانها صورت میگیرد.
به طور کلی، هوش مصنوعی بهعنوان یک فناوری پیشرفته، تواناییها و چالشهای زیادی برای جامعه انسانی به دنبال داشته است. برای بهرهبرداری از مزایا و کاهش تهدیدات آن، لازم است که تصمیمگیریها به صورت مشترک و هماهنگ بین ذینفعان مختلف، از جمله افراد، سازمانها، دولتها و جامعه عمومی انجام شود. باید از رویکردهای چندفرهنگی بهرهبرداری کرد تا هوش مصنوعی به نحوی انعطافپذیر و همراه با تقویت بشریت و ارتقای کیفیت زندگی انسانها مورد استفاده قرار گیرد.
علاوهبراین، همکاری بین دانشمندان، مهندسان، فناوران، صاحبان کسبوکارها و سیاستگذاران از ضروریات استفاده هوشمندانه از هوش مصنوعی برای تأمین مصالح عمومی و توسعه پایدار جامعه است. نظارت مستمر و پایش عملکرد هوش مصنوعی، تدوین سیاستها و قوانین مناسب و ایجاد سازوکارهای ارزیابی اثرات اجتماعی و اقتصادی آن، از مواردی است که در برابر کاربرد هوش مصنوعی نیازمند توجه جدی هستند.
در نهایت، هدف باید این باشد که هوش مصنوعی بهعنوان یک ابزار قدرتمند برای بهبود زندگی انسانها و حل مسائل پیچیده جامعه استفاده شود و اثرات منفی آن بر انسانها و جامعه به حداقل رسانده شود.
گزارش جمعوجور و مختصر و مفید بالا را یک انسان ننوشته؛ بلکه هوش مصنوعی توسعهیافته در مؤسسه OpenAI که با نام ChatGpt شناخته میشود، آن را در پاسخ به این درخواست برای من نوشت:
من میخواهم در یک روزنامه عمومی ایران، گزارشی درباره هوش مصنوعی و تأثیر آن بر زندگی روزمره انسانها و بهویژه جایگزینی آن با انسان در موقعیتهای مختلف شغلی و بیکاری احتمالی انسانها در آینده بنویسم. نظر تو درباره این موضوع چیست؟
همه چیز به زبان فارسی بود، خیلی ساده و در چند خط از این سیستم مبتنی بر هوش مصنوعی خواستم درباره موضوعی که به خودش مربوط است، برایم بنویسد و او هم هیچ مضایقهای نکرد. البته اگر بخواهم صادقانه بگویم، حدود ۵ تا ۱۰ درصدی در متنش دست بردم، بعضی جاها به تکرار روی آورده بود (باید بگویم چند باری از او خواستم به نوشتنش ادامه دهد و این تکرارها تا حدی ناشی از توقف نوشتن از سوی او و ادامه آن به درخواست من بود) و بعضی جاها هم نوشتار فارسیاش خیلی روان نبود و مجبور شدم کمی آن را ویرایش کنم؛ اما در کل نتیجه کار برایم راضیکننده بود و قانعم کرد آن را در ابتدای این گزارش بیاورم، هرچند بعدش با خودم فکر کردم اگر الان این هوش مصنوعی میتواند درباره موضوعی کلی که از او خواستهام، نزدیک هزار کلمه متن شستهورفته بنویسد، شش ماه یا یک سال دیگر ممکن نیست کلا در نوشتن درباره هر موضوعی هم بهتر از من باشد و هم سریعتر و دقیقتر؟ راستش پاسخ این سؤال به احتمال زیاد مثبت است و بههمینخاطر، به نظر میرسد نویسندگی و روزنامهنگاری از جمله مشاغلی است که خطر جایگزینی انسان با هوش مصنوعی در آن بهشدت احساس میشود و باید منتظر بیکاریهای گستردهای برای روزنامهنگاران و گزارشنویسان و تولیدکنندههای محتواهای متنی و کپیرایترها و وبلاگنویسها باشیم.
ChatGPT چیست؟
ChatGPT در واقع یک بات مکالمه براساس هوش مصنوعی است که توانایی پردازش زبانهای انسانی و فهم و تحلیل آن را دارد و براساس همین فهم و درک میتواند با یک انسان مکالمه کند. این بات را مؤسسه OpenAI توسعه داده؛ مؤسسهای تحقیقاتی که هدف خودش را اطمینان از مفیدبودن هوش مصنوعی عمومی (Artificial general intelligence) برای همه انسانها بیان کرده است.
منظور از هوش مصنوعی عمومی، سیستمهایی است که به طور جامعی از انسانها باهوشتر بوده و به طور کلی هر کار فکریای را که یک انسان قادر به انجام آن است، میتوانند اجرا کنند. در مقابل هوش مصنوعی عمومی، هوش مصنوعی محدود قرار دارد. این نوع هوش مصنوعی، صرفا بر یک کارکرد خاص متمرکز است و فعالیتی متفاوت با فعالیت تعریفشده برای خودش را نمیتواند انجام دهد. بهعنوان مثال هوش مصنوعیای که برای یک بازی رایانهای توسعه یافته، تنها قادر است در همان بازی رایانهای نقش ایفا کند و برای کارکردهای دیگر، به کار نمیآید. سیستم ترجمه گوگل یا دستیار صوتی اپل نمونههای دیگری از سیستمهای هوش مصنوعی محدود هستند؛ اما هوش مصنوعی عمومی که هنوز تا دستیابی به آن فاصله داریم، میتواند هر نوع فعالیت فکری را که انسان قادر به انجام آن است، اجرا کند و هوشمندتر از مغز انسان فعالیت کند.
هر سیستم هوش مصنوعی، برای فعالیت نیاز به دادههایی دارد که براساس آنها و با شناخت الگوهای بین آنها، اصطلاحا آموزش ببیند و بعدا به کمک همین یادگیری و آموزش، دادههای جدیدی را تولید کند. سیستمهای هوش مصنوعی براساس الگوریتمهای یادگیری ماشین عمل میکنند و از شبکههای عصبی برای یادگیری و تفسیر و تحلیل و استنتاج و تصمیمگیری بهره میبرند. شبکههای عصبی با الگوگیری از نحوه عملکرد مغز انسان توسعه یافتهاند و در سالهای اخیر، با توجه به افزایش درخورتوجه دادههای در دسترس برای یادگیری سیستمهای هوش مصنوعی و نیز رشد قدرت محاسباتی رایانهها، توسعه شبکههای عصبی و مدلهای یادگیری ماشین و خروجی سیستمهای هوش مصنوعی جهش چشمگیری را تجربه کرده است.
بات ChatGPT هم برای آنکه زبان انسانها را متوجه شود و بتواند با آنها مکالمات معناداری را پیش ببرد، دادههای زیادی را در یادگیریاش مورد استفاده قرار داده؛ از صفحات دانشنامه اینترنتی ویکیپدیا تا کتابها و نشریات علمی و گزارشهای خبری موجود در اینترنت. البته این بات به دادههای بعد از سال ۲۰۲۱ میلادی دسترسی نداشته و به همین خاطر اطلاعاتش درباره وقایع اخیر ناقص است و ممکن است درباره آنها پاسخهای نادرستی به شما تحویل دهد.
از سوی دیگر باید توجه داشت که این بات یک موتور جستوجو بین هزاران هزار منبع اطلاعاتی نیست که پاسخ سؤال شما را بین آنها جستوجو کرده و به شما تحویل دهد، بلکه این بات الگوهای مشاهدهشده بین منابع در دسترسش برای یادگیری را مبنا قرار داده و براساس آنها، پاسخهایی را که به شما تحویل میدهد، خودش «تولید» میکند، نه آنکه از جای دیگری رونوشت بردارد و مقابل شما بگذارد. به همین خاطر اولا ChatGpt قادر نیست به شما بگوید که دقیقا پاسخش را از کدام منبع آورده و ثانیا کاملا محتمل است که در یک زمینه تخصصی، پاسخی کاملا گمراهکننده به شما تحویل دهد و حتی برای آن پاسخ، استدلالهایی هم بیاورد و روی ادعای غلطش، پافشاری کند. خلاصه اصلا آن را با گوگل اشتباه نگیرید. این بات هزاران هزار منبع اطلاعاتی را مطالعه و الگوهایی را مشاهده کرده و براساس آنها، میتواند در یک مکالمه شرکت کند و هم منظور شما از جملات و عباراتی را که مینویسد متوجه شود (اگر با زبان فارسی با او مکالمه کنید، حتی جملات محاورهای را هم تا حد خوبی متوجه میشود) و هم در پاسخ به آنها، جملات و عبارات معنادار و متناسب با محتوای مکالمه را تولید کند، اما از آنجا که منابع در دسترسش برای یادگیری بسیار زیاد بوده، تقریبا در هر زمینهای میتواند پاسخ شما را بدهد و درخواستهایتان را اجابت کند؛ از نوشتن یک مقاله در موضوعی خاص تا شعر گفتن و نوشتن قطعات موسیقی و ترجمه یک متن از یک زبان به زبان دیگر.
این بات از زمان عرضه عمومی، به سرعت در بین مردم محبوب شد و توانست در چند ماه به رکورد خارقالعاده صد میلیون کاربر فعال ماهانه برسد؛ عددی که تیکتاک برای رسیدن به آن ۹ ماه زمان نیاز داشت و اینستاگرام سه سال طول کشید تا به آن برسد. انگار هیچکس بدش نمیآید که مخاطبی با اطلاعات عمومی قابل توجه داشته باشد که بتواند با او از هر دری حرف بزند و مخاطبش نهتنها به حرفهایش گوش دهد و آنها را بفهمد که هیچوقت و در هیچ زمینه و موضوعی هم حرف کم نیاورد و پرچانگیاش هیچ حد و مرزی نشناسد و از همهچیز به معنای واقعی کلمه سر درآورد.
خلاقیت مصنوعی
بات مکالمه ChatGPT تنها محصول OpenAI نیست که در سالهای اخیر توجه زیادی را به خود جلب کرده است. Dall-E، محصول دیگر OpenAI، یک سیستم هوش مصنوعی است که میتواند براساس توصیف سادهای که کاربر به او ارائه کرده، یک عکس یا نقاشی متناسب با آن توصیف تولید کند؛ نقاشی یا عکسی که کاملا ساختگی است و در عین حال، در بیشتر موارد بسیار شبیه به یک عکس واقعی یا یک اثر هنری تولیدشده با دستان یک انسان به نظر میرسد.
پروژه Dall-E میتواند تصاویری با کیفیت بالا، کاملا واقعی و با جزئیات حیرتآوری تولید کند و به معنای واقعی کلمه به مفهوم هنر انسانی طعنه بزند، چراکه خلق یک اثر هنری، نیازمند ترکیبی از توانایی، خلاقیت و حس زیباییشناختی است و فراتر از قراردادن چند پیکسل کنار هم، حداقل براساس خروجیهایی که مشاهده میکنیم، Dall-E به خوبی از پس این کار برمیآید. البته که ChatGPT هم اگرچه محدود به متن است، اما میتواند شعرهایی بگوید و لطیفههایی تعریف کند که نمونههای قبلی نداشتهاند و واقعا از خودش آنها را ساخته تا خلاقیتش را به رخ انسانها بکشد.
خروجی سیستمهای هوش مصنوعی مانند ChatGPT و Dall-E وابسته به کاری است که کاربر از آنها میخواهد و خلاقیت کاربر در درخواست، میتواند محدودههای غیرقابل تصوری از خلاقیت این سیستمها را فتح کند؛ به عنوان مثال کاربری از Dall-E خواسته که «دلفینی با لباس فضانوردی» را بکشد و اینجاست که دیگر تنها مراجعه به تصویرهای قبلی و در دسترس، دردی از Dall-E دوا نمیکند و خودش باید تصمیم بگیرد که مثلا لباس فضانوردی برای یک دلفین چگونه خواهد بود؟ نور از چه جهتی میتابد؟ روی سیارهای که در پسزمینه میخواهد قرار دهد، چه خطوط رنگی بهخصوصی باید باشد؟ چه رنگهایی در عکس باید به کار رود تا خروجی، زیبایی ملموسی داشته باشد؟ اینها دقیقا همان تصمیماتی است که یک هنرمند هنگام کشیدن یک اثر هنری، بهصورت خودآگاه یا ناخودآگاه باید با آنها دستوپنجه نرم کند و از دل آنها به تولید هنر بپردازد. در واقع تعداد بسیار زیادی تصویر و نقاشی برای یادگیری در اختیار Dall-E قرار گرفته که نظر انسان درباره زیبایی و جذابیت هرکدام از آنها مشخص بوده و از این طریق، این سیستم هوش مصنوعی توانسته الگوهایی را بین تصاویر و ذائقه زیباییشناختی انسان کشف کند تا به کمک آن سلیقه انسانها را بفهمد و متناسب با آن به تولید تصاویر و نقاشیهای مختلف بپردازد.
نام Dall-E ترکیبی از نام ربات قهرمان انیمیشن Wall-E با نام هنرمند سوررئالیست اسپانیایی، سالوادور دالی است؛ از یک طرف یادآور ماشین کوچکی است که زبالههای یک تمدن انسانی در حال فروپاشی را جارو میکرد و از طرف دیگر هنرمندی که تکراریترین جملاتش عبارت بودند از «کسانی که نمیخواهند چیزی را تقلید کنند، هیچچیزی تولید نمیکنند» و «آنچه مهم است گسترش سردرگمی است، نه ازبینبردن آن».
علاوه بر Dall-E سیستمهای مبتنی بر هوش مصنوعی دیگری نیز اخیرا توسعه یافتهاند که براساس یک توصیف کوتاه که کاربر ارائه میدهد، تصاویر مختلفی را تولید میکنند. در یکی از جالبترین خروجیهای این سیستمها، عکس سلفی شخصیتهای مشهور تاریخی بازتولید شده؛ از مسیح و حواریون و ناپلئون و چنگیز مغول و اسکندر تا گاندی و مارتین لوتر کینگ و نلسون ماندلا و چارلی چاپلین و جان اف کندی و چرچیل و آلبرت اینشتین. در پروژه خلاقانه دیگری از هوش مصنوعی خواسته شده جام جهانی فوتبال را از منظر 10 کارگردان مطرح تاریخ سینما طراحی کند؛ از آلفرد هیچکاک و کوروساوا تا استنلی کوبریک و ریدلی اسکات و تارانتینو. تصاویر تولیدشده برای هر شیفته سینمایی یادآور فیلمهای شاهکاری است که این کارگردانان روی پرده نقرهای بردهاند و در نماها و قاببندیها و رنگبندیها و دیگر جزئیاتشان، امضای اختصاصیشان را به یادگار گذاشتهاند.
آینده مبهم و یک هراس واقعی
فناوریهای جدید، همواره در کنار جذابیتها و در باغ سبزهایی که نشان دادهاند، هراس را هم به جان انسان انداختهاند؛ هراسی که بیش از هر چیز از ابهامی میآید که آینده همراه با آن فناوری در آن زیست میکند. هوش مصنوعی و پیشرفتهای چند سال اخیرش و خروجیهای خارقالعاده سیستمهای مبتنی بر هوش مصنوعی که هر روز در شبکههای اجتماعی دست به دست میشود، نه تنها مردم ناآشنا با پشت پرده این فناوری، بلکه خود توسعهدهندگان و سازندگان آن را هم در بهت و حیرت و هراس فروبرده است.
سام آلتمن، مدیرعامل OpenAI، در مصاحبهای که اخیرا با abcNews داشته، از یک طرف هوش مصنوعی را بزرگترین فناوریای دانسته که بشر تاکنون دست به توسعه آن زده و با کمک آن میتواند کیفیت زندگی خودش را بهطور قابل ملاحظهای بهبود ببخشد و از سوی دیگر این واقعیت را انکار نکرده که این فناوری، تغییرات جدی و تعیینکننده و البته خطرات بالقوه زیادی برای جامعه انسانی به همراه خواهد داشت. او به همین خاطر اقرار کرده که مؤسسه تحت مدیریتش، هم به مردم جامعه و هم به قانونگذاران دولتها و حاکمیتها نیاز دارد تا در توسعه این فناوری مشارکت داشته باشند و با بازخوردهایشان از اثرات منفی بالقوه آن جلوگیری کنند.
چندی پیش نیز تعدادی از شاخصترین چهرههای فناوری و هوش مصنوعی که ایلان ماسک، مدیرعامل تسلا و توییتر و SpaceX و یکی از همبنیانگذاران OpenAI و استیو وزنیاک، همبنیانگذار اپل از شاخصترین چهرههای بودند و تعداد زیادی از دانشمندان علوم کامپیوتر و هوش مصنوعی نیز در کنار آنها جای گرفته بودند، در یک نامه سرگشاده از آزمایشگاههای هوش مصنوعی خواستند حداقل تا شش ماه آینده، دست از توسعه مدلهای هوش مصنوعی قویتر از ChatGPT-4 بردارند و پیشرفت این سامانهها را متوقف کنند، چراکه به عقیده آنها سیستمهای هوش مصنوعی با هوشمندیای که قابلرقابت با انسانهاست، میتوانند خطرات بزرگی را متوجه جامعه و نسل انسان کنند و تغییر بزرگی در تاریخ حیات روی زمین به وجود بیاورند.
از نظر آنها توسعه فناوری هوش مصنوعی، باید بهطور دقیق و با صرف منابع کافی، برنامهریزی و مدیریت شود، هرچند در حال حاضر نه تنها این سطح از برنامهریزی و مدیریت به چشم نمیخورد، بلکه در ماههای اخیر رقابت خارج از کنترلی نیز بین آزمایشگاهها و پژوهشگاههای مختلف، برای توسعه و پیادهسازی مدلهای پیشرفتهتر هوش مصنوعی به راه افتاده که هیچکس (حتی سازندگان آنها) نمیتوانند پشت پرده آنها را بفهمند و خروجی آنها را پیشبینی یا به شکل قابل اطمینانی کنترل کنند.
به عقیده امضاکنندگان این نامه، سیستمهای هوش مصنوعی قدرتمند و پیشرفته تنها زمانی باید توسعه یابند که مطمئن باشیم اثرات آنها در زندگی بشر مثبت و خطراتشان قابل کنترل و مدیریت است. به همین خاطر تصمیمگیری پیرامون توسعه آنها نباید منحصرا در اختیار مدیران و رهبران شرکتهای فناوری باشد و مشارکت کارشناسان و پژوهشگران و صاحبنظران علوم دیگر نیز در این توسعه ضروری است.
آنها میخواهند فرایند توسعه مدلهای پیشرفتهتر هوش مصنوعی متوقف شود تا مجموعهای از پروتکلهای ایمنی مشترک در طراحی و توسعه سیستمهای مبتنی بر هوش مصنوعی، تدوین شود، توسعه یابد و بهطور هماهنگ به اجرا درآید. این پروتکلها میتواند تحقیق و توسعه در زمینه هوش مصنوعی را روی ساختن سیستمهایی متمرکز کند که دقیقتر، ایمنتر، تفسیرپذیرتر، شفافتر و قابل اعتمادتر باشد.
هراس از کجا میآید؟
دقیقا نمیدانیم آن پشت چه خبر است
شاید مشکل اصلی در توسعه هوش مصنوعی از آنجا میآید که خیلی از اوقات، فرایندی که یک سیستم هوش مصنوعی را از مجموعهای از دادهها به یک خروجی میرساند، برای ما کاملا مبهم و ناشناخته است و اصطلاحا تفسیرپذیر نیست. وقتی نمیدانیم سیستمی که خودمان ساختهایم، دقیقا چطور کار میکند، پیشبینی خروجیهای آن و آیندهای که برایمان رقم میزند نیز مشکل خواهد بود و احتمالا خارج از کنترل ما.
از سوی دیگر توسعه و پیشرفت هوش مصنوعی میتواند به اندازهای برسد که خودش توانایی توسعه خودش را به دست آورد و آن موقع دیگر انسان هیچ کنترلی روی آن نداشته باشد و نتواند پیشبینی کند که توسعه و پیشرفت آن دقیقا به کجا ختم میشود.
هوش مصنوعی از سوگیری دادههایش رنج میبرد
توسعه مدلهای هوش مصنوعی وابسته به دادههایی است که در اختیار آن قرار گرفته تا با مطالعه و کشف الگوهای تکرارشونده بین دادهها، فرایند یادگیریاش را پیش ببرد و بعدا به کمک آن، در موارد دیگر استدلال و استنتاج و تصمیمگیری کند. اما خیلی اوقات دادههای موجود دارای سوگیریهایی هستند که نتیجه آن در خروجی مدلهای هوش مصنوعی به وضوح دیده میشود. بهعنوان مثال بات ChatGPT اگر در حالت عادی در یکی از آزمونهایی که گرایشهای سیاسی و اقتصادی افراد را مشخص میکند، شرکت کند، از نظر اقتصادی چپ و از نظر سیاسی لیبرال شناخته میشود، اما با دستکاری دادههای ورودی میتوان کاری کرد که این بات یک راست اقتدارگرا باشد. همچنین در برخی مواردی که سیستمهای هوش مصنوعی برای قضاوت و تصمیمگیری به کار رفتهاند، تبعیضهای نژادی و جنسی در خروجی آنها دیده شده است. بهعنوان مثال یک سیستم هوش مصنوعی که قرار بود با پیشبینی و تخمین میزان احتمال تکرار جرم، به قضات در تعیین مدت حبس محکومان کمک کند، در موارد بسیار کمتری پیشنهاد تخفیف در مدت زمان حبس را برای محکومان سیاهپوست نسبت به محکومان سفیدپوست پیشنهاد داد. در مثال دیگری، ماشین استخدام آمازون، فرمهای مربوط به متقاضیان زن را در درجات پایینتری نسبت به متقاضیان مرد اولویتبندی میکرد.
ارائه و پخش اطلاعات نادرست
آلتمن در مصاحبهاش به صراحت میگوید که نگران استفاده از ChatGPT برای انتشار اطلاعات نادرست در مقیاسهای بزرگ و حتی حملات سایبری است. از سوی دیگر مدلهای زبانی توسعهیافته در باتهایی مانند
ChatGPT طوری حرف میزنند و جملات را سر هم میکنند که انگار حتما حرفشان درست و مطابق واقعیت است و مو لای درز استدلال و استنتاجشان نمیرود. در واقع لحن متقاعدکننده این بات اجازه هیچ شک و تردیدی را به مخاطب غیرمتخصص و عادی نمیدهد، حتی اگر کاملا اشتباه بگوید. دلیل این اشتباهات هم مشخص است. این مدلها اطلاعات را حفظ نمیکنند تا بعدا بر اساس آنها به سؤالات کاربر پاسخ دهند، بلکه از استدلالهای استقرایی و قیاسی برای تولید پاسخ بهره میگیرند و بعضی اوقات هر گردی را واقعا گردو میدانند. آنها قرار نیست اطلاعات و دادهها را حفظ و سپس بین حفظیاتشان جستوجو کنند و چیزی را از آن بین بیرون کشیده و به مخاطب تحویل دهند، بلکه آنها دقیقا قرار است مثل مغز انسان که در یک بحث استدلال میکند، بر اساس چیزهایی که قبلا خوانده و یاد گرفتهاند، استدلال و جواب را تولید کنند. به همین خاطر به کاربران ChatGPT توصیه جدی میشود که با این بات مانند گوگل رفتار نکنند و حتما، پاسخهای آن را با منابع دیگر بررسی کرده و به حرفهایی که تحویلشان میدهد، اعتماد صددرصدی نداشته باشند. البته این بات با هر مکالمه خودش را بهبود میبخشد؛ چراکه هر کاربر هم میتواند با او وارد بحث و چالش شده و خطاهایش را به او گوشزد و آنها را تصحیح کند و هم به پاسخهای او بازخورد دهد و از طریق این بازخوردها در بهبود و توسعه این سیستم نقشی داشته باشد.
از طرف دیگر، توسعه ابزارهای هوش مصنوعی و پیشرفت آنها راه را برای تولید اخبار جعلی (Fake News) باز کرده و این نگرانی را به وجود آورده که در آینده نزدیک، جعلیاتی که با هوش مصنوعی سر از شبکههای اجتماعی درآورند، قابل تمییز از اخبار واقعی نباشند و همه را در آشفتگی بدون چارهای سردرگم کنند. از همین الان میتوان انتظار روزی را کشید که فیلم و صدای سخنرانی یک سیاستمدار یا هر شخصیت دیگری که با هوش مصنوعی تولید شده، هیچ نشانهای نداشته باشد که بتوان غیرواقعیبودن آن را تشخیص داد و در نتیجه آن، بساط تکذیب هم گرم شود و واقعیت معنای خودش را از دست بدهد.
سوءاستفاده از هوش مصنوعی
هوش مصنوعی اخلاق و معیارهای اخلاقی برای تصمیمگیری را نمیفهمد، به همین خاطر میتواند به مخاطبی که از او خواسته، نحوه ساخت یک بمب دستساز را آموزش دهد یا روشهای خودکشی را در اختیار او بگذارد و حتی به خودکشی ترغیبش کند. اینجاست که سازندگان این سیستمها دست به کار شده و به صورت دستی، محدودیتهایی را برای تولید پاسخ در نظر میگیرند و از این طریق تا حدی مانع سوءاستفاده از این سیستمها میشوند. البته نمیتوان انتظار داشت که همه توسعهدهندگان سیستمهای مبتنی بر هوش مصنوعی هم نیت خیری داشته باشند و هم حواسشان آنقدر جمع باشد که بتوانند جلوی چیزی را که توسعه دادهاند بگیرند و از سوءاستفاده از آن جلوگیری کنند.
رقیبی برای انسان و تهدیدی برای انسانبودن
ChatGPT همین الان هم در خیلی از فرایندها و آزمونها توانسته جایگزین انسان شود و تهدیدی برای انسانبودنش به شمار رود. بهعنوان مثال این بات در بسیاری از آزمونهای مدارس و دانشگاهها نمرات قبولی کسب کرده و باعث شده تغییر فرایند و روشهای ارزیابی از دانشآموزان و دانشجوها در دستور کار مؤسسات آموزشی قرار گیرد. همچنین ChatGPT آزمون مجوز پزشکی ایالات متحده را توانسته با نمره قبولی پشت سر بگذارد، آنهم بدون هیچگونه آموزش یا بهبود تخصصی در این زمینه و در پاسخهایش هم سطح بالایی از تطابق و بینش را به نمایش گذاشته است. وبسایت معروف Stackoverflow که برای پرسش و پاسخ در زمینه برنامهنویسی و علوم کامپیوتر به کار میرود، استفاده از این بات برای تولید پاسخ را ممنوع اعلام کرده و کنفرانس بینالمللی یادگیری ماشین (ICML) اعلام کرده که متنهای تولیدی هوش مصنوعی نباید در مقالات به کار روند، هرچند ویرایش مقالات به کمک ChatGPT را مجاز دانسته تا این سؤال پیش بیاید که مرز بین ویرایش و نوشتن یک متن کجاست؟ یا اگر متن یک مقاله را یک سیستم هوش مصنوعی خلاصه کند، آن خلاصه یک متن جدید به حساب میآید یا فقط ویرایش متن قبلی؟
واقعیت این است که هر فناوری با ظهورش میتواند تغییرات جدی و وسیعی در کارها و مشاغل انسانی ایجاد کند و انسانها هم در طول تاریخ توانستهاند از پس این تغییرات برآمده و خود را با آن وفق دهند، اما این تغییرات باید به حدی آرام رخ دهد که انسان فرصت انطباق با آن را داشته باشد. مشکل آنجاست که تغییراتی که هوش مصنوعی در سالها و حتی ماههای پیشرو به دنبال اعمال آنهاست، به نظر آنقدر سریع جوامع انسانی را درمینوردد که خیلیها را نگران آینده شغلیشان کند.
سازندگان ChatGPT با همکاری دانشگاه پنسیلوانیا اخیرا نتایج مطالعهای را منتشر کردهاند که به بررسی تأثیر این بات در بازار کار آمریکا میپردازد. در این مطالعه تأثیر مدلهای زبانی هوش مصنوعی در مدت زمانی که برای تکمیل یک کار انسانی طول میکشد، در نظر گرفته شده و اگر مدت زمان لازم برای انجام یک وظیفه یا کار انسانی در اثر تعامل با سیستمهای هوش مصنوعی تا ۵۰ درصد کاهش یابد، آن وظیفه یا شغل در معرض تأثیر هوش مصنوعی خواهد بود.
بر اساس نتایج این مطالعه، هوش مصنوعی حداقل ۱۰ درصد از کارها و وظایف ۸۰ درصد از نیروی کار ایالات متحده را تحت تأثیر خودش قرار میدهد و برای ۱۹ درصد از نیروی کار، این تأثیر تا ۵۰ درصد هم افزایش پیدا میکند.
جالب آنجاست که مشاغل پردرآمدتر بیشتر تحت تأثیر هوش مصنوعی قرار میگیرند و با احتمال بیشتری به دست سیستمهایی مانند ChatGPT بلعیده خواهند شد، اما حوزههای شغلی که به علوم و تفکر انتقادی مرتبط هستند، فعلا از خطر تأثیر هوش مصنوعی در امان هستند. در این مطالعه ریاضیدانان، حسابرسان و مشاوران مالیاتی، حسابداران، تحلیلگران مالی، طراحان وب و طراحان نمایههای دیجیتال، کارشناسان فرمهای نظرسنجی، نویسندگان و مؤلفان، مترجمان کتبی و مترجمان همزمان شفاهی، متخصصان حوزه روابط عمومی، پژوهشگران حوزه حیوانات، تحلیلگران خبری و خبرنگاران و روزنامهنگاران، وکلای حقوقی، کارمندان مکاتبات اداری، مهندسان بلاکچین، منشیها، ویراستاران و تحلیلگران حوزه تغییرات آبوهوایی بهعنوان افرادی شناخته شدهاند که مشاغلشان بهشدت در خطر تأثیرپذیری از هوش مصنوعی قرار دارد و احتمالا در آینده باید به فکر مشاغل دیگری باشند.
از سوی دیگر مشاغلی که ورود به آنها موانع کمتری دارد، کمتر از مشاغلی که ورود به آنها سختتر و مستلزم عبور از موانع بیشتر است، تحت تأثیر هوش مصنوعی قرار میگیرند. درواقع مشاغل فیزیکی و دستی فعلا از خطر هجوم هوش مصنوعی در امان هستند و ممکن است به همین خاطر در سالهای آینده، تقاضا برای آنها افزایش پیدا کرده و رقابت برای ورود به آنها سختتر شود. در این مطالعه مشاغلی که افراد بدون نیاز به تحصیلات دانشگاهی و با کسب یک یا چند مهارت میتوانند به آنها وارد شده و از توان فیزیکیشان در آن استفاده میکنند، بهعنوان مشاغلی نام برده شده که در حال حاضر تحت تأثیر پیشرفت و توسعه هوش مصنوعی قرار نگرفتهاند و از خطر جایگزینی مصون هستند.
بدبینی چامسکی
نوام چامسکی را شاید بیشتر به نظریات سیاسی و مخالفتهایش با سیاستهای رسمی ایالات متحده بشناسند، اما مهمتر از آنها، تخصص اصلی چامسکی زبانشناسی و علوم شناختی است و از او بهعنوان پدر زبانشناسی مدرن و یکی از بنیانگذاران علوم شناختی یاد میشود. شاید خیلی بیراه نباشد اگر بگوییم سیستمهایی مانند ChatGPT میوه درختی است که چامسکی آن را کاشته، اما نظر او نسبت به این میوه خیلی خوشبینانه و همراه با تحیر و ذوق و شوق نیست. از نظر چامسکی ذهن انسان، مانند ChatGPT و امثال آن، یک موتور آماری سختگیر برای تطبیق الگوها، جمعآوری صدها ترابایت داده و برونیابی محتملترین پاسخ مکالمه یا محتملترین پاسخ به یک سؤال علمی بر اساس آنها نیست. در مقابل، ذهن انسان یک سیستم شگفتآور کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل میکند و به پاسخ میرسد و نیازی به اطلاعات بسیار زیاد ندارد. درواقع ذهن انسان به دنبال استنتاج همبستگیهای بیرحم بین داده نیست (کاری که هوش مصنوعی انجام میدهد)، بلکه به دنبال ایجاد توضیحات است؛ توضیحاتی که بتوانند چیزی فراتر از توصیف و پیشبینی را در دل خود داشته باشند.
چامسکی در مقالهای که برای نیویورکتایمز نوشته، مثالهای جالبی از تفاوت بین نحوه کارکرد ذهن انسان و سیستمهای مبتنی بر هوش مصنوعی آورده است. او میگوید کودک خردسالی را در نظر بگیرید که مشغول یادگیری یک زبان انسانی است. این کودک در حین یادگیری این زبان، بهطور ناخودآگاه و خودکار و با استفاده از دادههای اندک و جزئی که دوروبرش پیدا میشود و در اختیارش است، یک دستور زبان را توسعه میدهد؛ دستور زبانی که یک سیستم فوقالعاده پیچیده از اصول منطقی است و بر اساس آن میتواند جملات طولانی تولید کند و حتی پی افکارش را بگیرد. زمانی که زبانشناسان دنبال نظریهای هستند که توضیح دهد چرا برخی جملات مطابق دستور زبان یک زبان صحیح است و برخی دیگر نه و هیچگاه در آن زبان به کار نمیرود، به صورت آگاهانه، نسخه صریحی از همان دستور زبانی را بیان میکنند که کودک بهطور غریزی آن را ساخته و بعدها از آن استفاده کرده است. اما نحوه کار ذهن کودک در توسعه این دستور زبان کاملا متفاوت با مدلهای یادگیری ماشین در سیستمهای هوش مصنوعی است. آنها به دادههای بسیار زیادی نیاز دارند تا بتوانند یک زبان را یاد بگیرند و بر اساس آن مکالمه کنند.
از نظر چامسکی عمیقترین عیب مدلهای یادگیری ماشین در سیستمهای هوش مصنوعی، فقدان حیاتیترین ظرفیت هر هوش، یعنی توانایی توضیح است؛ یک سیستم هوشمند نه تنها باید توانایی توصیف و پیشبینی را داشته باشد (یعنی بتواند بگوید یک پدیده در گذشته چه بوده و الان چیست و در آینده احتمالا چه خواهد بود)، بلکه باید این قابلیت را هم داشته باشد که آن پدیده را توضیح دهد (یعنی بتواند بگوید چه چیزی نیست و چه چیزهایی میتواند باشد یا نمیتواند باشد).
او در ادامه مثال افتادن سیب از یک درخت را میزند. فرض کنید سیبی در دست دارید و رهایش میکنید. توصیف این اتفاق میشود این عبارت که «سیب میافتد». علاوه بر توصیف میتوانید این پیشبینی را اضافه کنید که «اگر دستم را باز کنم، سیب میافتد». هر دو این عبارتها درست و باارزش به شمار میروند، اما توضیح این پدیده چیزی فراتر از این عبارتهاست. توضیح هم حدسهای خلاف واقعی مانند «هر جسمی سقوط میکند» را شامل میشود و هم چیزهای اضافهتر و مهمتری مانند اینکه سیب به دلیل نیروی گرانش یا انحنای فضا-زمان سقوط میکند. در نهایت شما میتوانید یک توضیح علت و معلولی ارائه دهید: سیب سقوط نمیکند، مگر بهخاطر نیروی گرانشی که به آن وارد میشود. اینجاست که تفکر خودش را نشان میدهد.
مدلهای یادگیری ماشین فقط توصیف و پیشبینی میکنند و از ارائه توضیح و بیان روابط علت و معلولی عاجز هستند. البته هر توضیحی که ذهن انسان درباره یک پدیده ارائه میدهد، لزوما صحیح نیست، ولی خود این توضیحهای اشتباه و خطاهایی که در بیان روابط علت و معلولی پیش میآید نیز بخشی از تفکر را شامل میشود. برای درستبودن، باید امکان خطا و اشتباه داشت و هوش انسانی، هم از حدسهای خلاقانه تشکیل شده و هم از انتقاد خلاقی که منجر به تصحیح خطاها و اشتباهها میشود. همین فرایند است که به تدریج دایره توضیحات و احتمالات عقلانی و منطقی را محدود و محدودتر میکند و در نهایت به آن چیزی که حقیقت مینامیمش، منجر میشود.
ChatGPT و دیگر سیستمهای مشابه آن، بنا بر طراحیشان، میتوانند بهطور نامحدود یاد بگیرند (حفظ کنند و به خاطر بسپارند)، اما نمیتوانند ممکن را از غیرممکن تشخیص دهند. بهعنوان مثال ما انسانها تنها زبانهایی را میتوانیم یاد بگیریم و با آنها تکلم کنیم که دارای نوع خاصی از ظرافت و منطق ریاضی باشند، اما سیستمهای هوش مصنوعی هر زبانی، چه انسانی و چه غیرانسانی را به روش یکسانی یاد میگیرند. ما انسانها در انواع توضیحاتی که عقلمان آنها را حدس میزند، محدود هستیم و ذهنمان خیلی از حدسهای غیرمنطقی را فیلتر میکند، اما سیستمهای هوش مصنوعی هم میتوانند یاد بگیرند که زمین تخت است و هم میتوانند یاد بگیرند که زمین کروی است؛ برای آنها فرقی بین این دو حالت وجود ندارد.
به همین خاطر پیشبینیهای سیستمهای مبتنی بر یادگیری ماشین، همواره سطحی و مشکوک خواهد بود و با دیده احتیاط باید به آنها نگریست. شاید برخی به این ویژگی سیستمهای هوش مصنوعی افتخار کنند که بدون استفاده از توضیحاتی مثل قوانین فیزیک میتوانند پیشبینیهای صحیح علمی درباره حرکات اجسام داشته باشند، اما باید توجه داشت که ما در علم دنبال پیشبینی محتملترین حالتها نیستیم، بلکه توضیحاتی را جستوجو میکنیم که در عین نامحتملبودن (نظریه گرانش نیوتون یا نسبیت اینشتین در نگاه اول بسیار نامتحمل و بعید به نظر میرسند)، بتوانند پدیدهها را برایمان بشکافند و حقیقت پشتشان را برملا کنند. هوش در واقع تفکر و بیان چیزهایی است که اگرچه غیرمحتمل به نظر میرسد، اما توضیحدهنده و روشنکننده حقیقت است.
از سوی دیگر هوش واقعی انسانی توانایی تفکر اخلاقی را دارد و همین تفکر اخلاقی است که خلاقیت بیحدوحصر ذهن را با مجموعهای از اصول اخلاقی محدود میکند تا بایدها و نبایدها مشخص شود. البته خود این اصول اخلاقی هم همواره در معرض انتقاد خلاقانه قرار دارد و مورد سؤال و نقد ذهن واقع میشود. اما در مورد هوش مصنوعی چنین تفکر اخلاقیای در دسترس نیست و به همین خاطر توسعهدهندگان هوش مصنوعی مجبورند خودشان بهصورت دستی محدودیتهایی را برای سیستمهایشان وضع کنند تا خروجی آنها یکسری اصول اخلاقی را نقض نکند و در چارچوبهای اخلاقی مرسوم بگنجد.
اگر شما با یک سیستم هوش مصنوعی مثل ChatGPT یک بحث اخلاقی داشته باشید (از او بپرسید فلان کار از نظرش اخلاقی هست یا نه)، او از پاسخدادن طفره میرود و تنها استدلالهای موافق و مخالف را بیان میکند و در نهایت هم مسئولیت را به گردن خالقان و توسعهدهندگانش میاندازد. چامسکی اینجا میگوید سیستمهای هوش مصنوعی در بحثها و تصمیمگیریهای اخلاقی چیزی شبیه ابتذال شر را به نمایش میگذارند. از نظر او این سیستمها نمیتوانند بین خلاقیت و محدودیت تعادلی برقرار کنند.
فعلا دستیارهای خوبی هستند، آینده را نمیدانیم
ChatGPT همین الان هم دستیار بسیار خوبی برای خیلیها به شمار میرود؛ برنامهنویسها و توسعهدهندههای نرمافزار سؤالاتشان را از او میپرسند و جوابهای خوب و دقیقی میگیرند (بعضا کدهایی که تحویل میدهد، بهتر و کاراتر از برنامهنویسهای انسانی است)، کپیرایترها برای نوشتن و ویرایش مقالاتشان میتوانند روی کمک او حساب کنند (موضوع و محتوا و فرم و لحن و سبک نوشتار را بهطور دقیق مشخص کنید و بعد منتظر متنی باشید که برایتان کلمه به کلمه جلوی چشمتان مینویسد یا متنی را که نوشتهاید و خیلی از آن راضی نیستید به او بدهید و بگویید که دنبال چه هستید تا دستی به سر و روی آن بکشد و خواستههایتان را موبهمو اجرا کند) و دانشجوها و دانشآموزان سؤالهای درسی و علمیشان را با او در میان میگذارند و اگر حواسشان به جمع خطاهای احتمالی او باشد (استدلالهای ریاضی و منطقیاش ممکن است کاملا گمراهکننده باشد، اما میتوان مسیر استدلال و استنتاجش را تا حدی تصحیح و به راه راست هدایتش کرد)، میتوانند به جوابهای خوبی برسند. مایکروسافت نیز برای نجات موتور جستوجوی نسبتا نامحبوبش، Bing، دستبهدامن این بات شده و آن را به بینگ اضافه کرده تا کاربران انگیزهای برای دلکندن از گوگل داشته باشند و در این هدف تقریبا موفق هم بوده است.
در حال حاضر سیستمهای مبتنی بر هوش مصنوعی مجهز به تفکر انتقادی نیستند و پای استدلالهایشان لنگ میزند، اما همانطورکه آلتمن هم میگوید، بهتر است بهعنوان دستیارهای هوشمند، نگاهی ابزاری به آنها داشته باشیم و فعلا جایگزین انسان ندانیمشان. البته استفاده از آنها مانند هر ابزار دیگری که بشر پیش از این توسعه داده، نیاز به تخصص و مهارت دارد و در آینده آنهایی موفقتر خواهند بود که بهتر بتوانند از آن بهره ببرند و با آن ارتباط موثرتری برقرار کنند. ما قرار است در گوش این سیستمهای هوشمند زمزمه کنیم و آنها اوامرمان را اطاعت کنند و هرقدر زبانشان را بهتر بفهمیم و منظورمان را بهتر به آنها برسانیم، نتیجه هم بیشتر مطابق میلمان خواهد بود. در واقع محدودیت تصور ما در خواستههایی که میتوانیم از آنها داشته باشیم، مرزهای محدودیت آنها را مشخص خواهد کرد؛ وگرنه آنها نشان دادهاند که در تولید چیزهایی که از آنها خواستهایم، فرمانبرداران خوب و مطیعی هستند.
ما مجبوریم مانند هر فناوری دیگری که پیش از آن وارد زندگیمان شده، با سیستمهای مبتنی بر هوش مصنوعی هم کنار بیاییم و تبعات رشد و توسعه و فراگیریاش را بپذیریم؛ هم شغلهایمان تغییر خواهد کرد و هم مهارتهایی که مورد نیاز ماست و هم دنیایی حقیقی و مجازی که روزمان را در آن شب میکنیم، اما میتوانیم امیدوار باشیم که این هیاهو برای هیچ نباشد و این زبانفهمهای هوشمند، واقعا دنیایمان را جای بهتری برای زندگی کنند و به همزیستی مسالمتآمیز با ما رضایت دهند.