|

هوش مصنوعی و نگاه انتقادی به رسانه

گفته شده که امسال، کلمه «هوش مصنوعی»‌ از سوی یکی از مراجع لغت‌نامه‌ای به‌عنوان کلمه سال انتخاب شده است. لغت‌نامه‌های مرجع هر‌ساله یک کلمه خاص را به‌عنوان «کلمه سال» انتخاب می‌کنند. این کلمه به‌نوعی بیانگر مهم‌ترین مضمونی است که در هر سال به سپهر عمومی راه یافته است.

هوش مصنوعی و نگاه انتقادی به رسانه

گفته شده که امسال، کلمه «هوش مصنوعی»‌ از سوی یکی از مراجع لغت‌نامه‌ای به‌عنوان کلمه سال انتخاب شده است. لغت‌نامه‌های مرجع هر‌ساله یک کلمه خاص را به‌عنوان «کلمه سال» انتخاب می‌کنند. این کلمه به‌نوعی بیانگر مهم‌ترین مضمونی است که در هر سال به سپهر عمومی راه یافته است.

مثلا لغت‌نامه آکسفورد در سال 2021 کلمه‌ واکسن را انتخاب کرد که به‌نوعی با موضوع واکسیناسیون ارتباط داشت. همین مرجع در سال 2019 موضوع تغییرات زیست‌محیطی را به‌عنوان کلمه سال برگزید و واژه سال را climate change انتخاب کرده بود.

البته هرکدام از مراجع مختلف ممکن است کلمه‌های جداگانه‌ای را انتخاب کنند. ولی در‌هر‌حال به دلیل قائل‌بودن نقش مرجعیت علمی، کاملا مهم است که بدانیم این مراکز بر کدام وجه از زیست اجتماعی انسان‌ها انگشت گذاشته‌اند. همراه با معرفی این کلمه، شرح مختصری از معنای لغت‌نامه‌ای آن ارائه می‌شود ولی در همین شرح نیز معانی دلالت‌های ضمنی هم مشخص می‌شود.

مثلا برای همین هوش مصنوعی تبیین‌ها به این شرح است: «مدل‌بندی عملکردهای ذهنی انسان توسط برنامه‌های کامپیوتری». بلافاصله نیز ذکر می‌شود که دلیل انتخاب هوش مصنوعی به خاطر سرعت شگفت‌انگیز و شتاب بسیار سریع در مسیر توسعه آن است، به‌گونه‌ای که یکی از مباحثات غالب در حوزه عمومی سال 2023 بوده است.

مشخصا به موازات پیشرفت فناوری دیجیتال و هوش مصنوعی، وجه سرگرم‌کننده این تصاویر به حاشیه رفته است.

ما چیزهایی را می‌بینیم و باور می‌کنیم که هرگز وجود نداشته است. تصاویر و ویدئوهای مذکور اصرار دارند که باور خاصی را در مغز ما فرو کنند. چه‌بسیار هتک‌حرمت‌ها که از این طریق صورت گرفته و چه‌بسیار دروغ‌هایی که به افراد نسبت داده شده است.

در حوزه نگاه انتقادی به رسانه‌های نوین، بر مفهوم «فیک» تأکید زیادی می‌شود و بحث تصاویر فیک، اخبار فیک و اخیرا هم «دیپ‌فیک» یا «فیک‌های عمیق» در این عرصه مطرح هستند. این چالش فیک، به نوعی مستقیم و غیرمستقیم به حوزه یادگیری ماشینی و هوش مصنوعی ارتباط پیدا می‌کند. در اینجا باید به دو مانع فراروی تفکر انتقادی در این رسانه‌ها اشاره کرد.

اول اینکه مردم تمایل دارند به‌راحتی تصاویر و ویدئوهای این‌چنینی را باور کنند. آنچه را می‌بینند، به‌مثابه کلیت امر می‌پندارند و فکرشان به این سمت نمی‌رود که این تصاویر و ویدئوها ممکن است تحریف و دستکاری شده باشند. به عبارت دیگر به‌سادگی آن را چونان حقیقت می‌انگارند. این فرض به‌خودی‌خود مشکوک است. بیشتر مردم می‌دانند که فوتوشاپ و هوش‌ مصنوعی چه قابلیت‌هایی برای دستکاری تصاویر دارند.

مورد دوم اینکه کارشناسان بر این باورند که مردم در مواجهه با تصاویری که دستکاری شده است، چندان هوشمندانه و نکته‌سنجانه برخورد نمی‌کنند.

به همین خاطر است که کارشناسان بر این باورند که ما برای هر دو موقعیت‌های بالا باید به ابزار شک انتقادی مجهز شویم. یعنی باید این عادت را کنار بگذاریم که به‌طور خودکار یک ویدئو یا تصویر را برحسب ارزش‌های ظاهری آن قبول کنیم. قرار نیست یک عکس به‌مثابه‌ «هرآنچه می‌نماید» باشد؛ مگر آنکه دلایل قانع‌کننده‌ و معقولی برای آن وجود داشته باشد.

دیپ‌فیک‌ها ویدئوهای جعلی‌ای هستند که توسط هوش مصنوعی ساخته شده و مردم را در حال انجام اموری نشان می‌دهد که هرگز به آن مبادرت نورزیده‌اند یا مردم را در حال بیان چیزهایی نشان می‌دهد که هرگز بر زبان نیاورده‌اند.

این ویدئوها بر اساس تصاویر واقعی ساخته می‌شوند؛ بدین صورت که تصاویر مذکور با استفاده از فناوری‌های دیجیتال تحت تغییر و دگرگونی قرار می‌گیرند ولی این کار به گونه‌ای انجام می‌شود که باورپذیری آنها کم‌و‌بیش ممکن باشد.

فناوری هوش مصنوعی در حوزه یادگیری ماشینی پیشرفت حیرت‌انگیزی داشته است. کامپیوترها سریع‌تر و هوشمندتر شده و در این مسیر طبعا ساختن دیپ‌فیک نیز آسان‌تر شده است؛ کما‌اینکه کشف آن هم دشوارتر شده است.

صدای فرد، همان صدای خودش است. حرکت لب‌ها اصطلاحا «سینک» است (یعنی لب‌های فرد در‌حال بازگوکردن همان کلمه‌ای هستند که فرد با صدای واقعی بازگو می‌کند).

نرم‌افزارهای ادیت (تدوین) مبتنی بر هوش مصنوعی شده‌اند و ساختن دیپ‌فیک را بسیار آسان کرده‌اند. اگر قرار باشد ویدئوها را چک‌ نکنیم، چه‌بسا این پدیده بتواند کل حوزه اخبار را به تصرف خود درآورده و آن را به وادی فیک‌نیوز بکشاند. آن‌گاه به شبکه‌های اجتماعی و سایر سایت‌های آنلاین نفوذ خواهد کرد. به هر تقدیر گسترش حضور و انتشار دیپ‌فیک ممکن است اعتماد مردم به ویدئوها را به‌طور‌کلی از بین ببرد. هر ویدئو می‌تواند ساختگی و جعلی تلقی شود و هر آینه ممکن است اعتماد و ایمان مردم از واقعیت عینی سلب شود.

فناوری‌های فیک ذیل کاربری هوش مصنوعی یکی از جدیدترین شکل‌های دستکاری و منحرف‌سازی رسانه‌های دیجیتال و یکی از آشکارترین زمینه‌های بدسگالی و شرارت است. تصورش سخت نیست که این فناوری‌ بیش از هرچیز در خدمت لکه‌دارکردن دامن سیاست‌مداران به کار گرفته شود. چه انتقام‌ها که از این طریق گرفته شود و چه جنایت‌هایی که تحت‌تأثیر آن رخ بدهد. همین چند روز قبل دولت‌های سراسر جهان برای مقابله با خطرات فاجعه‌باری که این فناوری می‌تواند ایجاد کند، در یک اجلاس جهانی که در بریتانیا برگزار شد، «اولین توافق‌نامه جهانی» در زمینه هوش مصنو‌عی را امضا کردند.

در این «اولین توافق‌نامه جهانی» که هدف آن شناسایی «خطرات ایمنی هوش مصنوعی ناشی از نگرانی مشترک» و ایجاد «سیاست‌های مبتنی بر ریسک مربوطه در سراسر کشورها» بود، تصریح شده که هو‌ش مصنوعی، پتانسیل آسیب‌های جدی، فاجعه‌بار، عمدی یا غیرعمدی را دارد که از مهم‌ترین قابلیت‌های این فناوری ناشی می‌شود.