هوش مصنوعی و نگاه انتقادی به رسانه
گفته شده که امسال، کلمه «هوش مصنوعی» از سوی یکی از مراجع لغتنامهای بهعنوان کلمه سال انتخاب شده است. لغتنامههای مرجع هرساله یک کلمه خاص را بهعنوان «کلمه سال» انتخاب میکنند. این کلمه بهنوعی بیانگر مهمترین مضمونی است که در هر سال به سپهر عمومی راه یافته است.
گفته شده که امسال، کلمه «هوش مصنوعی» از سوی یکی از مراجع لغتنامهای بهعنوان کلمه سال انتخاب شده است. لغتنامههای مرجع هرساله یک کلمه خاص را بهعنوان «کلمه سال» انتخاب میکنند. این کلمه بهنوعی بیانگر مهمترین مضمونی است که در هر سال به سپهر عمومی راه یافته است.
مثلا لغتنامه آکسفورد در سال 2021 کلمه واکسن را انتخاب کرد که بهنوعی با موضوع واکسیناسیون ارتباط داشت. همین مرجع در سال 2019 موضوع تغییرات زیستمحیطی را بهعنوان کلمه سال برگزید و واژه سال را climate change انتخاب کرده بود.
البته هرکدام از مراجع مختلف ممکن است کلمههای جداگانهای را انتخاب کنند. ولی درهرحال به دلیل قائلبودن نقش مرجعیت علمی، کاملا مهم است که بدانیم این مراکز بر کدام وجه از زیست اجتماعی انسانها انگشت گذاشتهاند. همراه با معرفی این کلمه، شرح مختصری از معنای لغتنامهای آن ارائه میشود ولی در همین شرح نیز معانی دلالتهای ضمنی هم مشخص میشود.
مثلا برای همین هوش مصنوعی تبیینها به این شرح است: «مدلبندی عملکردهای ذهنی انسان توسط برنامههای کامپیوتری». بلافاصله نیز ذکر میشود که دلیل انتخاب هوش مصنوعی به خاطر سرعت شگفتانگیز و شتاب بسیار سریع در مسیر توسعه آن است، بهگونهای که یکی از مباحثات غالب در حوزه عمومی سال 2023 بوده است.
مشخصا به موازات پیشرفت فناوری دیجیتال و هوش مصنوعی، وجه سرگرمکننده این تصاویر به حاشیه رفته است.
ما چیزهایی را میبینیم و باور میکنیم که هرگز وجود نداشته است. تصاویر و ویدئوهای مذکور اصرار دارند که باور خاصی را در مغز ما فرو کنند. چهبسیار هتکحرمتها که از این طریق صورت گرفته و چهبسیار دروغهایی که به افراد نسبت داده شده است.
در حوزه نگاه انتقادی به رسانههای نوین، بر مفهوم «فیک» تأکید زیادی میشود و بحث تصاویر فیک، اخبار فیک و اخیرا هم «دیپفیک» یا «فیکهای عمیق» در این عرصه مطرح هستند. این چالش فیک، به نوعی مستقیم و غیرمستقیم به حوزه یادگیری ماشینی و هوش مصنوعی ارتباط پیدا میکند. در اینجا باید به دو مانع فراروی تفکر انتقادی در این رسانهها اشاره کرد.
اول اینکه مردم تمایل دارند بهراحتی تصاویر و ویدئوهای اینچنینی را باور کنند. آنچه را میبینند، بهمثابه کلیت امر میپندارند و فکرشان به این سمت نمیرود که این تصاویر و ویدئوها ممکن است تحریف و دستکاری شده باشند. به عبارت دیگر بهسادگی آن را چونان حقیقت میانگارند. این فرض بهخودیخود مشکوک است. بیشتر مردم میدانند که فوتوشاپ و هوش مصنوعی چه قابلیتهایی برای دستکاری تصاویر دارند.
مورد دوم اینکه کارشناسان بر این باورند که مردم در مواجهه با تصاویری که دستکاری شده است، چندان هوشمندانه و نکتهسنجانه برخورد نمیکنند.
به همین خاطر است که کارشناسان بر این باورند که ما برای هر دو موقعیتهای بالا باید به ابزار شک انتقادی مجهز شویم. یعنی باید این عادت را کنار بگذاریم که بهطور خودکار یک ویدئو یا تصویر را برحسب ارزشهای ظاهری آن قبول کنیم. قرار نیست یک عکس بهمثابه «هرآنچه مینماید» باشد؛ مگر آنکه دلایل قانعکننده و معقولی برای آن وجود داشته باشد.
دیپفیکها ویدئوهای جعلیای هستند که توسط هوش مصنوعی ساخته شده و مردم را در حال انجام اموری نشان میدهد که هرگز به آن مبادرت نورزیدهاند یا مردم را در حال بیان چیزهایی نشان میدهد که هرگز بر زبان نیاوردهاند.
این ویدئوها بر اساس تصاویر واقعی ساخته میشوند؛ بدین صورت که تصاویر مذکور با استفاده از فناوریهای دیجیتال تحت تغییر و دگرگونی قرار میگیرند ولی این کار به گونهای انجام میشود که باورپذیری آنها کموبیش ممکن باشد.
فناوری هوش مصنوعی در حوزه یادگیری ماشینی پیشرفت حیرتانگیزی داشته است. کامپیوترها سریعتر و هوشمندتر شده و در این مسیر طبعا ساختن دیپفیک نیز آسانتر شده است؛ کمااینکه کشف آن هم دشوارتر شده است.
صدای فرد، همان صدای خودش است. حرکت لبها اصطلاحا «سینک» است (یعنی لبهای فرد درحال بازگوکردن همان کلمهای هستند که فرد با صدای واقعی بازگو میکند).
نرمافزارهای ادیت (تدوین) مبتنی بر هوش مصنوعی شدهاند و ساختن دیپفیک را بسیار آسان کردهاند. اگر قرار باشد ویدئوها را چک نکنیم، چهبسا این پدیده بتواند کل حوزه اخبار را به تصرف خود درآورده و آن را به وادی فیکنیوز بکشاند. آنگاه به شبکههای اجتماعی و سایر سایتهای آنلاین نفوذ خواهد کرد. به هر تقدیر گسترش حضور و انتشار دیپفیک ممکن است اعتماد مردم به ویدئوها را بهطورکلی از بین ببرد. هر ویدئو میتواند ساختگی و جعلی تلقی شود و هر آینه ممکن است اعتماد و ایمان مردم از واقعیت عینی سلب شود.
فناوریهای فیک ذیل کاربری هوش مصنوعی یکی از جدیدترین شکلهای دستکاری و منحرفسازی رسانههای دیجیتال و یکی از آشکارترین زمینههای بدسگالی و شرارت است. تصورش سخت نیست که این فناوری بیش از هرچیز در خدمت لکهدارکردن دامن سیاستمداران به کار گرفته شود. چه انتقامها که از این طریق گرفته شود و چه جنایتهایی که تحتتأثیر آن رخ بدهد. همین چند روز قبل دولتهای سراسر جهان برای مقابله با خطرات فاجعهباری که این فناوری میتواند ایجاد کند، در یک اجلاس جهانی که در بریتانیا برگزار شد، «اولین توافقنامه جهانی» در زمینه هوش مصنوعی را امضا کردند.
در این «اولین توافقنامه جهانی» که هدف آن شناسایی «خطرات ایمنی هوش مصنوعی ناشی از نگرانی مشترک» و ایجاد «سیاستهای مبتنی بر ریسک مربوطه در سراسر کشورها» بود، تصریح شده که هوش مصنوعی، پتانسیل آسیبهای جدی، فاجعهبار، عمدی یا غیرعمدی را دارد که از مهمترین قابلیتهای این فناوری ناشی میشود.