|

ساخت هوش مصنوعی مسئول

مدیریت اخلاق در هوش مصنوعی

در دنیای فناورانه امروز‌ که همه چیز به‌سرعت در حال تحول است، هوش مصنوعی مسئول (Responsible AI) پیشگام تلاش‌‌هایی است برای همسوکردن هوش مصنوعی با انتظارات و ارزش‌‌های اجتماعی. در‌حالی‌که هوش مصنوعی با شتابی در حال رشد و توسعه است، در حال توسعه ابعاد زندگی انسانی نیز هست. هم‌اکنون، این فناوری به شکلی غیرقابل بازگشت جایگاه خود را در خانه، محل کار، سلامت، درمان، سفر و حتی مدارس بیش‌از‌پیش تثبیت کرده است.

مدیریت اخلاق در هوش مصنوعی

ترجمه علی آذرکار-مدیر کمیته فنی فناوری اطلاعات  (ساختار متناظر ISO/IEC JTC1 در ایران)

 در دنیای فناورانه امروز‌ که همه چیز به‌سرعت در حال تحول است، هوش مصنوعی مسئول (Responsible AI) پیشگام تلاش‌‌هایی است برای همسوکردن هوش مصنوعی با انتظارات و ارزش‌‌های اجتماعی. در‌حالی‌که هوش مصنوعی با شتابی در حال رشد و توسعه است، در حال توسعه ابعاد زندگی انسانی نیز هست. هم‌اکنون، این فناوری به شکلی غیرقابل بازگشت جایگاه خود را در خانه، محل کار، سلامت، درمان، سفر و حتی مدارس بیش‌از‌پیش تثبیت کرده است.

 

هوش مصنوعی مرزهای خیال را درنوردیده و موضوعاتی که دو دهه پیش تخیلی و دور از ذهن تصور می‌شدند، مانند خودروهای بدون راننده، هم‌اکنون در زمره ملزومات زندگی روزمره انسان‌‌ها تلقی می‌شوند. در‌واقع، هوش مصنوعی مسئول‌ شیوه‌‌ای از تولید و استفاده از هوش مصنوعی است که به جامعه سود رسانده و در عین حال، در تلاش است ریسک پیامدهای منفی استفاده از آن را نیز کاهش دهد. هوش مصنوعی مسئول‌ به خلق فناوری‌‌هایی از هوش مصنوعی پرداخته که نه‌تنها قابلیت‌‌های ما آدمیان را افزایش داده، بلکه نگرانی‌‌های اخلاقی را نیز‌ به‌ویژه درباره سوگیری (Bias)، شفافیت و حریم خصوصی مرتفع می‌کند.

 

این امر مستلزم مواجهه با مواردی مانند سوءاستفاده از داده‌‌های شخصی، آلگوریتم‌‌های مغرضانه یا توان بالقوه هوش مصنوعی برای تداوم یا تشدید نابرابری‌‌های موجود است. هدف هوش مصنوعی مسئول، ساخت سامانه‌های قابل اعتماد هوش مصنوعی است؛ به‌گونه‌‌ای که همواره قابل اطمینان، منصف و همسو با ارزش‌‌های اخلاقی باشند. در این شرایط مقصد بعدی کجاست؟ چگونه می‌توان فناوری را به نحو بهتری شکل داد تا بتواند از توان هوش مصنوعی به قدر کافی بهره ببرد؟ پاسخ، ایجاد زیست‌‌بومی است مطمئن و مُقام از استانداردها و تنظیم‌‌گری‌‌هایی برای حصول اطمینان از اینکه تولید، استقرار و استفاده مسئولانه از هوش مصنوعی لازم است. در ادامه، حوزه پیچیده و در حال تکوین اخلاق هوش مصنوعی و اینکه چگونه باید به این فناوری تحول‌‌ز‌ا ولی ناشناخته نزدیک شد، بررسی شده است.

 

هوش مصنوعی مسئول چیست؟

 

هنگامی که هوش مصنوعی تکوین می‌‌یابد، قابلیت‌‌هایی پیدا می‌کند که می‌تواند زندگی بشری را تغییر دهد. بنابراین، پیش از آنکه اینرسی فزاینده هوش مصنوعی سرعت بیشتری بگیرد، اولویت‌‌بندی تولید سامانه هوش مصنوعی مسئول‌ که دربرگیرنده همه پیامدهای بالقوه اجتماعی آن است، حیاتی و مهم خواهد بود.

 

هوش مصنوعی مسئول، رویکردی است به تولید و استقرار هوش مصنوعی از دو دیدگاه اخلاقی و قانونی. هدف آن به‌کارگیری هوش مصنوعی به روشی ایمن، قابل اعتماد و اخلاقی است. استفاده مسئولانه از هوش مصنوعی باید شفافیت را افزایش داده، ضمن آنکه به مواردی مانند کاهش سوگیری نیز‌ کمک کند.

 

دلیل اینکه این‌همه بحث و جدل بر سر چرایی اخلاق هوش مصنوعی وجود دارد، آن است که این موضوع چالش بزرگی برای نوع بشر است و خواهد بود. نوآوری متفکرانه و مسئولانه به خودی خود مفهوم ساده‌‌ای نیست، ولی مهم این است که ‌ابتدا این سؤال را درک کنیم که «اخلاق هوش مصنوعی» چیست و آن را در هسته اصلی تولید ‌و کاربرد سامانه‌های هوش مصنوعی تلفیق کنیم. به ‌طور خلاصه، اخلاق هوش مصنوعی مبتنی‌بر ارزش‌‌های اجتماعی است و تلاش می‌کند‌ کارهای «درست» را انجام دهد. از سوی دیگر، هوش مصنوعی مسئول، موضوعی عملیاتی‌‌تر است؛ چرا‌که به چگونگی تولید و استفاده از این فناوری و ابزارها (از قبیل تنوع سوگیری) مرتبط است.

 

چرا هوش مصنوعی مسئول مهم است؟

 

همچنان‌ که هوش مصنوعی برای کسب‌‌وکار و سازمان‌‌های حیاتی‌‌تر می‌شود، تحقق و پیاده‌‌سازی هوش مصنوعی مسئول باید به‌ عنوان یک موضوع بسیار مرتبط در نظر گرفته شود. رشد فزاینده نیاز به هدایت فعالانه تصمیم‌‌گیری‌‌های عادلانه، مسئولانه و اخلاق هوش مصنوعی و انطباق آن با قوانین در تنظیم‌‌گری‌‌های جاری وجود دارد.

 

درک نگرانی‌‌های هوش مصنوعی نقطه آغازین ایجاد چارچوبی اخلاقی برای هدایت تولید و استفاده از آن است. هر سازمانی که بخواهد مطمئن شود که کاربرد و استفاده‌های آن از هوش مصنوعی مضر نیست، باید این تصمیم را با طیف گسترده‌‌ای از سودبران به شکل بازی به اشتراک بگذارد؛ چرا‌که این تصمیم به شکل منطقی می‌تواند با مشتریان مصرف‌‌کنندگان، تأمین‌‌کنندگان و دیگرانی که ممکن است به شکلی تنگاتنگ درگیر بوده و متأثر شوند، گرفته شود.

 

تولید و به‌کارگیری هوش مصنوعی، همگام با اصول اخلاقی آن، نیازمند شفافیت در فرایند تصمیم‌گیری و تدوین سیاست‌‌های عملی اخلاق هوش مصنوعی است. با لحاظ‌کردن تحقیقات انجام‌شده، مشاوره و تحلیل گسترده‌ پیامدهای اخلاقی همراه با اعمال کنترل و توازن، می‌توان‌ مطمئن بود‌ این فناوری به شکل مسئولانه‌ و طبق علاقه و سلیقه همه افراد مستقل از نژاد، جنسیت، اعتقاد، محل زندگی یا درآمد، تولید شده و استقرار می‌‌یابد.

 

اصول هوش مصنوعی مسئول کدام است؟

 

مواجهه با نگرانی‌های اخلاقی به معنی درگیر‌شدن با پیامدهای آن‌‌ همراه با درایت و تعهد است. نگاه به وجه اخلاق هوش مصنوعی، نه به ‌عنوان یک مانع، بلکه به‌ عنوان مجرای پیشرفت پایدار و ماندگار فناوری، مهم است. به همین دلیل است که ‌به خاطر سپردن اصول هوش مصنوعی مسئول به منظور تکوین آن در مسیری که سود و منفعت همه را در پی داشته باشد، اساسی است. اگر‌چه هنوز اصول توافق‌شده‌‌ای از اخلاق هوش مصنوعی در سطح جهانی وجود ندارد، ولی برخی از آن‌ها را می‌توان به شرح زیر برشمرد:

 

• عدالت: داده‌های به‌ کار گرفته‌شده برای آموزش سامانه‌های هوش مصنوعی باید با دقت انتخاب شده تا از بروز هرگونه تبعیض و نابرابری جلوگیری شود.

• شفافیت: سامانه‌های هوش مصنوعی باید به طریقی طراحی شود که کاربران امکان درک و فهم چگونگی کار الگوریتم‌‌های آن را داشته باشند.

• عدم آسیب‌‌رسانی: سامانه‌های هوش مصنوعی باید از صدمه‌رساندن به افراد، جامعه و محیط‌ ‌زیست پرهیز کنند.

• پاسخ‌‌گویی: تولیدکنندگان، سازمان‌‌ها و سیاست‌‌گذاران باید مطمئن شوند سامانه‌های هوش مصنوعی به شکلی مسئولانه تولید و استفاده می‌‌شوند.

• حریم خصوصی: سامانه‌های هوش مصنوعی باید از داده‌های شخصی محافظت کنند. این خود نیازمند تدوین سازوکارهایی است برای افراد که چگونه گردآوری و استفاده از داده‌های خود را کنترل ‌کنند.

• استواری: سامانه‌های هوش مصنوعی باید ایمن باشند؛ به این معنی که در قبال خطاها، حملات خصمانه و ورودی‌‌های ناخواسته مقاوم باشند.

• فراگیر‌بودن: درگیرکردن دیدگاه‌های مختلف‌ به شناسایی نگرانی‌های بالقوه اخلاقی هوش مصنوعی کمک کرده و اطمینان می‌‌دهد اجماعی برای رفع آنها ایجاد می‌شود.

 

ارتقای شیوه‌های هوش مصنوعی مسئول

 

اصولی که در ادامه خواهند آمد، باید به هدایت تصمیم‌گیری‌‌های سنجیده و مسئولانه درباره استفاده از هوش مصنوعی کمک کند. در گذار از نظریه به عمل، سازمان‌ها باید سیاست‌‌های عملی را برای اخلاق هوش مصنوعی ایجاد و تدوین کنند. چنین سیاست‌هایی در ایجاد ملاحظات اخلاقی در طول چرخه عمر هوش مصنوعی مهم بوده و تضمینی برای یکپارچگی آن از زمان شکل‌‌گیری مفهومی تا استفاده از آن در دنیای واقعی است. در‌حالی‌که سازمان‌ها ممکن است مسیر‌های مختلفی را برای تعبیه شیوه‌های هوش مصنوعی مسئول در عملیات اجرائی خود انتخاب کنند، ولی ‌روش‌‌های معدودی وجود داشته که می‌تواند به پیاده‌‌سازی این اصول در هر مرحله از تولید و استقرار سامانه‌های هوش مصنوعی کمک کند. هنگام تصمیم‌گیری درباره چگونگی ایجاد اخلاق هوش مصنوعی، سازمان باید موارد زیر را انجام دهد:

 

• تقویت مشارکت همه بخش‌‌ها و حوزه‌ها (سیاست، فناوری، اخلاق و اجتماعی) با هدف حصول اطمینان از ایجاد دیدگاه‌های چندوجهی به موضوع،

• اولویت‌‌بندی آموزش‌‌های جاری درباره به ‌رو‌ش‌‌های هوش مصنوعی در همه سطوح با هدف نگهداشت سطح آگاهی و سازگاری،

• پیاده‌‌سازی اخلاق هوش مصنوعی در کل طراحی فناوری و قرار‌دادن آنها از پایه در راه‌‌حل‌‌های هوش مصنوعی،

• ایجاد سازوکارهایی روشن با هدف پایش انطباق و هدایت تصمیم‌گیری‌‌های اخلاقی،

• حفاظت از حریم خصوصی کاربران نهایی و داده‌های حساس از طریق حکمرانی قوی هوش مصنوعی و سیاست‌‌های استفاده از داده‌ها،

• تشویق ایجاد شفافیت در فرایندهای هوش مصنوعی، ایجاد پاسخ‌گویی و اعتماد از سوی سودبران و عامه مردم.

 

همراهی با ‌روش‌‌های هوش مصنوعی

 

برای اینکه سامانه‌های هوش مصنوعی قابل اعتماد باشند، لازم است روی سه موضوع تمرکز شود: ‌1. استفاده از داده‌های خوب و متنوع، ‌2. اطمینان از اینکه الگوریتم می‌تواند این تنوع را به کار گیرد و ‌3. آزمون نرم‌‌افزار تولید‌شده در مقابل هر برچسب نادرست و وابستگی ضعیف.

 

چگونگی دستیابی به این هدف به شرح زیر است:

• طراحی برای انسان‌‌ها (از طریق استفاده از طیف وسیعی از کاربران، موارد کاربرد و اعمال بازخوردهای آ‌نها پیش و در زمان تولید سامانه)

• استفاده از متریک‌‌های چندگانه (به منظور ارزیابی آموزش و پایش از‌جمله شاخص‌‌های کلی عملکرد سامانه)

• بررسی داده‌های خام از حیث وجود اشتباه (داده‌‎‌های مغفول‌مانده یا دارای برچسب‌‌های نادرست)

• درک محدودیت‌‌های مدل

• آزمون مستمر مدل

 

نمونه‌هایی از هوش مصنوعی مسئول

 

اگر‌چه ابزارهایی‌ از هوش مصنوعی مسئول در حال تولید و تکوین هستند، ولی هم‌اکنون از این ابزارها در حوزه‌هایی مانند‌ امتیازدهی اعتباری، کمک به پاتولوژیست‌‌ها در تشخیص بیماری و انجام آزمایش‌‌های بالینی، استخدام نیروی انسانی از طریق ارزیابی عادلانه معیارهای مرتبط و تشخیص و غربالگری شرایط رایج مانند دیابت و سرطان پستان استفاده می‌شود.

 

رویکرد  استانداردی

 

در مسیر تولید سامانه‌های هوش مصنوعی مسئول، بخش‌‌های مختلفی از جامعه باید لاجرم به تدریج درگیر شوند. در این میان، نقش نهادهای استانداردگذاری مانند «ایزو‌» که با تدوین استانداردهای بین‌المللی از کاربردهای بنیادین فناوری هوش مصنوعی مراقبت می‌کنند، حائز اهمیت است. در شکل‌دهی هوش مصنوعی اخلاقی، دولت‌ها، سازمان‌ها و شرکت‌های سراسر دنیا باید این ارزش‌ها را عینیت بخشیده و مطمئن شوند که نوآوری در این زمینه، قرین و همراه مسئولیت اخلاقی است. استانداردهای بین‌المللی می‌تواند تضمینی «اخلاقی» برای هوش مصنوعی باشد؛ به نحوی که مدام عملکرد این صنعت متحول‌‌کننده را در بهترین مسیر هدایت ‌کند.

 

دورنما

 

دلایل زیادی وجود دارد برای اینکه به آینده‌‌ای خوش‌‌بین باشیم که در آن هوش مصنوعی مسئول زندگی انسان‌‌ها را متحول کرده و بهبود خواهد بخشید. در حال حاضر گام‌‌های متحول‌‌کننده‌‌ای در حوزه مراقبت‌‌های بهداشتی، آموزش و تحلیل داده‌ها برداشته شده است. این موضوع که ریشه در طراحی اخلاقی دارد، می‌تواند یک همزیستی بدیع از نوآوری‌های فناورانه و مبانی پایه‌‌ای انسانی به ما نشان دهد. هوش مصنوعی مسئول، چشم‌‌انداز جامعی از انعکاس بافت «اخلاقی» جامعه در هوش ماشینی است. این به معنای تعهد سامانه‌های هوش مصنوعی است برای مراقبت و حفاظت از حقوق بشر، حریم خصوصی و داده‌ها. در این مسیر، هر ابتکار و اقدام در حوزه هوش مصنوعی‌ به‌مثابه پله‌ای است به سوی آینده‌؛ آینده‌‌ای که در آن فناوری نه‌تنها جایگاه انسان را قدرتمند می‌کند‌،‌ بلکه به آن احترام می‌گذارد.