ساخت هوش مصنوعی مسئول
مدیریت اخلاق در هوش مصنوعی
در دنیای فناورانه امروز که همه چیز بهسرعت در حال تحول است، هوش مصنوعی مسئول (Responsible AI) پیشگام تلاشهایی است برای همسوکردن هوش مصنوعی با انتظارات و ارزشهای اجتماعی. درحالیکه هوش مصنوعی با شتابی در حال رشد و توسعه است، در حال توسعه ابعاد زندگی انسانی نیز هست. هماکنون، این فناوری به شکلی غیرقابل بازگشت جایگاه خود را در خانه، محل کار، سلامت، درمان، سفر و حتی مدارس بیشازپیش تثبیت کرده است.


ترجمه علی آذرکار-مدیر کمیته فنی فناوری اطلاعات (ساختار متناظر ISO/IEC JTC1 در ایران)
در دنیای فناورانه امروز که همه چیز بهسرعت در حال تحول است، هوش مصنوعی مسئول (Responsible AI) پیشگام تلاشهایی است برای همسوکردن هوش مصنوعی با انتظارات و ارزشهای اجتماعی. درحالیکه هوش مصنوعی با شتابی در حال رشد و توسعه است، در حال توسعه ابعاد زندگی انسانی نیز هست. هماکنون، این فناوری به شکلی غیرقابل بازگشت جایگاه خود را در خانه، محل کار، سلامت، درمان، سفر و حتی مدارس بیشازپیش تثبیت کرده است.
هوش مصنوعی مرزهای خیال را درنوردیده و موضوعاتی که دو دهه پیش تخیلی و دور از ذهن تصور میشدند، مانند خودروهای بدون راننده، هماکنون در زمره ملزومات زندگی روزمره انسانها تلقی میشوند. درواقع، هوش مصنوعی مسئول شیوهای از تولید و استفاده از هوش مصنوعی است که به جامعه سود رسانده و در عین حال، در تلاش است ریسک پیامدهای منفی استفاده از آن را نیز کاهش دهد. هوش مصنوعی مسئول به خلق فناوریهایی از هوش مصنوعی پرداخته که نهتنها قابلیتهای ما آدمیان را افزایش داده، بلکه نگرانیهای اخلاقی را نیز بهویژه درباره سوگیری (Bias)، شفافیت و حریم خصوصی مرتفع میکند.
این امر مستلزم مواجهه با مواردی مانند سوءاستفاده از دادههای شخصی، آلگوریتمهای مغرضانه یا توان بالقوه هوش مصنوعی برای تداوم یا تشدید نابرابریهای موجود است. هدف هوش مصنوعی مسئول، ساخت سامانههای قابل اعتماد هوش مصنوعی است؛ بهگونهای که همواره قابل اطمینان، منصف و همسو با ارزشهای اخلاقی باشند. در این شرایط مقصد بعدی کجاست؟ چگونه میتوان فناوری را به نحو بهتری شکل داد تا بتواند از توان هوش مصنوعی به قدر کافی بهره ببرد؟ پاسخ، ایجاد زیستبومی است مطمئن و مُقام از استانداردها و تنظیمگریهایی برای حصول اطمینان از اینکه تولید، استقرار و استفاده مسئولانه از هوش مصنوعی لازم است. در ادامه، حوزه پیچیده و در حال تکوین اخلاق هوش مصنوعی و اینکه چگونه باید به این فناوری تحولزا ولی ناشناخته نزدیک شد، بررسی شده است.
هوش مصنوعی مسئول چیست؟
هنگامی که هوش مصنوعی تکوین مییابد، قابلیتهایی پیدا میکند که میتواند زندگی بشری را تغییر دهد. بنابراین، پیش از آنکه اینرسی فزاینده هوش مصنوعی سرعت بیشتری بگیرد، اولویتبندی تولید سامانه هوش مصنوعی مسئول که دربرگیرنده همه پیامدهای بالقوه اجتماعی آن است، حیاتی و مهم خواهد بود.
هوش مصنوعی مسئول، رویکردی است به تولید و استقرار هوش مصنوعی از دو دیدگاه اخلاقی و قانونی. هدف آن بهکارگیری هوش مصنوعی به روشی ایمن، قابل اعتماد و اخلاقی است. استفاده مسئولانه از هوش مصنوعی باید شفافیت را افزایش داده، ضمن آنکه به مواردی مانند کاهش سوگیری نیز کمک کند.
دلیل اینکه اینهمه بحث و جدل بر سر چرایی اخلاق هوش مصنوعی وجود دارد، آن است که این موضوع چالش بزرگی برای نوع بشر است و خواهد بود. نوآوری متفکرانه و مسئولانه به خودی خود مفهوم سادهای نیست، ولی مهم این است که ابتدا این سؤال را درک کنیم که «اخلاق هوش مصنوعی» چیست و آن را در هسته اصلی تولید و کاربرد سامانههای هوش مصنوعی تلفیق کنیم. به طور خلاصه، اخلاق هوش مصنوعی مبتنیبر ارزشهای اجتماعی است و تلاش میکند کارهای «درست» را انجام دهد. از سوی دیگر، هوش مصنوعی مسئول، موضوعی عملیاتیتر است؛ چراکه به چگونگی تولید و استفاده از این فناوری و ابزارها (از قبیل تنوع سوگیری) مرتبط است.
چرا هوش مصنوعی مسئول مهم است؟
همچنان که هوش مصنوعی برای کسبوکار و سازمانهای حیاتیتر میشود، تحقق و پیادهسازی هوش مصنوعی مسئول باید به عنوان یک موضوع بسیار مرتبط در نظر گرفته شود. رشد فزاینده نیاز به هدایت فعالانه تصمیمگیریهای عادلانه، مسئولانه و اخلاق هوش مصنوعی و انطباق آن با قوانین در تنظیمگریهای جاری وجود دارد.
درک نگرانیهای هوش مصنوعی نقطه آغازین ایجاد چارچوبی اخلاقی برای هدایت تولید و استفاده از آن است. هر سازمانی که بخواهد مطمئن شود که کاربرد و استفادههای آن از هوش مصنوعی مضر نیست، باید این تصمیم را با طیف گستردهای از سودبران به شکل بازی به اشتراک بگذارد؛ چراکه این تصمیم به شکل منطقی میتواند با مشتریان مصرفکنندگان، تأمینکنندگان و دیگرانی که ممکن است به شکلی تنگاتنگ درگیر بوده و متأثر شوند، گرفته شود.
تولید و بهکارگیری هوش مصنوعی، همگام با اصول اخلاقی آن، نیازمند شفافیت در فرایند تصمیمگیری و تدوین سیاستهای عملی اخلاق هوش مصنوعی است. با لحاظکردن تحقیقات انجامشده، مشاوره و تحلیل گسترده پیامدهای اخلاقی همراه با اعمال کنترل و توازن، میتوان مطمئن بود این فناوری به شکل مسئولانه و طبق علاقه و سلیقه همه افراد مستقل از نژاد، جنسیت، اعتقاد، محل زندگی یا درآمد، تولید شده و استقرار مییابد.
اصول هوش مصنوعی مسئول کدام است؟
مواجهه با نگرانیهای اخلاقی به معنی درگیرشدن با پیامدهای آن همراه با درایت و تعهد است. نگاه به وجه اخلاق هوش مصنوعی، نه به عنوان یک مانع، بلکه به عنوان مجرای پیشرفت پایدار و ماندگار فناوری، مهم است. به همین دلیل است که به خاطر سپردن اصول هوش مصنوعی مسئول به منظور تکوین آن در مسیری که سود و منفعت همه را در پی داشته باشد، اساسی است. اگرچه هنوز اصول توافقشدهای از اخلاق هوش مصنوعی در سطح جهانی وجود ندارد، ولی برخی از آنها را میتوان به شرح زیر برشمرد:
• عدالت: دادههای به کار گرفتهشده برای آموزش سامانههای هوش مصنوعی باید با دقت انتخاب شده تا از بروز هرگونه تبعیض و نابرابری جلوگیری شود.
• شفافیت: سامانههای هوش مصنوعی باید به طریقی طراحی شود که کاربران امکان درک و فهم چگونگی کار الگوریتمهای آن را داشته باشند.
• عدم آسیبرسانی: سامانههای هوش مصنوعی باید از صدمهرساندن به افراد، جامعه و محیط زیست پرهیز کنند.
• پاسخگویی: تولیدکنندگان، سازمانها و سیاستگذاران باید مطمئن شوند سامانههای هوش مصنوعی به شکلی مسئولانه تولید و استفاده میشوند.
• حریم خصوصی: سامانههای هوش مصنوعی باید از دادههای شخصی محافظت کنند. این خود نیازمند تدوین سازوکارهایی است برای افراد که چگونه گردآوری و استفاده از دادههای خود را کنترل کنند.
• استواری: سامانههای هوش مصنوعی باید ایمن باشند؛ به این معنی که در قبال خطاها، حملات خصمانه و ورودیهای ناخواسته مقاوم باشند.
• فراگیربودن: درگیرکردن دیدگاههای مختلف به شناسایی نگرانیهای بالقوه اخلاقی هوش مصنوعی کمک کرده و اطمینان میدهد اجماعی برای رفع آنها ایجاد میشود.
ارتقای شیوههای هوش مصنوعی مسئول
اصولی که در ادامه خواهند آمد، باید به هدایت تصمیمگیریهای سنجیده و مسئولانه درباره استفاده از هوش مصنوعی کمک کند. در گذار از نظریه به عمل، سازمانها باید سیاستهای عملی را برای اخلاق هوش مصنوعی ایجاد و تدوین کنند. چنین سیاستهایی در ایجاد ملاحظات اخلاقی در طول چرخه عمر هوش مصنوعی مهم بوده و تضمینی برای یکپارچگی آن از زمان شکلگیری مفهومی تا استفاده از آن در دنیای واقعی است. درحالیکه سازمانها ممکن است مسیرهای مختلفی را برای تعبیه شیوههای هوش مصنوعی مسئول در عملیات اجرائی خود انتخاب کنند، ولی روشهای معدودی وجود داشته که میتواند به پیادهسازی این اصول در هر مرحله از تولید و استقرار سامانههای هوش مصنوعی کمک کند. هنگام تصمیمگیری درباره چگونگی ایجاد اخلاق هوش مصنوعی، سازمان باید موارد زیر را انجام دهد:
• تقویت مشارکت همه بخشها و حوزهها (سیاست، فناوری، اخلاق و اجتماعی) با هدف حصول اطمینان از ایجاد دیدگاههای چندوجهی به موضوع،
• اولویتبندی آموزشهای جاری درباره به روشهای هوش مصنوعی در همه سطوح با هدف نگهداشت سطح آگاهی و سازگاری،
• پیادهسازی اخلاق هوش مصنوعی در کل طراحی فناوری و قراردادن آنها از پایه در راهحلهای هوش مصنوعی،
• ایجاد سازوکارهایی روشن با هدف پایش انطباق و هدایت تصمیمگیریهای اخلاقی،
• حفاظت از حریم خصوصی کاربران نهایی و دادههای حساس از طریق حکمرانی قوی هوش مصنوعی و سیاستهای استفاده از دادهها،
• تشویق ایجاد شفافیت در فرایندهای هوش مصنوعی، ایجاد پاسخگویی و اعتماد از سوی سودبران و عامه مردم.
همراهی با روشهای هوش مصنوعی
برای اینکه سامانههای هوش مصنوعی قابل اعتماد باشند، لازم است روی سه موضوع تمرکز شود: 1. استفاده از دادههای خوب و متنوع، 2. اطمینان از اینکه الگوریتم میتواند این تنوع را به کار گیرد و 3. آزمون نرمافزار تولیدشده در مقابل هر برچسب نادرست و وابستگی ضعیف.
چگونگی دستیابی به این هدف به شرح زیر است:
• طراحی برای انسانها (از طریق استفاده از طیف وسیعی از کاربران، موارد کاربرد و اعمال بازخوردهای آنها پیش و در زمان تولید سامانه)
• استفاده از متریکهای چندگانه (به منظور ارزیابی آموزش و پایش ازجمله شاخصهای کلی عملکرد سامانه)
• بررسی دادههای خام از حیث وجود اشتباه (دادههای مغفولمانده یا دارای برچسبهای نادرست)
• درک محدودیتهای مدل
• آزمون مستمر مدل
نمونههایی از هوش مصنوعی مسئول
اگرچه ابزارهایی از هوش مصنوعی مسئول در حال تولید و تکوین هستند، ولی هماکنون از این ابزارها در حوزههایی مانند امتیازدهی اعتباری، کمک به پاتولوژیستها در تشخیص بیماری و انجام آزمایشهای بالینی، استخدام نیروی انسانی از طریق ارزیابی عادلانه معیارهای مرتبط و تشخیص و غربالگری شرایط رایج مانند دیابت و سرطان پستان استفاده میشود.
رویکرد استانداردی
در مسیر تولید سامانههای هوش مصنوعی مسئول، بخشهای مختلفی از جامعه باید لاجرم به تدریج درگیر شوند. در این میان، نقش نهادهای استانداردگذاری مانند «ایزو» که با تدوین استانداردهای بینالمللی از کاربردهای بنیادین فناوری هوش مصنوعی مراقبت میکنند، حائز اهمیت است. در شکلدهی هوش مصنوعی اخلاقی، دولتها، سازمانها و شرکتهای سراسر دنیا باید این ارزشها را عینیت بخشیده و مطمئن شوند که نوآوری در این زمینه، قرین و همراه مسئولیت اخلاقی است. استانداردهای بینالمللی میتواند تضمینی «اخلاقی» برای هوش مصنوعی باشد؛ به نحوی که مدام عملکرد این صنعت متحولکننده را در بهترین مسیر هدایت کند.
دورنما
دلایل زیادی وجود دارد برای اینکه به آیندهای خوشبین باشیم که در آن هوش مصنوعی مسئول زندگی انسانها را متحول کرده و بهبود خواهد بخشید. در حال حاضر گامهای متحولکنندهای در حوزه مراقبتهای بهداشتی، آموزش و تحلیل دادهها برداشته شده است. این موضوع که ریشه در طراحی اخلاقی دارد، میتواند یک همزیستی بدیع از نوآوریهای فناورانه و مبانی پایهای انسانی به ما نشان دهد. هوش مصنوعی مسئول، چشمانداز جامعی از انعکاس بافت «اخلاقی» جامعه در هوش ماشینی است. این به معنای تعهد سامانههای هوش مصنوعی است برای مراقبت و حفاظت از حقوق بشر، حریم خصوصی و دادهها. در این مسیر، هر ابتکار و اقدام در حوزه هوش مصنوعی بهمثابه پلهای است به سوی آینده؛ آیندهای که در آن فناوری نهتنها جایگاه انسان را قدرتمند میکند، بلکه به آن احترام میگذارد.