رهنمودهای جهانی برای هوش مصنوعی
یادداشت توضیحی و مراجع
مهرماه ۱۳۹۷ (اکتبر ۲۰۱۸)
مقدمه
رهنمود جهانی هوش مصنوعی (Universal Guidelines for Artificial Intelligence یا بهاختصار UGAI) با هدف جلبتوجه به چالشهای رو به رشد سامانههای محاسباتی هوشمند تدوین شده و توصیههایی عینی و عملی برای بهبود طراحی آنها پیشنهاد میکند. هدف UGAI در بطن خود، ارتقای شفافیت و مسئولیتپذیری در این سامانهها و اطمینان از حفظ کنترل افراد بر سامانههایی است که ایجاد میکنند. همه سامانهها در محدوده این رهنمودها قرار نمیگیرند و نگرانی اصلی تدوینگران این رهنمود در مورد سامانههایی است که بر حقوق مردم تأثیر میگذارند. مهمتر از همه، این سامانهها نباید آسیبی (به چیزی یا کسی) وارد کنند.
به نظر میرسد زمان برای ارائه این رهنمودها مناسب است چراکه دولتها در سراسر جهان در حال تدوین سیاستها و راهبردهایی در حوزه «هوش مصنوعی» هستند و نهادها اعم از دولتی و خصوصی، از تحقیقات و توسعه در این زمینه حمایت میکنند. تاثیر زیاد این سامانهها بر عموم مردم، فارغ از اینکه طراح و توسعهدهنده آنچه کسانی هستند. بنابراین، UGAI در این چالش دیدگاه عمومی را در نظر گرفته و منعکس میکند.
این رهنمودها (UGAI) در کنفرانس بینالمللی کمیسیونهای حفاظت از داده و حریم خصوصی در سال ۲۰۱۸، یکی از مهمترین نشستهای رهبران فناوری و کارشناسان حفاظت از داده در تاریخ اعلام شد.
تدوین این رهنمودها (UGAI) بر اساس کارهای انجامشده قبلی در انجمنهای علمی، اتاقهای فکر، NGO ها و سازمانهای بینالمللی است. UGAI دربرگیرنده عناصر دکترین حقوق بشر، قانون حفاظت از دادهها و دستورالعملهای اخلاقی است. این مجموعه شامل چندین اصل تثبیتشده برای حکمرانی هوش مصنوعی بوده و اصول جدیدی را که قبلاً در چارچوبهای سیاست مشابه بیان نشده بودند، ارائه میکند.
واژهشناسی
اصطلاح «هوش مصنوعی» امروزه به صورتی گسترده و نادقیق به کار میرود. این اصطلاح شامل جنبههای یادگیری ماشین، تصمیمگیری مبتنی بر قوانین (Rule-Based Decision-Making) و سایر تکنیکهای محاسباتی میشود. همچنین در مورد اینکه آیا ممکن است هوش مصنوعی واقعی ایجاد شود یا خیر، اختلافنظر وجود دارد. UGAI اذعان دارد که با توجه به طیف گسترده موضوعات مرتبط با این اصطلاح در کاربردهای رایج آن، از این اصطلاح برای در رهنمودهای این سند استفاده کرده و بهجز این فرض که هوش مصنوعی به درجاتی از تصمیمگیری خودکار نیاز دارد، هیچ تلاشی برای تعریف مرز مشخصی برای آن انجام نمیدهد. اصطلاح «رهنمودها» بهصورت عمده به چارچوبهایی برای سیاستگذاری در دولتها و شرکتهای خصوصی اشاره میکند.
UGAI از الزامات «مؤسسات» و حقوق «افراد» صحبت میکند که از شیوههای منصفانه تعیینشده در حوزه حفاظت از اطلاعات سرچشمه میگیرد چراکه UGAI حفاظت از حقوق افراد را بهعنوان یک هدف اساسی در نظر گرفته است.
در این رهنمودها، مؤسسات عمومی و خصوصی بهعنوان نهادهایی که سامانههای هوش مصنوعی را توسعه داده و مستقر میکنند، در نظر گرفتهشدهاند. عبارت «مؤسسات» بهجای عبارت «سازمان» برای تأکید بر ماهیت دائمی و مداوم الزامات مندرج در رهنمودها انتخابشده است. یکی از اصول نیز به «دولتها» (در سطح ملی برای هر کشور) اختصاص دادهشده است که دلیل آن در ادامه شرح داده میشود.
کاربرد
این دستورالعملها باید در استانداردهای اخلاقی و طراحی سامانهها گنجاندهشده و در قوانین ملی و موافقتنامههای بینالمللی پذیرفته شود.
اصول
۱- عناصر اصل شفافیت را میتوان در چندین قانون حریم خصوصی مدرن یافت، ازجمله قانون حریم خصوصی ایالاتمتحده (US Privacy Act)، دستورالعمل محافظت از دادهها در اتحادیه اروپا (EU Data Protection Directive)، مقررات کلی محافظت از داده عمومی (GDPR) و کنوانسیون شماره ۱۰۸ شورای اروپا (Council of Europe Convention 108). هدف اصل شفافیت آنستکه بگوید افراد حق دارند که مبنای تصمیمگیریهای خودکار که توسط سامانههای هوش مصنوعی گرفته میشوند، به ایشان اعلام شود و تأکید کلیدی این اصل بر حق افراد در اطلاع از مبنای یک تصمیم (خودکار) نامطلوب است حتی اگر در عمل تفسیر مبنای یک تصمیم خاص (خودکار) برای یک فرد ممکن نباشد.
2- حق تصمیمگیری انسانی تأکید میکند که مسئولیت تصمیمگیری خودکار با افراد است و نه ماشینها. هرچند در بسیاری از موارد، مانند عملکرد یک خودروی خودکار، اخذ تصمیم انسانی پیش از تصمیم خودکار (توسط ماشین) ممکن یا عملی نیست؛ اما هدف همچنان تضمین پاسخگویی (افراد نسبت به ماشین) است. بنابراین در شرایط بروز خطا یا شکست یک سیستم خودکار، این اصل باید بهعنوان یک الزام برای انجام ارزیابی انسانی نتیجه، در نظر گرفته شود.
3- الزام به شناسایی به رفع ابهام هویت در تعامل بین افراد و سامانههای هوش مصنوعی میپردازد. سامانههای هوش مصنوعی بهطورمعمول اطلاعات دقیق و زیادی از افراد دارند، اما افراد ممکن است هیچ اطلاعی از عامل یا گرداننده این سامانهها نداشته باشند. اصل تعهد شناسایی این مسئولیت را برای سامانههای هوش مصنوعی تعیین میکند که هویت خود و نهاد مسئول را بهوضوح برای افراد مشخص کنند.
4- الزام به رعایت عدالت هرچند که نشانههایی از سوگیری و تبعیض در تصمیمات اخذشده توسط تمامی سامانههای خودکار قابلمشاهده است، اما این تصمیمات نبایست ناعادلانه و غیرمنصفانه باشند. بدیهی است نمیتوان بهسادگی تعیین کرد که چه چیزی ناعادلانه یا ناروا است؛ لذا نتیجه این ارزیابی اغلب به زمینه مسئله وابسته است. اما الزام به انصاف تأکید میکند که ارزیابی نتایج عینی بهتنهایی برای ارزیابی یک سیستم هوش مصنوعی کافی نیست؛ بلکه پیامدها و تبعات اجرای تصمیم نیز بایستی ارزیابی شوند، شامل مواردی که از قبل وجود داشتهاند یا ممکن است توسط یک سیستم هوش مصنوعی ایجاد یا تشدید شوند.
5- الزام به ارزیابی و پاسخگویی به لزوم ارزیابی یک سیستم هوش مصنوعی قبل و در طول استقرار اشاره دارد. هدف کلیدی از ارزیابی رسیدن به پاسخ این سؤال است که آیا باید یک سیستم هوش مصنوعی به کار گرفته شود یا نه. اگر نتایج ارزیابی خطرات قابلتوجهی مانند خطرات حوزه ایمنی عمومی و امنیت سایبری را نشان دهد، پیشبرد پروژه باید متوقف شود.
6- الزام به دقت، قابلیت اطمینان و اعتبار مسئولیتهای کلیدی مرتبط با نتیجه تصمیمات خودکار را تعیین میکند. این عبارات میتوانند بهصورت مستقل یا ترکیبی تفسیر شوند.
7- اصل کیفیت داده از الزام قبلی پیروی میکند.
8- الزام ایمنی عمومی با توجه به اینکه سامانههای هوش مصنوعی دستگاهها و تجهیزاتی را در دنیای فیزیکی کنترل میکنند، بایستی مؤسسات خطرات (ناشی از کنترل دستگاهها توسط هوش مصنوعی) را ارزیابی کرده و در صورت لزوم اقدامات احتیاطی و پیشگیرانه را انجام دهند.
9- الزام امنیت سایبری از الزام ایمنی عمومی پیروی میکند و بر روی این نکته تأکید میکند که حتی سامانههایی که بهخوبی طرحی شدهاند نیز ممکن است هدف دشمنان و بازیگران متخاصم قرار گیرند. کسانی که سامانههای هوش مصنوعی را توسعه میدهند یا مستقر میکنند باید این مخاطرات را در نظر بگیرند.
10- الزام به ممنوعیت دادهبرداری مخفی از الزام شناسایی پیشین پیروی میکند. هدف از این الزام، جلوگیری از جمعآوری دادهها و اطلاعات درباره افراد بهصورت مخفیانه و بدون اطلاع ایشان است که با سامانههای هوش مصنوعی افزایش مییابد. به این معنا که افراد باید بدانند چه اطلاعاتی در مورد آنها جمعآوریشده و چگونه از آنها استفاده میشود تا در صورت لزوم بتوانند حقوق و حریم خصوصی خود را حفظ کرده و اطمینان حاصل کنند که مسئولیت در این زمینه بر عهده چه مرجعی است.
11- الزام به ممنوعیت امتیازدهی واحد/یکپارچه بهطور مستقیم به خطر شناسه یکتای یکپارچه اختصاص دادهشده (چندمنظوره) توسط دولت به یک فرد اشاره دارد (مثل کد ملی). در قانون حفاظت از دادهها، شناسههای یکپارچه که امکان دادهبرداری افراد را در حوزههای مختلف فراهم میکنند، نامطلوب هستند. برای این شناسهها و کاربردهای آنها، در اغلب حوزهها قوانین و مقرراتی تعریف شده و در برخی موارد استفاده از آنها ممنوع است. نگرانیها در مورد امتیازدهی یکپارچه، که در اینجا با عنوان «امتیازدهی واحد» توصیفشده است، بیشتر است.
امتیاز واحد نهتنها نمایانگر یک نمایه (پروفایل) یکپارچه از اطلاعات افراد است، بلکه ممکن است بر اساس قوانین، الگوها یا اصولی که از قبل توسط یک نهاد یا سیستم مشخص تعیین شدهاند، محاسبه شده باشد و بدون توجه به شرایط و ویژگیهای خاص افراد یک نتیجه از پیش تعیینشده (که الزاماً درست و عادلانه نیست) را برای فعالیتهای فرد در بخشهای مختلف برآورد کرده باشد. همچنین ریسک پدیدارشدن امتیازدهی واحد در بخش خصوصی نیز وجود دارد. قابلتصور است که قوانین و مبانی محاسباتی در چنین سامانههایی تحت تاثیر رقابت رقبا در بازار و یا مقررات دولتی قرار گیرند و ازآنجاکه اگر دولت این امتیازات را داده باشد، امکان اطلاع از جزئیات و مبانی محاسباتی آن و اعتراض یا تغییر در آنها برای افراد وجود ندارد، باید ممنوع شوند.
12- الزام به پایان (توقف) بیانیه نهایی مسئولیتپذیری و پاسخگویی برای یک سیستم هوش مصنوعی است. این الزام سامانههای هوش مصنوعی را ملزم میکند که در محدوده کنترل انسانی باقی بمانند. هر زمان که این الزام امکانپذیر نباشد، سیستم باید به کار خود پایان دهد.
مراجع
• Asilomar AI Principles (2017)
• Aspen Institute Roundtable on Artificial Intelligence (2016)
• Association for Computing Machinery, U.S. Public Policy Counsel,
Statement on Algorithmic Transparency and Accountability (Jan. 2017)
• Council of Europe, Convention 108 (1981)
• Council of Europe and Artificial Intelligence (2018)
• Data and Society, Governing Artificial Intelligence (2018)
• European Commission, High-Level Expert Group on Artificial Intelligence (2018)
• EU General Data Protection Regulation (2018)
• IEEE, Ethically Aligned Design (2016)
• Japan, Ministry of Internal Affairs and Communications, AI R&D Guidelines (2016)
• Garry Kasparov, Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins (2017)
• Madrid Privacy Declaration (2009)
• OECD, Artificial Intelligence (2018)
• OECD, Privacy Guidelines (1980)
• Cathy O’Neil, Weapons of Math Destruction (2016)
• Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (2015)
• Privacy International, Artificial Intelligence (2018)
• US Privacy Act (1974)
• Toronto Declaration (2018)
• Joseph Weizenbaum, Computer Power and Human Reason (1976)
• Universal Declaration of Human Rights (1948)
نسخه فارسی این مطلب توسط علیرضا صائبی از نسخه انگلیسی ترجمه شده است.
مرجع: https://www.caidp.org/events/oct2023-dc-ugai