انسان‌گرایی دیجیتال
  • خانه
  • آخرین اخبار
  • فعالیت‌ها
  • درباره
  • وبلاگ
  • تماس با ما
بهمن ۹, ۱۳۹۷ by علیرضا صائبی

رهنمودهای جهانی برای هوش مصنوعی

رهنمودهای جهانی برای هوش مصنوعی
بهمن ۹, ۱۳۹۷ by علیرضا صائبی

رهنمودهای جهانی برای هوش مصنوعی

یادداشت توضیحی و مراجع
مهرماه ۱۳۹۷ (اکتبر ۲۰۱۸)

مقدمه

رهنمود جهانی هوش مصنوعی (Universal Guidelines for Artificial Intelligence یا به‌اختصار UGAI) با هدف جلب‌توجه به چالش‌های رو به رشد سامانه‌های محاسباتی هوشمند تدوین شده و توصیه‌هایی عینی و عملی برای بهبود طراحی آن‌ها پیشنهاد می‌کند. هدف UGAI در بطن خود، ارتقای شفافیت و مسئولیت‌پذیری در این سامانه‌ها و اطمینان از حفظ کنترل افراد بر سامانه‌هایی است که ایجاد می‌کنند. همه سامانه‌ها در محدوده این رهنمودها قرار نمی‌گیرند و نگرانی اصلی تدوینگران این رهنمود در مورد سامانه‌هایی است که بر حقوق مردم تأثیر می‌گذارند. مهم‌تر از همه، این سامانه‌ها نباید آسیبی (به چیزی یا کسی) وارد کنند.
به نظر می‌رسد زمان برای ارائه این رهنمودها مناسب است چراکه دولت‌ها در سراسر جهان در حال تدوین سیاست‌ها و راهبردهایی در حوزه «هوش مصنوعی» هستند و نهادها اعم از دولتی و خصوصی، از تحقیقات و توسعه در این زمینه حمایت می‌کنند. تاثیر زیاد این سامانه‌ها بر عموم مردم، فارغ از اینکه طراح و توسعه‌دهنده آنچه کسانی هستند. بنابراین، UGAI در این چالش دیدگاه عمومی را در نظر گرفته و منعکس می‌کند.
این رهنمودها (UGAI) در کنفرانس بین‌المللی کمیسیون‌های حفاظت از داده و حریم خصوصی در سال ۲۰۱۸، یکی از مهم‌ترین نشست‌های رهبران فناوری و کارشناسان حفاظت از داده در تاریخ اعلام شد.
تدوین این رهنمودها (UGAI) بر اساس کارهای انجام‌شده قبلی در انجمن‌های علمی، اتاق‌های فکر، NGO ها و سازمان‌های بین‌المللی است. UGAI دربرگیرنده عناصر دکترین حقوق بشر، قانون حفاظت از داده‌ها و دستورالعمل‌های اخلاقی است. این مجموعه شامل چندین اصل تثبیت‌شده برای حکمرانی هوش مصنوعی بوده و اصول جدیدی را که قبلاً در چارچوب‌های سیاست مشابه بیان نشده بودند، ارائه می‌کند.

واژه‌شناسی

اصطلاح «هوش مصنوعی» امروزه به صورتی گسترده و نادقیق به کار می‌رود. این اصطلاح شامل جنبه‌های یادگیری ماشین، تصمیم‌گیری مبتنی بر قوانین (Rule-Based Decision-Making) و سایر تکنیک‌های محاسباتی می‌شود. همچنین در مورد اینکه آیا ممکن است هوش مصنوعی واقعی ایجاد شود یا خیر، اختلاف‌نظر وجود دارد. UGAI اذعان دارد که با توجه به طیف گسترده موضوعات مرتبط با این اصطلاح در کاربردهای رایج آن، از این اصطلاح برای در رهنمودهای این سند استفاده کرده و به‌جز این فرض که هوش مصنوعی به درجاتی از تصمیم‌گیری خودکار نیاز دارد، هیچ تلاشی برای تعریف مرز مشخصی برای آن انجام نمی‌دهد. اصطلاح «رهنمودها» به‌صورت عمده به چارچوب‌هایی برای سیاست‌گذاری در دولت‌ها و شرکت‌های خصوصی اشاره می‌کند.
UGAI از الزامات «مؤسسات» و حقوق «افراد» صحبت می‌کند که از شیوه‌های منصفانه تعیین‌شده در حوزه حفاظت از اطلاعات سرچشمه می‌گیرد چراکه UGAI حفاظت از حقوق افراد را به‌عنوان یک هدف اساسی در نظر گرفته است.
در این رهنمودها، مؤسسات عمومی و خصوصی به‌عنوان نهادهایی که سامانه‌های هوش مصنوعی را توسعه داده و مستقر می‌کنند، در نظر گرفته‌شده‌اند. عبارت «مؤسسات» به‌جای عبارت «سازمان» برای تأکید بر ماهیت دائمی و مداوم الزامات مندرج در رهنمودها انتخاب‌شده است. یکی از اصول نیز به «دولت‌ها» (در سطح ملی برای هر کشور) اختصاص داده‌شده است که دلیل آن در ادامه شرح داده می‌شود.

کاربرد

این دستورالعمل‌ها باید در استانداردهای اخلاقی و طراحی سامانه‌ها گنجانده‌شده و در قوانین ملی و موافقت‌نامه‌های بین‌المللی پذیرفته شود.

اصول

۱- عناصر اصل شفافیت را می‌توان در چندین قانون حریم خصوصی مدرن یافت، ازجمله قانون حریم خصوصی ایالات‌متحده (US Privacy Act)، دستورالعمل محافظت از داده‌ها در اتحادیه اروپا (EU Data Protection Directive)، مقررات کلی محافظت از داده عمومی (GDPR) و کنوانسیون شماره ۱۰۸ شورای اروپا (Council of Europe Convention 108). هدف اصل شفافیت آنستکه بگوید افراد حق دارند که مبنای تصمیم‌گیری‌های خودکار که توسط سامانه‌های هوش مصنوعی گرفته می‌شوند، به ایشان اعلام شود و تأکید کلیدی این اصل بر حق افراد در اطلاع از مبنای یک تصمیم (خودکار) نامطلوب است حتی اگر در عمل تفسیر مبنای یک تصمیم خاص (خودکار) برای یک فرد ممکن نباشد.
2- حق تصمیم‌گیری انسانی تأکید می‌کند که مسئولیت تصمیم‌گیری خودکار با افراد است و نه ماشین‌ها. هرچند در بسیاری از موارد، مانند عملکرد یک خودروی خودکار، اخذ تصمیم انسانی پیش از تصمیم خودکار (توسط ماشین) ممکن یا عملی نیست؛ اما هدف همچنان تضمین پاسخگویی (افراد نسبت به ماشین) است. بنابراین در شرایط بروز خطا یا شکست یک سیستم خودکار، این اصل باید به‌عنوان یک الزام برای انجام ارزیابی انسانی نتیجه، در نظر گرفته شود.
3- الزام به شناسایی به رفع ابهام هویت در تعامل بین افراد و سامانه‌های هوش مصنوعی می‌پردازد. سامانه‌های هوش مصنوعی به‌طورمعمول اطلاعات دقیق و زیادی از افراد دارند، اما افراد ممکن است هیچ اطلاعی از عامل یا گرداننده این سامانه‌ها نداشته باشند. اصل تعهد شناسایی این مسئولیت را برای سامانه‌های هوش مصنوعی تعیین می‌کند که هویت خود و نهاد مسئول را به‌وضوح برای افراد مشخص کنند.
4- الزام به رعایت عدالت هرچند که نشانه‌هایی از سوگیری و تبعیض در تصمیمات اخذشده توسط تمامی سامانه‌های خودکار قابل‌مشاهده است، اما این تصمیمات نبایست ناعادلانه و غیرمنصفانه باشند. بدیهی است نمی‌توان به‌سادگی تعیین کرد که چه چیزی ناعادلانه یا ناروا است؛ لذا نتیجه این ارزیابی اغلب به زمینه مسئله وابسته است. اما الزام به انصاف تأکید می‌کند که ارزیابی نتایج عینی به‌تنهایی برای ارزیابی یک سیستم هوش مصنوعی کافی نیست؛ بلکه پیامدها و تبعات اجرای تصمیم نیز بایستی ارزیابی شوند، شامل مواردی که از قبل وجود داشته‌اند یا ممکن است توسط یک سیستم هوش مصنوعی ایجاد یا تشدید شوند.
5- الزام به ارزیابی و پاسخگویی به لزوم ارزیابی یک سیستم هوش مصنوعی قبل و در طول استقرار اشاره دارد. هدف کلیدی از ارزیابی رسیدن به پاسخ این سؤال است که آیا باید یک سیستم هوش مصنوعی به کار گرفته شود یا نه. اگر نتایج ارزیابی خطرات قابل‌توجهی مانند خطرات حوزه ایمنی عمومی و امنیت سایبری را نشان دهد، پیشبرد پروژه باید متوقف شود.
6- الزام به دقت، قابلیت اطمینان و اعتبار مسئولیت‌های کلیدی مرتبط با نتیجه تصمیمات خودکار را تعیین می‌کند. این عبارات می‌توانند به‌صورت مستقل یا ترکیبی تفسیر شوند.
7- اصل کیفیت داده از الزام قبلی پیروی می‌کند.
8- الزام ایمنی عمومی با توجه به اینکه سامانه‌های هوش مصنوعی دستگاه‌ها و تجهیزاتی را در دنیای فیزیکی کنترل می‌کنند، بایستی مؤسسات خطرات (ناشی از کنترل دستگاه‌ها توسط هوش مصنوعی) را ارزیابی کرده و در صورت لزوم اقدامات احتیاطی و پیشگیرانه را انجام دهند.
9- الزام امنیت سایبری از الزام ایمنی عمومی پیروی می‌کند و بر روی این نکته تأکید می‌کند که حتی سامانه‌هایی که به‌خوبی طرحی شده‌اند نیز ممکن است هدف دشمنان و بازیگران متخاصم قرار گیرند. کسانی که سامانه‌های هوش مصنوعی را توسعه می‌دهند یا مستقر می‌کنند باید این مخاطرات را در نظر بگیرند.
10- الزام به ممنوعیت داده‌برداری مخفی از الزام شناسایی پیشین پیروی می‌کند. هدف از این الزام، جلوگیری از جمع‌آوری داده‌ها و اطلاعات درباره افراد به‌صورت مخفیانه و بدون اطلاع ایشان است که با سامانه‌های هوش مصنوعی افزایش می‌یابد. به این معنا که افراد باید بدانند چه اطلاعاتی در مورد آن‌ها جمع‌آوری‌شده و چگونه از آن‌ها استفاده می‌شود تا در صورت لزوم بتوانند حقوق و حریم خصوصی خود را حفظ کرده و اطمینان حاصل کنند که مسئولیت در این زمینه بر عهده چه مرجعی است.
11- الزام به ممنوعیت امتیازدهی واحد/یکپارچه به‌طور مستقیم به خطر شناسه یکتای یکپارچه اختصاص داده‌شده (چندمنظوره) توسط دولت به یک فرد اشاره دارد (مثل کد ملی). در قانون حفاظت از داده‌ها، شناسه‌های یکپارچه که امکان داده‌برداری افراد را در حوزه‌های مختلف فراهم می‌کنند، نامطلوب هستند. برای این شناسه‌ها و کاربردهای آن‌ها، در اغلب حوزه‌ها قوانین و مقرراتی تعریف شده و در برخی موارد استفاده از آن‌ها ممنوع است. نگرانی‌ها در مورد امتیازدهی یکپارچه، که در اینجا با عنوان «امتیازدهی واحد» توصیف‌شده است، بیشتر است.
امتیاز واحد نه‌تنها نمایانگر یک نمایه (پروفایل) یکپارچه از اطلاعات افراد است، بلکه ممکن است بر اساس قوانین، الگوها یا اصولی که از قبل توسط یک نهاد یا سیستم مشخص تعیین شده‌اند، محاسبه شده باشد و بدون توجه به شرایط و ویژگی‌های خاص افراد یک نتیجه از پیش تعیین‌شده (که الزاماً درست و عادلانه نیست) را برای فعالیت‌های فرد در بخش‌های مختلف برآورد کرده باشد. همچنین ریسک پدیدارشدن امتیازدهی واحد در بخش خصوصی نیز وجود دارد. قابل‌تصور است که قوانین و مبانی محاسباتی در چنین سامانه‌هایی تحت تاثیر رقابت رقبا در بازار و یا مقررات دولتی قرار گیرند و ازآنجاکه اگر دولت این امتیازات را داده باشد، امکان اطلاع از جزئیات و مبانی محاسباتی آن و اعتراض یا تغییر در آن‌ها برای افراد وجود ندارد، باید ممنوع شوند.
12- الزام به پایان (توقف) بیانیه نهایی مسئولیت‌پذیری و پاسخگویی برای یک سیستم هوش مصنوعی است. این الزام سامانه‌های هوش مصنوعی را ملزم می‌کند که در محدوده کنترل انسانی باقی بمانند. هر زمان که این الزام امکان‌پذیر نباشد، سیستم باید به کار خود پایان دهد.

مراجع

• Asilomar AI Principles (2017)
• Aspen Institute Roundtable on Artificial Intelligence (2016)
• Association for Computing Machinery, U.S. Public Policy Counsel,
Statement on Algorithmic Transparency and Accountability (Jan. 2017)
• Council of Europe, Convention 108 (1981)
• Council of Europe and Artificial Intelligence (2018)
• Data and Society, Governing Artificial Intelligence (2018)
• European Commission, High-Level Expert Group on Artificial Intelligence (2018)
• EU General Data Protection Regulation (2018)
• IEEE, Ethically Aligned Design (2016)
• Japan, Ministry of Internal Affairs and Communications, AI R&D Guidelines (2016)
• Garry Kasparov, Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins (2017)
• Madrid Privacy Declaration (2009)
• OECD, Artificial Intelligence (2018)
• OECD, Privacy Guidelines (1980)
• Cathy O’Neil, Weapons of Math Destruction (2016)
• Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (2015)
• Privacy International, Artificial Intelligence (2018)
• US Privacy Act (1974)
• Toronto Declaration (2018)
• Joseph Weizenbaum, Computer Power and Human Reason (1976)
• Universal Declaration of Human Rights (1948)

نسخه فارسی این مطلب توسط علیرضا صائبی از نسخه انگلیسی ترجمه شده است.
مرجع: https://www.caidp.org/events/oct2023-dc-ugai

Next article نقشه راه انسان‌گرایی دیجیتالنقشه راه انسان‌گرایی دیجیتال

پست های اخیر

هوش مصنوعی شیوه کارکردن را تغییر می‌دهد.خرداد ۱۰, ۱۴۰۴
انسان گرایی دیجیتال – کنفرانس علوم و تحقیقات میان‌رشته‌ایفروردین ۲۳, ۱۴۰۴
استعمارزدایی از آینده – علم کامپیوتر دیگر مانند گذشته فقط علم یا مهندسی نیستفروردین ۹, ۱۴۰۴

دسته‌ها

  • اخبار
  • چندرسانه‌ای
  • دسته‌بندی نشده
  • سخنرانی
  • گزارش‌ها
  • مقالات و کتب

اطلاعات

  • ورود
  • خوراک ورودی‌ها
  • خوراک دیدگاه‌ها
  • وردپرس

برچسب‌ها

caidp deepseek EU AI Act OKF آموزش آموزش فناوری اطلاعات آموزش متخصص کامپیوتر اتحادیه اروپا اخلاق هوش مصنوعی استعمار دیجیتال استعمالزدایی دیجیتال اطلاعات نادرست انسانگرایی دیجیتال بازار کار بیانیه انسانگرایی دیجیتال جامعه انسانگرا حاکمیت حاکمیت دیجیتال حق حاکمیت حقوق بشر حکمرانی حکمرانی دیجیتال دروغ دموکراسی دیپ سیک رهنمودهای هوش مصنوعی سخنرانی انسانگرایی دیجیتال سیاستگذاری هوش مصنوعی فلسفه قانون هوش مصنوعی اتحادیه اروپا قانونگذاری دیجیتال قوانین هوش مصنوعی مشاغل معرفی کتاب مقدمه انسانگرایی دیجیتال مهارتهای آینده نقشه راه انسانگرایی دیجیتال هوش مصنوعی هویت دیجیتال وبینار انسانگرایی دیجیتال پایداری زیست محیطی چشم اندازهایی بر انسانگرایی دیجیتال کار بدون شغل کتاب انسانگرایی دیجیتال کنفرانس علمی

تماس با ما

لطفا دیدگاه‌ها، نظرات و پیام‌های خود را از طریق راه‌های ارتباطی زیر برای بخش فارسی هم‌اندیشی انسان‌گرایی دیجیتال ارسال فرمایید.
00989123408695
dighum.ir@gmail.comhttps://dighum.ir
شما در تمامی ایام هفته‌ می‌توانید پیام‌های خود را از طریق راه‌های ارتباطی مذکور در سایت ارسال فرمایید.

پست های اخیر

هوش مصنوعی شیوه کارکردن را تغییر می‌دهد.خرداد ۱۰, ۱۴۰۴
انسان گرایی دیجیتال – کنفرانس علوم و تحقیقات میان‌رشته‌ایفروردین ۲۳, ۱۴۰۴
استعمارزدایی از آینده – علم کامپیوتر دیگر مانند گذشته فقط علم یا مهندسی نیستفروردین ۹, ۱۴۰۴
تمامی حقوق این وب‌سایت برای هم‌اندیشی انسان‌گرایی دیجیتال محفوظ است.

پست های اخیر

هوش مصنوعی شیوه کارکردن را تغییر می‌دهد.خرداد ۱۰, ۱۴۰۴
انسان گرایی دیجیتال – کنفرانس علوم و تحقیقات میان‌رشته‌ایفروردین ۲۳, ۱۴۰۴
استعمارزدایی از آینده – علم کامپیوتر دیگر مانند گذشته فقط علم یا مهندسی نیستفروردین ۹, ۱۴۰۴

دسته‌ها

  • اخبار
  • چندرسانه‌ای
  • دسته‌بندی نشده
  • سخنرانی
  • گزارش‌ها
  • مقالات و کتب

اطلاعات

  • ورود
  • خوراک ورودی‌ها
  • خوراک دیدگاه‌ها
  • وردپرس