خلاصه مصوبات اصلاحی قانون هوش مصنوعی اروپا
جمعه ۸ دسامبر ۲۰۲۳ – ۱۷ آذرماه ۱۴۰۲
خلاصه مصوبات اصلاحی:
- مقررات توافقشده برای هوش مصنوعی با کاربردهای عمومی
- محدودیت استفاده از سیستمهای شناسایی بیومتریک توسط مجریان قانون
- ممنوعیت امتیازدهی اجتماعی[۱] و استفاده از هوش مصنوعی برای دستکاری یا سوءاستفاده از نقطهضعفهای کاربران
- حق مصرفکنندگان برای طرح شکایت و دریافت توضیحات معنادار (نسبت به سیستمهای هوش مصنوعی)
- جریمههایی از ۳۵ میلیون یورو یا ۷ درصد گردش مالی جهانی تا ۷.۵ میلیون یا ۱.۵ درصد گردش مالی جهانی
اعضای پارلمان اروپا با شورای اتحادیه اروپا به توافقی سیاسی در مورد لایحهای برای اطمینان از ایمن بودن هوش مصنوعی در اروپا، احترام به حقوق اساسی و دموکراسی، و درعینحال امکان شکوفایی و گسترش کسبوکارها رسیدند.
در روز جمعه، مذاکرهکنندگان پارلمان و شورا به توافقی موقت در مورد قانون هوش مصنوعی دست یافتند. این مقررات با هدف اطمینان از محافظت از حقوق اساسی، دموکراسی، حاکمیت قانون و پایداری محیطزیست در برابر هوش مصنوعی پرخطر، درعینحال افزایش نوآوری و تبدیل اروپا به رهبر این حوزه تدوین شده است. این قوانین الزاماتی را برای هوش مصنوعی بر اساس خطرات بالقوه و سطح تأثیر آن تعیین میکند.
کاربردهای ممنوعه
قانونگذاران مشترکاً با درک تهدید بالقوهای که برخی از کاربردهای هوش مصنوعی برای حقوق شهروندان و دموکراسی ایجاد میکنند، توافق کردند که موارد زیر را ممنوع کنند:
- سیستمهای طبقهبندی بیومتریک که از ویژگیهای حساس استفاده میکنند (مانند باورهای سیاسی، مذهبی، فلسفی، گرایش جنسی، نژاد).
- جمعآوری عمومی (تصادفی) تصاویر چهره شهروندان از اینترنت یا فیلمهای CCTV برای ایجاد پایگاههای داده تشخیص چهره.
- تشخیص احساسات در محل کار و مؤسسات آموزشی.
- امتیازدهی اجتماعی بر اساس رفتارهای اجتماعی یا ویژگیهای شخصی.
- سیستمهای هوش مصنوعی که رفتار انسان را بهگونهای کنترل میکنند که انسان دیگر بر اعمال خود کنترل نداشته باشد (قادر به تصمیمگیری آزادانه بر اساس اراده خود نباشد).
- هوش مصنوعی برای سوءاستفاده از آسیبپذیریهای افراد (به دلیل سن، معلولیت، وضعیت اجتماعی یا اقتصادی).
معافیتهای اجرای قانون
مذاکرهکنندگان در مورد یک سری ضمانتها و استثناهای محدود برای استفاده از سیستمهای شناسایی بیومتریک (RBI)[۲] مشروط به مجوز قضایی قبلی و برای فهرستهای دقیق جرایم، در مکانهای عمومی با هدف اجرای قانون توافق کردند. RBI میتواند برای «شناسایی پس از وقوع جرم» به طور دقیق در جستجوی هدفمند فردی که مرتکب جرم جدی شده یا مظنون به آن است، استفاده شود. RBI «بلادرنگ» (زنده و Realtime) با شرایط خیلی دشوار و تنها محدود به موارد زیر قابلاستفاده خواهد بود:
- جستجوی هدفمند قربانیان (ربودن، قاچاق، استثمار جنسی شهروندان)
- پیشگیری از یک تهدید خاص و فعلی تروریستی
- مکانیابی یا شناسایی فرد مظنون به ارتکاب یکی از جرایم خاص ذکر شده در مقررات (مانند تروریسم، قاچاق، استثمار جنسی، قتل، آدمربایی، تجاوز جنسی، سرقت مسلحانه، مشارکت در سازمان جنایی، جرایم زیستمحیطی)
الزامات برای سیستمهای پرخطر[۳]
برای سیستمهای هوش مصنوعی طبقهبندی شده بهعنوان پرخطر (به دلیل پتانسیل بالای آسیب به سلامت، ایمنی، حقوق اساسی، محیطزیست، دموکراسی و حاکمیت قانون)، توافق بر سر الزامات بهروشنی صورت گرفت. اعضای پارلمان اروپا توانستند ارزیابی اجباری تأثیر بر حقوق اساسی را برای استفاده از هر سیستم هوش مصنوعی، در میان سایر الزامات، از جمله در بخشهای بیمه و بانکداری، بگنجانند[۴]. سیستمهای هوش مصنوعی مورداستفاده برای تأثیرگذاری بر نتایج انتخابات و رفتار رأیدهندگان نیز بهعنوان پرخطر طبقهبندی میشوند. شهروندان حق دارند در مورد سیستمهای هوش مصنوعی شکایت کنند و درباره تصمیماتی که بر اساس سیستمهای هوش مصنوعی پرخطر که بر حقوق آنها تأثیر میگذارد، توضیحاتی دریافت کنند.
مقررات برای سیستمهای هوش مصنوعی عمومی
با توجه به طیف وسیع کارکردهای قابلاجرا در سیستمهای هوش مصنوعی و گسترش سریع قابلیتهای آنها، توافق شد که سیستمهای هوش مصنوعی عمومی (GPAI)[۵] و مدلهای مبتنی بر آنها، همانطور که در ابتدا توسط پارلمان پیشنهاد شده بود باید به الزامات شفافیت پایبند باشند. این الزامات شامل تهیه مستندات فنی، رعایت قانون کپیرایت اتحادیه اروپا و انتشار خلاصههای مفصلی درباره محتوای مورداستفاده برای آموزش است.
برای مدلهای GPAI با تأثیر بالا و ریسک سیستمی، مذاکرهکنندگان پارلمان تعهدات سختگیرانهتری را تدوین کردند. اگر این مدلها معیارهای خاصی را داشته باشند، باید ارزیابی مدل، ارزیابی و کاهش ریسکهای سیستمی، انجام تستهای مقابله با مخاطرات، گزارش حوادث جدی به کمیسیون، تضمین امنیت سایبری و گزارشدهی مستمر از کارایی خود در مورد انرژی را انجام دهند. نمایندگان پارلمان همچنین اصرار داشتند که تا زمانی که استانداردهای هماهنگ اتحادیه اروپا منتشر شود، GPAIهای دارای ریسک سیستمی میتوانند برای رعایت مقررات به کدهای عملیاتی[۶] متکی باشند.
اقداماتی برای حمایت از نوآوری و کسبوکارهای کوچک و متوسط
نمایندگان پارلمان با هدف حصول اطمینان از این که کسبوکارها، بهویژه کسبوکارهای کوچک و متوسط، میتوانند بدون فشار ناعادلانه از سوی غولهای صنعت (که زنجیره ارزش را در این حوزه کنترل میکنند)، راهحلهای هوش مصنوعی را توسعه دهند، توافق کردند که از «محیطهای آزمون نظارتی» و «محیطهای آزمایش در دنیای واقعی» که توسط مقامات ملی هر کشور برای توسعه و آموزش هوش مصنوعی نوآورانه قبل از ورود به بازار ایجاد میشوند، حمایت کنند.
جریمههای لازمالاجرا
عدم رعایت قوانین بسته به تخلف و اندازه شرکت، میتواند منجر به جریمههایی از ۳۵ میلیون یورو یا ۷ درصد از گردش مالی جهانی تا ۷.۵ میلیون یا ۱.۵ درصد از گردش مالی شود.
نقلقولها
پس از توافق، براندو بنیفئی، گزارشگر همکار (S&D، ایتالیا) گفت: «جلسه طولانی و پرتنشی بود، اما تلاش آن ارزشش را داشت. به لطف مقاومت پارلمان اروپا، اولین قانون فراگیر جهان در مورد هوش مصنوعی، وعدههای اروپایی را برای تضمین اینکه حقوق و آزادیها در مرکز توسعه این فناوری پیشگام باشند، را حفظ خواهد کرد. همچنین پارلمان اروپا بر اجرای صحیح این مقررات نظارت دقیق خواهد داشت تا از ایدههای تجاری جدید با محیطهای آزمون پشتیبانی کند و قوانین مؤثری برای مدلهای قدرتمند در این حوزه اعمال کند.»
دراگوس تودوراچه، دیگر گزارشگر همکار (Renew، رومانی) گفت: «اتحادیه اروپا اولین ائتلاف در جهان است که مقررات محکمی را در زمینه هوش مصنوعی وضع میکند و توسعه و تکامل آن را در جهتی انسانمحور هدایت میکند. قانون هوش مصنوعی اروپا، چارچوبی را برای مدلهای هوش مصنوعی بزرگ و قدرتمند تعیین میکند و اطمینان حاصل میکند که آنها خطرات سیستمی برای کشورهای عضو اتحادیه ایجاد نمیکنند و قوانین محافظتی قوی را برای شهروندان و دموکراسیهای ما در برابر هرگونه سوءاستفاده از فناوری توسط مقامات دولتی ارائه میدهد. این قانون از کسبوکارهای کوچک و متوسط ما حافظت میکند، ظرفیت ما را برای نوآوری و رهبری در زمینه هوش مصنوعی تقویت نموده و از بخشهای آسیبپذیر اقتصاد ما محافظت میکند. اتحادیه اروپا سهم قابلتوجهی در این موضوع در جهان داشته است؛ قانون هوش مصنوعی یکی دیگر از مواردی است که تأثیر قابلتوجهی بر آینده دیجیتال ما خواهد داشت.»
پس از مذاکرات، نمایندگان اصلی پارلمان اروپا براندو بنیفئی (S&D، ایتالیا) و دراگوس تودوراچه (Renew، رومانی)، کارمه آرتیگاس، معاون وزیر دیجیتالسازی و هوش مصنوعی، و کمیسر تیری برتون، کنفرانس مطبوعاتی مشترکی برگزار کردند که خلاصه بیانیه آقای بنیفئی در اینجا و آقای تودوراچه در اینجا موجود است. میتوانید بخشهای بیشتری را در اینجا مشاهده کنید.
گامهای بعدی
متن توافق شده اکنون باید به طور رسمی توسط پارلمان و شورا تأیید شود تا به قانون اتحادیه اروپا تبدیل شود. کمیتههای بازار داخلی و آزادیهای مدنی پارلمان در یک جلسه آتی در مورد توافق رأی خواهند داد.
نسخه فارسی این گزارش توسط علیرضا صائبی از نسخه انگلیسی ترجمه شده است.
____________________________________________________________________________________________
[۱] امتیازدهی اجتماعی یک سیستم است که از هوش مصنوعی برای ارزیابی رفتارهای اجتماعی افراد استفاده میکند. این امتیازات میتوانند برای اهداف مختلفی مانند تعیین اعتبار افراد، تخصیص منابع یا اعمال محدودیتها استفاده شوند. امتیازدهی اجتماعی میتواند مزایایی داشته باشد. به عنوان مثال، میتواند به بهبود رفتارهای اجتماعی افراد و کاهش جرایم و جرم و جنایت کمک کند. با این حال، امتیازدهی اجتماعی میتواند خطرات بالقوهای داشته باشد. به عنوان مثال، میتواند منجر به تبعیض و سوء استفاده از قدرت شود و از آنجا که اگر توسط دولتها انجام پذیرد، شهروندان حق اعتراض جدی یا قدرت تغییر در آن را ندارند، معمولا به عنوان امری با ریسک بالا در ایجاد تبعیض در اجتماع شناخته میشود.
[۲] Recognition of Biometric Information
[۳] سیستمهای پرخطر، سیستمهای هوش مصنوعی هستند که پتانسیل بالای آسیب به سلامت، ایمنی، حقوق اساسی، محیط زیست، دموکراسی و حاکمیت قانون را دارند. این سیستمها میتوانند به دلایل مختلف پرخطر باشند، از جمله: استفاده از دادههای حساس یا محرمانه، توانایی تصمیمگیری مستقل، عدم شفافیت یا توضیحپذیری و عدم رعایت حقوق بشر. نمونههایی از سیستمهای پرخطر عبارتند از: سیستمهای تشخیص چهره در مکانهای عمومی، سیستمهای ارزیابی اعتباری، سیستمهای هوش مصنوعی مورد استفاده در زندانها و سیستمهای هوش مصنوعی مورد استفاده در سیستمهای قضایی
[۴] به این معنی که در زمان طراحی و راهاندازی هر سیستم هوش مصنوعی، حتما باید ارزیابی شود که آیا این سیستم بر حقوق اساسی شهروندان تاثیر میگذارد یا خیر؟
[۵] Global Partnership on Artificial Intelligence
[۶] این کدها مجموعهای از دستورالعملها و توصیههایی هستند که برای راهنمایی توسعهدهندگان و کاربران سیستمهای هوش مصنوعی (AI) با هدف کاربردهای عمومی (GPAI) ارائه میشوند. کدهای عملیاتی میتوانند در زمینههای مختلف هوش مصنوعی، مانند شفافیت، عدالت، مسئولیتپذیری و امنیت، تدوین شوند. هدف از این کدها، کمک به توسعهدهندگان و کاربران AI برای ایجاد سیستمهایی است که ایمن، منصف و قابل اعتماد باشند.