انسان‌گرایی دیجیتال
  • خانه
  • آخرین اخبار
  • فعالیت‌ها
  • درباره
  • وبلاگ
  • تماس با ما
آذر ۱۸, ۱۴۰۲ by علیرضا صائبی

خلاصه مصوبات اصلاحی قانون هوش مصنوعی اروپا

خلاصه مصوبات اصلاحی قانون هوش مصنوعی اروپا
آذر ۱۸, ۱۴۰۲ by علیرضا صائبی

خلاصه مصوبات اصلاحی قانون هوش مصنوعی اروپا

جمعه ۸ دسامبر ۲۰۲۳ – ۱۷ آذرماه ۱۴۰۲

خلاصه مصوبات اصلاحی قانون هوش مصنوعی اروپا

خلاصه مصوبات اصلاحی:

  • مقررات توافق‌شده برای هوش مصنوعی با کاربردهای عمومی
  • محدودیت استفاده از سیستم‌های شناسایی بیومتریک توسط مجریان قانون
  • ممنوعیت امتیازدهی اجتماعی[۱] و استفاده از هوش مصنوعی برای دست‌کاری یا سوءاستفاده از نقطه‌ضعف‌های کاربران
  • حق مصرف‌کنندگان برای طرح شکایت و دریافت توضیحات معنادار (نسبت به سیستم‌های هوش مصنوعی)
  • جریمه‌هایی از ۳۵ میلیون یورو یا ۷ درصد گردش مالی جهانی تا ۷.۵ میلیون یا ۱.۵ درصد گردش مالی جهانی

اعضای پارلمان اروپا با شورای اتحادیه اروپا به توافقی سیاسی در مورد لایحه‌ای برای اطمینان از ایمن بودن هوش مصنوعی در اروپا، احترام به حقوق اساسی و دموکراسی، و درعین‌حال امکان شکوفایی و گسترش کسب‌وکارها رسیدند.

در روز جمعه، مذاکره‌کنندگان پارلمان و شورا به توافقی موقت در مورد قانون هوش مصنوعی دست یافتند. این مقررات با هدف اطمینان از محافظت از حقوق اساسی، دموکراسی، حاکمیت قانون و پایداری محیط‌زیست در برابر هوش مصنوعی پرخطر، درعین‌حال افزایش نوآوری و تبدیل اروپا به رهبر این حوزه تدوین شده است. این قوانین الزاماتی را برای هوش مصنوعی بر اساس خطرات بالقوه و سطح تأثیر آن تعیین می‌کند.

کاربردهای ممنوعه

قانون‌گذاران مشترکاً با درک تهدید بالقوه‌ای که برخی از کاربردهای هوش مصنوعی برای حقوق شهروندان و دموکراسی ایجاد می‌کنند، توافق کردند که موارد زیر را ممنوع کنند:

  • سیستم‌های طبقه‌بندی بیومتریک که از ویژگی‌های حساس استفاده می‌کنند (مانند باورهای سیاسی، مذهبی، فلسفی، گرایش جنسی، نژاد).
  • جمع‌آوری عمومی (تصادفی) تصاویر چهره شهروندان از اینترنت یا فیلم‌های CCTV برای ایجاد پایگاه‌های داده تشخیص چهره.
  • تشخیص احساسات در محل کار و مؤسسات آموزشی.
  • امتیازدهی اجتماعی بر اساس رفتارهای اجتماعی یا ویژگی‌های شخصی.
  • سیستم‌های هوش مصنوعی که رفتار انسان را به‌گونه‌ای کنترل می‌کنند که انسان دیگر بر اعمال خود کنترل نداشته باشد (قادر به تصمیم‌گیری آزادانه بر اساس اراده خود نباشد).
  • هوش مصنوعی برای سوءاستفاده از آسیب‌پذیری‌های افراد (به دلیل سن، معلولیت، وضعیت اجتماعی یا اقتصادی).

معافیت‌های اجرای قانون

مذاکره‌کنندگان در مورد یک سری ضمانت‌ها و استثناهای محدود برای استفاده از سیستم‌های شناسایی بیومتریک (RBI)[۲] مشروط به مجوز قضایی قبلی و برای فهرست‌های دقیق جرایم، در مکان‌های عمومی با هدف اجرای قانون توافق کردند. RBI می‌تواند برای «شناسایی پس از وقوع جرم» به طور دقیق در جستجوی هدفمند فردی که مرتکب جرم جدی شده یا مظنون به آن است، استفاده شود. RBI «بلادرنگ» (زنده و Realtime) با شرایط خیلی دشوار و تنها محدود به موارد زیر قابل‌استفاده خواهد بود:

  • جستجوی هدفمند قربانیان (ربودن، قاچاق، استثمار جنسی شهروندان)
  • پیشگیری از یک تهدید خاص و فعلی تروریستی
  • مکان‌یابی یا شناسایی فرد مظنون به ارتکاب یکی از جرایم خاص ذکر شده در مقررات (مانند تروریسم، قاچاق، استثمار جنسی، قتل، آدم‌ربایی، تجاوز جنسی، سرقت مسلحانه، مشارکت در سازمان جنایی، جرایم زیست‌محیطی)

الزامات برای سیستم‌های پرخطر[۳]

برای سیستم‌های هوش مصنوعی طبقه‌بندی شده به‌عنوان پرخطر (به دلیل پتانسیل بالای آسیب به سلامت، ایمنی، حقوق اساسی، محیط‌زیست، دموکراسی و حاکمیت قانون)، توافق بر سر الزامات به‌روشنی صورت گرفت. اعضای پارلمان اروپا توانستند ارزیابی اجباری تأثیر بر حقوق اساسی را برای استفاده از هر سیستم هوش مصنوعی، در میان سایر الزامات، از جمله در بخش‌های بیمه و بانکداری، بگنجانند[۴]. سیستم‌های هوش مصنوعی مورداستفاده برای تأثیرگذاری بر نتایج انتخابات و رفتار رأی‌دهندگان نیز به‌عنوان پرخطر طبقه‌بندی می‌شوند. شهروندان حق دارند در مورد سیستم‌های هوش مصنوعی شکایت کنند و درباره تصمیماتی که بر اساس سیستم‌های هوش مصنوعی پرخطر که بر حقوق آنها تأثیر می‌گذارد، توضیحاتی دریافت کنند.

مقررات برای سیستم‌های هوش مصنوعی عمومی

با توجه به طیف وسیع کارکردهای قابل‌اجرا در سیستم‌های هوش مصنوعی و گسترش سریع قابلیت‌های آن‌ها، توافق شد که سیستم‌های هوش مصنوعی عمومی (GPAI)[۵] و مدل‌های مبتنی بر آن‌ها، همان‌طور که در ابتدا توسط پارلمان پیشنهاد شده بود باید به الزامات شفافیت پایبند باشند. این الزامات شامل تهیه مستندات فنی، رعایت قانون کپی‌رایت اتحادیه اروپا و انتشار خلاصه‌های مفصلی درباره محتوای مورداستفاده برای آموزش است.

برای مدل‌های GPAI با تأثیر بالا و ریسک سیستمی، مذاکره‌کنندگان پارلمان تعهدات سخت‌گیرانه‌تری را تدوین کردند. اگر این مدل‌ها معیارهای خاصی را داشته باشند، باید ارزیابی مدل، ارزیابی و کاهش ریسک‌های سیستمی، انجام تست‌های مقابله با مخاطرات، گزارش حوادث جدی به کمیسیون، تضمین امنیت سایبری و گزارش‌دهی مستمر از کارایی خود در مورد انرژی را انجام دهند. نمایندگان پارلمان همچنین اصرار داشتند که تا زمانی که استانداردهای هماهنگ اتحادیه اروپا منتشر شود، GPAIهای دارای ریسک سیستمی می‌توانند برای رعایت مقررات به کدهای عملیاتی[۶] متکی باشند.

اقداماتی برای حمایت از نوآوری و کسب‌وکارهای کوچک و متوسط

نمایندگان پارلمان با هدف حصول اطمینان از این که کسب‌وکارها، به‌ویژه کسب‌وکارهای کوچک و متوسط، می‌توانند بدون فشار ناعادلانه از سوی غول‌های صنعت (که زنجیره ارزش را در این حوزه کنترل می‌کنند)، راه‌حل‌های هوش مصنوعی را توسعه دهند، توافق کردند که از «محیط‌های آزمون نظارتی» و «محیط‌های آزمایش در دنیای واقعی» که توسط مقامات ملی هر کشور برای توسعه و آموزش هوش مصنوعی نوآورانه قبل از ورود به بازار ایجاد می‌شوند، حمایت کنند.

جریمه‌های لازم‌الاجرا

عدم رعایت قوانین بسته به تخلف و اندازه شرکت، می‌تواند منجر به جریمه‌هایی از ۳۵ میلیون یورو یا ۷ درصد از گردش مالی جهانی تا ۷.۵ میلیون یا ۱.۵ درصد از گردش مالی شود.

نقل‌قول‌ها

پس از توافق، براندو بنیفئی، گزارشگر همکار (S&D، ایتالیا) گفت: «جلسه طولانی و پرتنشی بود، اما تلاش آن ارزشش را داشت. به لطف مقاومت پارلمان اروپا، اولین قانون فراگیر جهان در مورد هوش مصنوعی، وعده‌های اروپایی را برای تضمین اینکه حقوق و آزادی‌ها در مرکز توسعه این فناوری پیش‌گام باشند، را حفظ خواهد کرد. همچنین پارلمان اروپا بر اجرای صحیح این مقررات نظارت دقیق خواهد داشت تا از ایده‌های تجاری جدید با محیط‌های آزمون پشتیبانی کند و قوانین مؤثری برای مدل‌های قدرتمند در این حوزه اعمال کند.»

دراگوس تودوراچه، دیگر گزارشگر همکار (Renew، رومانی) گفت: «اتحادیه اروپا اولین ائتلاف در جهان است که مقررات محکمی را در زمینه هوش مصنوعی وضع می‌کند و توسعه و تکامل آن را در جهتی انسان‌محور هدایت می‌کند. قانون هوش مصنوعی اروپا، چارچوبی را برای مدل‌های هوش مصنوعی بزرگ و قدرتمند تعیین می‌کند و اطمینان حاصل می‌کند که آنها خطرات سیستمی برای کشورهای عضو اتحادیه ایجاد نمی‌کنند و قوانین محافظتی قوی را برای شهروندان و دموکراسی‌های ما در برابر هرگونه سوءاستفاده از فناوری توسط مقامات دولتی ارائه می‌دهد. این قانون از کسب‌وکارهای کوچک و متوسط ما حافظت می‌کند، ظرفیت ما را برای نوآوری و رهبری در زمینه هوش مصنوعی تقویت نموده و از بخش‌های آسیب‌پذیر اقتصاد ما محافظت می‌کند. اتحادیه اروپا سهم قابل‌توجهی در این موضوع در جهان داشته است؛ قانون هوش مصنوعی یکی دیگر از مواردی است که تأثیر قابل‌توجهی بر آینده دیجیتال ما خواهد داشت.»

پس از مذاکرات، نمایندگان اصلی پارلمان اروپا براندو بنیفئی (S&D، ایتالیا) و دراگوس تودوراچه (Renew، رومانی)، کارمه آرتیگاس، معاون وزیر دیجیتال‌سازی و هوش مصنوعی، و کمیسر تیری برتون، کنفرانس مطبوعاتی مشترکی برگزار کردند که خلاصه بیانیه آقای بنیفئی در اینجا و آقای تودوراچه در اینجا موجود است. می‌توانید بخش‌های بیشتری را در اینجا مشاهده کنید.

گام‌های بعدی

متن توافق شده اکنون باید به طور رسمی توسط پارلمان و شورا تأیید شود تا به قانون اتحادیه اروپا تبدیل شود. کمیته‌های بازار داخلی و آزادی‌های مدنی پارلمان در یک جلسه آتی در مورد توافق رأی خواهند داد.

 

نسخه فارسی این گزارش توسط علیرضا صائبی از نسخه انگلیسی ترجمه شده است.

____________________________________________________________________________________________

[۱] امتیازدهی اجتماعی یک سیستم است که از هوش مصنوعی برای ارزیابی رفتارهای اجتماعی افراد استفاده می‌کند. این امتیازات می‌توانند برای اهداف مختلفی مانند تعیین اعتبار افراد، تخصیص منابع یا اعمال محدودیت‌ها استفاده شوند. امتیازدهی اجتماعی می‌تواند مزایایی داشته باشد. به عنوان مثال، می‌تواند به بهبود رفتارهای اجتماعی افراد و کاهش جرایم و جرم و جنایت کمک کند. با این حال، امتیازدهی اجتماعی می‌تواند خطرات بالقوه‌ای داشته باشد. به عنوان مثال، می‌تواند منجر به تبعیض و سوء استفاده از قدرت شود و از آنجا که اگر توسط دولت‌ها انجام پذیرد، شهروندان حق اعتراض جدی یا قدرت تغییر در آن را ندارند، معمولا به عنوان امری با ریسک بالا در ایجاد تبعیض در اجتماع شناخته می‌شود.

[۲] Recognition of Biometric Information

[۳] سیستم‌های پرخطر، سیستم‌های هوش مصنوعی هستند که پتانسیل بالای آسیب به سلامت، ایمنی، حقوق اساسی، محیط زیست، دموکراسی و حاکمیت قانون را دارند. این سیستم‌ها می‌توانند به دلایل مختلف پرخطر باشند، از جمله: استفاده از داده‌های حساس یا محرمانه، توانایی تصمیم‌گیری مستقل، عدم شفافیت یا توضیح‌پذیری و عدم رعایت حقوق بشر. نمونه‌هایی از سیستم‌های پرخطر عبارتند از: سیستم‌های تشخیص چهره در مکان‌های عمومی، سیستم‌های ارزیابی اعتباری، سیستم‌های هوش مصنوعی مورد استفاده در زندان‌ها و سیستم‌های هوش مصنوعی مورد استفاده در سیستم‌های قضایی

[۴] به این معنی که در زمان طراحی و راه‌اندازی هر سیستم هوش مصنوعی، حتما باید ارزیابی شود که آیا این سیستم بر حقوق اساسی شهروندان تاثیر میگذارد یا خیر؟

[۵] Global Partnership on Artificial Intelligence

[۶] این کدها مجموعه‌ای از دستورالعمل‌ها و توصیه‌هایی هستند که برای راهنمایی توسعه‌دهندگان و کاربران سیستم‌های هوش مصنوعی (AI) با هدف کاربردهای عمومی (GPAI) ارائه می‌شوند. کدهای عملیاتی می‌توانند در زمینه‌های مختلف هوش مصنوعی، مانند شفافیت، عدالت، مسئولیت‌پذیری و امنیت، تدوین شوند. هدف از این کدها، کمک به توسعه‌دهندگان و کاربران AI برای ایجاد سیستم‌هایی است که ایمن، منصف و قابل اعتماد باشند.

Previous articleکتاب‌هایی درباره انسان‌گرایی دیجیتالکتاب‌هایی درباره انسان‌گرایی دیجیتالNext article قانون هوش مصنوعی اتحادیه اروپا: یک نمونه موفققانون هوش مصنوعی اتحادیه اروپا: یک نمونه موفق

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

ده − پنج =

پست های اخیر

هوش مصنوعی شیوه کارکردن را تغییر می‌دهد.خرداد ۱۰, ۱۴۰۴
انسان گرایی دیجیتال – کنفرانس علوم و تحقیقات میان‌رشته‌ایفروردین ۲۳, ۱۴۰۴
استعمارزدایی از آینده – علم کامپیوتر دیگر مانند گذشته فقط علم یا مهندسی نیستفروردین ۹, ۱۴۰۴

دسته‌ها

  • اخبار
  • چندرسانه‌ای
  • دسته‌بندی نشده
  • سخنرانی
  • گزارش‌ها
  • مقالات و کتب

اطلاعات

  • ورود
  • خوراک ورودی‌ها
  • خوراک دیدگاه‌ها
  • وردپرس

برچسب‌ها

caidp deepseek EU AI Act OKF آموزش آموزش فناوری اطلاعات آموزش متخصص کامپیوتر اتحادیه اروپا اخلاق هوش مصنوعی استعمار دیجیتال استعمالزدایی دیجیتال اطلاعات نادرست انسانگرایی دیجیتال بازار کار بیانیه انسانگرایی دیجیتال جامعه انسانگرا حاکمیت حاکمیت دیجیتال حق حاکمیت حقوق بشر حکمرانی حکمرانی دیجیتال دروغ دموکراسی دیپ سیک رهنمودهای هوش مصنوعی سخنرانی انسانگرایی دیجیتال سیاستگذاری هوش مصنوعی فلسفه قانون هوش مصنوعی اتحادیه اروپا قانونگذاری دیجیتال قوانین هوش مصنوعی مشاغل معرفی کتاب مقدمه انسانگرایی دیجیتال مهارتهای آینده نقشه راه انسانگرایی دیجیتال هوش مصنوعی هویت دیجیتال وبینار انسانگرایی دیجیتال پایداری زیست محیطی چشم اندازهایی بر انسانگرایی دیجیتال کار بدون شغل کتاب انسانگرایی دیجیتال کنفرانس علمی

تماس با ما

لطفا دیدگاه‌ها، نظرات و پیام‌های خود را از طریق راه‌های ارتباطی زیر برای بخش فارسی هم‌اندیشی انسان‌گرایی دیجیتال ارسال فرمایید.
00989123408695
dighum.ir@gmail.comhttps://dighum.ir
شما در تمامی ایام هفته‌ می‌توانید پیام‌های خود را از طریق راه‌های ارتباطی مذکور در سایت ارسال فرمایید.

پست های اخیر

هوش مصنوعی شیوه کارکردن را تغییر می‌دهد.خرداد ۱۰, ۱۴۰۴
انسان گرایی دیجیتال – کنفرانس علوم و تحقیقات میان‌رشته‌ایفروردین ۲۳, ۱۴۰۴
استعمارزدایی از آینده – علم کامپیوتر دیگر مانند گذشته فقط علم یا مهندسی نیستفروردین ۹, ۱۴۰۴
تمامی حقوق این وب‌سایت برای هم‌اندیشی انسان‌گرایی دیجیتال محفوظ است.

پست های اخیر

هوش مصنوعی شیوه کارکردن را تغییر می‌دهد.خرداد ۱۰, ۱۴۰۴
انسان گرایی دیجیتال – کنفرانس علوم و تحقیقات میان‌رشته‌ایفروردین ۲۳, ۱۴۰۴
استعمارزدایی از آینده – علم کامپیوتر دیگر مانند گذشته فقط علم یا مهندسی نیستفروردین ۹, ۱۴۰۴

دسته‌ها

  • اخبار
  • چندرسانه‌ای
  • دسته‌بندی نشده
  • سخنرانی
  • گزارش‌ها
  • مقالات و کتب

اطلاعات

  • ورود
  • خوراک ورودی‌ها
  • خوراک دیدگاه‌ها
  • وردپرس