با افزایش نگرانیها درباره عواقب و خطرات هوشمصنوعی در زندگی بشر به نظر میرسد اتحادیه اروپا قدم جدیتری برای رگولاتوری AI برداشته است. در هفتههای گذشته اخبار متعددی درباره دیدار مدیران غولهای تکنولوژی با رهبران اروپا حول رگولاتوری هوشمصنوعی منتشر شد. از آنجایی که تنظیم هرگونه قوانین در این حوزه میتواند سرمایهگذاری کمپانیهای بزرگ در حوزه AI را تحت تاثیر قرار بدهد، همراهی مدیران ارشد شرکتهایی نظیر OpenAI و گوگل با سیاست گذاران اروپایی دور از انتظار نیست. چنین دیدارهایی میتواند فرصت همکاری و توسعه محصولات و خدمات AI خارج از بازارهای آمریکا را برای غولهای تکنولوژی فراهم ساخته و از طرفی از نگرانی آنها برای ایجاد محدودیت بکاهد. دیدار ساندار پیچای۱ و سم آلتمن۲ با سیاستگذاران اروپایی در ماه گذشته میلادی از این حیث اهمیت پیدا میکند.
پارلمان اتحادیه اروپا در تاریخ ۱۴ام ژوئن به پیش نویس قانون هوشمصنوعی موسوم به The AI Act رای مثبت داد۳. در دسترس قرار گرفتن ChatGPT در سال جاری و پیشرفت های تحسین برانگیز در این حوزه قانون گذاران اروپایی را برای به تصویب رساندن چنین قانونی بیش از پیش ترغیب کرده است. تصویب و پیادهسازی چنین قانونی به دلیل ساختارهای دموکراتیک اتحادیه اروپا پیچیدگیهای خاص خود را دارد. تهیه The AI Act از سال ۲۰۲۱ آغاز شد و هنوز تا تکمیل و عملیاتی شدن آن چند سالی باقیمانده است. تلاشهای مشابهی در سایر کشورها نیز در حال انجام است۴. در ماههای اخیر درباره ریسکهای هوشمصنوعی صحبتهای بسیاری شده است. برخی از افراد به نام نظیر یوال نوح هراری هوشمصنوعی را با بمب اتم مقایسه کرده و معتقد هستند تسلط هوشمصنوعی بر زبان انسان برای پایان بشریت کافی است۵. از طرفی برخی نظیر یان لیکان دیدگاه مثبتتری نسبت به موضوع داشته و معقدند با رگولاتوری و اپنسورس نگه داشتن توسعه هوشمصنوعی میتوان از مزایای آن بهرهمند شد۶. اگرچه درباره کم و کیف ریسکهای هوشمصنوعی دیدگاههای مختلفی وجود دارد ولی تمامی صاحبنظران درباره رگولاتوری آن اتفاق نظر دارند.
اما The AI Act چگونه از خطرات هوشمصنوعی میکاهد؟
در این قانون سیستمهای مبتنی بر هوشمصنوعی براساس سطح ریسک به چهار دسته تقسیم میشوند۷و۸.
ریسک غیرقابلقبول (Unacceptable risk): این سیستمها تهدیدی برای انسان بوده و انتشار آن ممنوع است. به عنوان مثال:
- سیستمهایی که رفتارهای شناختی انسان (به خصوص گروههای حساس نظیر کودکان) را دستکاری میکنند.
- سیستمهایی که براساس شخصیت و وضعیت اقتصادی انسان را امتیازدهی و دستهبندی میکنند.
- سیستمهای تشخیص هویت بیومتریک که به صورت برخط عمل میکنند.
ریسک بالا (High risk): سیستمهایی که ایمنی (safety) یا حقوق بنیادی انسان (fundamental right) را تحت تاثیر قرار میدهند باید پیش از انتشار در بازار مورد ارزیابی قرار بگیرند. این ارزیابی در تمامی چرخه عمر آن انجام میشود. بسیاری از سیستمهای احراز هویت، مدیریت زیرساخت، آموزش، کنترل مرزها، اجرای قانون و غیره در این دسته قرار میگیرند.
ریسک محدود (Limited Risk): سیستمهایی که ریسک محدودی دارند باید تحت شرایط مشخص شده شفافیت داشته باشند. سیستمهای Generative AI نظیر چتبات و سرویسهایی که محتوا تولید میکنند در این دسته قرار میگیرند. این شرایط عبارتنداز:
- همواره مشخص باشد محتوای تولید شده توسط هوشمصنوعی تولید شده است.
- محتوای غیرقانونی تولید نکند.
- دیتای دارای حق کپیرایت که در آموزش دادن مدل هوشمصنوعی استفاده شده معرفی شود.
ریسک پایین (Low or minimal risk): سیستمهای دارای ریسک پایین بدون محدودیت امکان انتشار دارند.
ارزیابی ریسک یک سیستم مبتنی بر هوشمصنوعی پیچیده بوده و انتظار میرود هزینه قابل توجهی را علیالخصوص به شرکتهای استارتاپی تحمیل کند. از طرفی تخطی از این قانون مشمول جریمه سنگینی خواهد بود (۲ تا ۴ درصد درآمد جهانی شرکت و برای افراد ۲۰ میلیون یورو!). توزیعکنندگان نرمافزار نظیر گیتهاب و توسعهدهندگان اپنسورس نیز طبق این سند مسئولیت قانونی خواهند داشت۹. به نظر میرسد وجود رگولاتوریهای مختلف در دنیا انتشار سیستمهای مبتنی بر هوشمصنوعی را با پیچیدگی روبه کند. از این رو رایزنی مدیران ارشد غولهای تکنولوژی پیش از تصویب این پیشنویس با سیاستگذاران اروپایی که در ابتدای مقاله اشاره شد لاجرم به نظر میرسد. با این حال شرایط موجود میتواند فرصتی برای جذب توسعهدهندگان و سرمایهگذاران هوشمصنوعی باشد۱۰. انتظار میرود در ماههای آینده اخبار بیشتری درباره تصویب قوانین مشابه در کشورهای مختلف و یکپارچهسازی آن (علیالخصوص بین اروپا و آمریکا) منتشر شود.
- 'We can't afford to wait': Brussels and Google pitch voluntary AI pact to fill legislative gap
- Sam Altman’s big European tour
- MEPs ready to negotiate first-ever rules for safe and transparent AI
- به عنوان نمونه پیشنویش لایحه مشابه در آمریکا را از اینجا بخوانید.
- AI and the future of humanity | Yuval Noah Harari at the Frontiers Forum
- Yuval Noah Harari (Sapiens) versus Yann Le Cun (Meta) on artificial intelligence
- EU AI Act: first regulation on artificial intelligence
- Artificial intelligence
- مطالعه این مقاله نیز توصیه میشود.
- در ژاپن قانون کپیرایت برای آموزش مدلهای هوشمصنوعی اعمال نمیشود. برای جزییات بیشتر اینجا را بخوانید.
شما میتوانید با عضو شدن در کانال تلگرام این خبرنامه، در سریعترین زمان در جریان مقالات جدید قرار بگیرید.
دیدگاه خود را بنویسید