هدف قانون هوش مصنوعی رسیدگی به مسائل مبرم هوش مصنوعی از جمله سوگیری، حریم خصوصی و اطلاعات غلط است.

قانونگذاران اتحادیه اروپا امروز (13 مارس) قانون شاخص هوش مصنوعی این اتحادیه را با اکثریت قاطع تصویب کردند که گام بعدی در اجرای گسترده ترین مجموعه قوانین جهان در زمینه هوش مصنوعی است.
با توجه به فقدان هر گونه حفاظ رسمی که توسط ایالات متحده اجرا می شود، قانون جدید بر نحوه اداره فناوری به سرعت در حال رشد در جهان غرب تأثیر خواهد گذاشت.
هدف قانون هوش مصنوعی رسیدگی به مهمترین مسائل هوش مصنوعی است: از جمله سوگیری، حریم خصوصی و اطلاعات نادرست.
این قانون سطوح مختلف خطر را برای برنامه ها و سیستم های هوش مصنوعی عمومی تعیین می کند. آنهایی که بالاترین سطح ریسک را دارند مجبور خواهند شد برای فعالیت به الزامات سختگیرانه عمل کنند.
یکی از دستورالعملهای اجباری برای سیستمهای هوش مصنوعی، آزمایش حقوق بشر است که میتواند تعصب یا تبعیضآمیز بودن یک سیستم را اندازهگیری کند.
محدودیتها به صورت دورهای اعمال میشوند تا به ارائهدهندگان هوش مصنوعی فرصت داده شود تا خود را تنظیم کنند. حداقل 15 درصد از تمام سیستم های هوش مصنوعی در گروه پرخطر قرار می گیرند.
اولین مجموعه از محدودیتها در سیستمهای GenAI مانند ChatGPT OpenAI و Gemini Google اعمال خواهد شد. سایر محدودیت ها ممکن است تا سال 2026 اجرا نشوند.
تیری برتون، کمیسر بازار داخلی اتحادیه اروپا در بیانیهای گفت: «اروپا اکنون یک استانداردساز جهانی در هوش مصنوعی قابل اعتماد است».
در جلسه روز سه شنبه، قانونگذاران اتحادیه اروپا تأیید کردند که کارهای زیادی برای انجام دادن قبل از اجرای قانون باقی مانده است.
دراگوس تودوراچه، یکی از اعضای پارلمان اروپا، میگوید: «قوانینی که ما در این حکم برای حاکمیت حوزه دیجیتال تصویب کردهایم - نه فقط قانون هوش مصنوعی - واقعاً تاریخی و پیشگام است.
اما ساختن همه آنها در هماهنگی با اثر مطلوب و تبدیل اروپا به نیروگاه دیجیتالی آینده، آزمونی برای زندگی ما خواهد بود.
قانون هوش مصنوعی اتحادیه اروپا چه تأثیری بر مشاغل خواهد داشت؟
لورا پترون، تحلیلگر اصلی شرکت تحقیقاتی و تحلیلی GlobalData، به Verdict گفت که قانون هوش مصنوعی برای برخی از مشاغل اتحادیه اروپا مشکل ساز خواهد بود.
پترون گفت که بسیاری از کسبوکارها احتمالاً این قانون را «بیش از حد سخت» میبینند و میگویند که «خطر نوآوری را مختل میکند».
گنجاندن قوانین محدودکننده در مدلهای پایه، مانند ChatGPT، به این معنی است که ارائهدهندگان مجبور خواهند شد از الزامات شفافیت کامل پیروی کنند.
پترون افزود: «توسعهدهندگان مدلهای همه منظوره که به عنوان ریسک سیستمی برچسبگذاری شدهاند، باید استراتژیهای کاهش را نیز ایجاد کنند و جزئیات هر حادثه را به دفتر جدید هوش مصنوعی کمیسیون اروپا که مسئول اجرای قوانین است، منتقل کنند.»
پترون گفت که تمایز بین انواع مدلهای پایه و مدلهایی که ممکن است نیاز به بررسی نظارتی بیشتری داشته باشند، برای اتحادیه اروپا «بسیار مهم اما چالشبرانگیز» خواهد بود.
پترون گفت: "هنوز ابهامات زیادی در مورد نحوه اجرای قانون و اینکه آیا دفتر هوش مصنوعی منابع لازم برای انجام وظایف خود را دارد یا خیر وجود دارد."
کورتیس ویلسون، دانشمند داده کارکنان در گروه یکپارچگی نرم افزار Synopsys، گفت حکم چارچوبهای نظارتی مانند قانون هوش مصنوعی اتحادیه اروپا به ایجاد اعتماد در هوش مصنوعی کمک میکند، چیزی که او احساس میکند بزرگترین مشکلی است که توسعهدهندگان هوش مصنوعی با آن روبرو هستند.
او گفت: «قوانین سختگیرانه و جریمههای مجازات، توسعهدهندگان بیدقت را منصرف میکند و به مصرفکنندگان کمک میکند تا در اعتماد و استفاده از سیستمهای هوش مصنوعی اطمینان بیشتری داشته باشند».
منبع از حکم
سلب مسئولیت: اطلاعات ذکر شده در بالا توسط verdict.co.uk مستقل از Chovm.com ارائه شده است. Chovm.com هیچ گونه نمایندگی و ضمانتی در مورد کیفیت و قابلیت اطمینان فروشنده و محصولات نمی دهد.