اخبار ارز دیجیتال

کارشناس می گوید: OpenAI باید تا ۳۰ آوریل با قوانین اتحادیه اروپا مطابقت داشته باشد، کارشناس می گوید تقریبا غیرممکن است


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

تنظیم‌کننده‌های ایتالیایی گفته‌اند که ChatGPT باید تا ۳۰ آوریل مقررات محلی GDPR را رعایت کند، اما کارشناسان هوش مصنوعی می‌گویند معماری این مدل، چنین انطباق را تقریبا غیرممکن می‌کند.

OpenAI ممکن است به زودی با بزرگترین چالش نظارتی خود روبرو شود، اما مقامات ایتالیایی اصرار دارند که باید تا ۳۰ آوریل از قوانین حفاظت از داده ها و حریم خصوصی محلی و اروپایی پیروی کند. به گفته کارشناسان هوش مصنوعی (AI)، این کار تقریباً غیرممکن است.

مقامات ایتالیایی محصول GPT OpenAI را در اواخر مارس به طور کامل ممنوع کردند و اولین کشور غربی بود که این کار را به طور کامل انجام داد. این اقدام مدت کوتاهی پس از نقض داده انجام شد که به مشتریان ChatGPT و GPT API اجازه داد داده‌های تولید شده توسط سایر کاربران را ببینند.

ترجمه‌ای که توسط Bing از دستور ایتالیایی به OpenAI دستور می‌دهد تا عملیات ChatGPT را در کشور متوقف کند تا زمانی که بتواند مطابقت را نشان دهد، می‌گوید:

“SA ایتالیا تاکید می کند که هیچ اطلاعاتی به کاربران و افراد داده ای که داده های آنها توسط Open AI جمع آوری شده است ارائه نمی شود. به نظر می رسد هیچ مبنای قانونی برای جمع آوری و پردازش مقادیر زیادی از اطلاعات وجود ندارد. ”

شکایت ایتالیایی ادعا می‌کند که نرم‌افزار و سرویس‌های OpenAI باید اقدامات تأیید سن را نیز اجرا کنند تا اطمینان حاصل شود که با شرایط خدمات خود شرکت مطابقت دارند، که کاربران باید حداقل ۱۳ سال سن داشته باشند.

مربوط: مدیر عامل گوگل درباره توسعه سریع هشدار داد، قانونگذاران اتحادیه اروپا خواستار هوش مصنوعی «ایمن» هستند

برای دستیابی به رعایت حریم خصوصی در سراسر ایتالیا و بقیه اتحادیه اروپا، OpenAI باید پایه و اساس فرآیندهای جمع آوری داده های گسترده خود را فراهم کند.

طبق مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR)، شرکت های فناوری باید برای استفاده از داده های شخصی برای آموزش رضایت کاربر را درخواست کنند. علاوه بر این، کسب و کارهایی که در اروپا فعالیت می کنند باید این امکان را برای اروپایی ها فراهم کنند که از جمع آوری و اشتراک داده ها خودداری کنند.

به گفته کارشناسان، ثابت می کند که این یک کار دشوار برای OpenAI است زیرا مدل های آن بر روی مقادیر زیادی از داده های جمع آوری شده از اینترنت و ادغام در مجموعه های آموزشی آموزش می بینند. این شکل از آموزش جعبه سیاه با هدف ایجاد پارادایم به نام “ظهور” است. در این پارادایم، ویژگی های مفید به طور غیر منتظره در مدل ظاهر می شود.

متأسفانه، این بدان معنی است که توسعه دهندگان راه کمی برای دانستن دقیق مجموعه داده ها دارند. همچنین، ماشین‌ها تمایل دارند چندین نقطه داده را هنگام تولید خروجی یکپارچه کنند، بنابراین استخراج یا اصلاح داده‌های فردی ممکن است خارج از دسترس مهندسان مدرن باشد.

همانطور که مارگارت میچل، کارشناس اخلاق هوش مصنوعی به بررسی فناوری MIT گفت:

برای دستیابی به انطباق، OpenAI باید ثابت کند که رضایت کاربر را برای داده‌های مورد استفاده برای آموزش مدل به دست آورده است – مقالات تحقیقاتی شرکت نشان می‌دهد که این موضوع نادرست است – یا باید ثابت کنید که OpenAI “منافع قانونی” در حذف داده‌های شما داشته است. اولین مکان.

لیلیان ادواردز، استاد حقوق اینترنت در دانشگاه نیوکاسل، به MIT’s Technology Review گفت که این مناقشه بزرگتر از شکایت ایتالیایی است و گفت: “نقض های OpenAI آنقدر آشکار است که این شکایت احتمالاً به دادگاه دادگستری ایالات متحده خواهد رفت. ” اتحادیه اروپا، دادگاه عالی اتحادیه اروپا. ”

این می تواند OpenAI را در موقعیت خطرناکی قرار دهد. عدم شناسایی و حذف داده‌های فردی یا ایجاد تغییراتی در داده‌هایی که به درخواست کاربر یک شخص را نادرست معرفی می‌کند، ممکن است منجر به ناتوانی در کارکرد محصول ChatGPT در ایتالیا پس از مهلت ۳۰ آوریل شود.

رگولاتورها در فرانسه، آلمان، ایرلند و اتحادیه اروپا هم اکنون در حال بررسی اقداماتی برای تنظیم ChatGPT هستند، بنابراین مشکلات این شرکت ممکن است بیشتر شود.



نویسنده: Tristan Greene

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا