کارشناس می گوید: OpenAI باید تا ۳۰ آوریل با قوانین اتحادیه اروپا مطابقت داشته باشد، کارشناس می گوید تقریبا غیرممکن است

به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
تنظیمکنندههای ایتالیایی گفتهاند که ChatGPT باید تا ۳۰ آوریل مقررات محلی GDPR را رعایت کند، اما کارشناسان هوش مصنوعی میگویند معماری این مدل، چنین انطباق را تقریبا غیرممکن میکند.
OpenAI ممکن است به زودی با بزرگترین چالش نظارتی خود روبرو شود، اما مقامات ایتالیایی اصرار دارند که باید تا ۳۰ آوریل از قوانین حفاظت از داده ها و حریم خصوصی محلی و اروپایی پیروی کند. به گفته کارشناسان هوش مصنوعی (AI)، این کار تقریباً غیرممکن است.
مقامات ایتالیایی محصول GPT OpenAI را در اواخر مارس به طور کامل ممنوع کردند و اولین کشور غربی بود که این کار را به طور کامل انجام داد. این اقدام مدت کوتاهی پس از نقض داده انجام شد که به مشتریان ChatGPT و GPT API اجازه داد دادههای تولید شده توسط سایر کاربران را ببینند.
ما معتقدیم تعداد کاربرانی که دادههایشان واقعاً در معرض دیگران قرار گرفته است بسیار کم است و به کاربران احتمالی آسیبدیده دسترسی پیدا کردهایم. ما این موضوع را بسیار جدی می گیریم و جزئیات تحقیق و برنامه ریزی خود را در اینجا به اشتراک می گذاریم. ۲/۲ https://t.co/JwjfbcHr3g
– OpenAI (@OpenAI) ۲۴ مارس ۲۰۲۳
ترجمهای که توسط Bing از دستور ایتالیایی به OpenAI دستور میدهد تا عملیات ChatGPT را در کشور متوقف کند تا زمانی که بتواند مطابقت را نشان دهد، میگوید:
“SA ایتالیا تاکید می کند که هیچ اطلاعاتی به کاربران و افراد داده ای که داده های آنها توسط Open AI جمع آوری شده است ارائه نمی شود. به نظر می رسد هیچ مبنای قانونی برای جمع آوری و پردازش مقادیر زیادی از اطلاعات وجود ندارد. ”
شکایت ایتالیایی ادعا میکند که نرمافزار و سرویسهای OpenAI باید اقدامات تأیید سن را نیز اجرا کنند تا اطمینان حاصل شود که با شرایط خدمات خود شرکت مطابقت دارند، که کاربران باید حداقل ۱۳ سال سن داشته باشند.
مربوط: مدیر عامل گوگل درباره توسعه سریع هشدار داد، قانونگذاران اتحادیه اروپا خواستار هوش مصنوعی «ایمن» هستند
برای دستیابی به رعایت حریم خصوصی در سراسر ایتالیا و بقیه اتحادیه اروپا، OpenAI باید پایه و اساس فرآیندهای جمع آوری داده های گسترده خود را فراهم کند.
طبق مقررات عمومی حفاظت از داده های اتحادیه اروپا (GDPR)، شرکت های فناوری باید برای استفاده از داده های شخصی برای آموزش رضایت کاربر را درخواست کنند. علاوه بر این، کسب و کارهایی که در اروپا فعالیت می کنند باید این امکان را برای اروپایی ها فراهم کنند که از جمع آوری و اشتراک داده ها خودداری کنند.
به گفته کارشناسان، ثابت می کند که این یک کار دشوار برای OpenAI است زیرا مدل های آن بر روی مقادیر زیادی از داده های جمع آوری شده از اینترنت و ادغام در مجموعه های آموزشی آموزش می بینند. این شکل از آموزش جعبه سیاه با هدف ایجاد پارادایم به نام “ظهور” است. در این پارادایم، ویژگی های مفید به طور غیر منتظره در مدل ظاهر می شود.
"GPT-4… اقدام اضطراری را نشان می دهد".
صبر کن صبر کن صبر کناگر اطلاعات آموزشی خود را نمی دانید، چگونه "اضطراری" در مقابل چه چیزی "در نتیجه" بعد از آن؟ ! ? !
من فکر می کنم آنها به این ایده اشاره می کنند "ظاهر"، اما هنوز معنی آن را نمی دانم. https://t.co/Mnupou6D1d– MMitchell (@mmitchell_ai) ۱۱ آوریل ۲۰۲۳
متأسفانه، این بدان معنی است که توسعه دهندگان راه کمی برای دانستن دقیق مجموعه داده ها دارند. همچنین، ماشینها تمایل دارند چندین نقطه داده را هنگام تولید خروجی یکپارچه کنند، بنابراین استخراج یا اصلاح دادههای فردی ممکن است خارج از دسترس مهندسان مدرن باشد.
همانطور که مارگارت میچل، کارشناس اخلاق هوش مصنوعی به بررسی فناوری MIT گفت:
برای دستیابی به انطباق، OpenAI باید ثابت کند که رضایت کاربر را برای دادههای مورد استفاده برای آموزش مدل به دست آورده است – مقالات تحقیقاتی شرکت نشان میدهد که این موضوع نادرست است – یا باید ثابت کنید که OpenAI “منافع قانونی” در حذف دادههای شما داشته است. اولین مکان.
لیلیان ادواردز، استاد حقوق اینترنت در دانشگاه نیوکاسل، به MIT’s Technology Review گفت که این مناقشه بزرگتر از شکایت ایتالیایی است و گفت: “نقض های OpenAI آنقدر آشکار است که این شکایت احتمالاً به دادگاه دادگستری ایالات متحده خواهد رفت. ” اتحادیه اروپا، دادگاه عالی اتحادیه اروپا. ”
این می تواند OpenAI را در موقعیت خطرناکی قرار دهد. عدم شناسایی و حذف دادههای فردی یا ایجاد تغییراتی در دادههایی که به درخواست کاربر یک شخص را نادرست معرفی میکند، ممکن است منجر به ناتوانی در کارکرد محصول ChatGPT در ایتالیا پس از مهلت ۳۰ آوریل شود.
رگولاتورها در فرانسه، آلمان، ایرلند و اتحادیه اروپا هم اکنون در حال بررسی اقداماتی برای تنظیم ChatGPT هستند، بنابراین مشکلات این شرکت ممکن است بیشتر شود.
نویسنده: Tristan Greene