🚨 اخبار ارز دیجیتال

اول از بسیاری؟ممنوعیت ChatGPT ایتالیا می تواند موجی از مقررات هوش مصنوعی را ایجاد کند


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

نقض داده ها و عدم شفافیت باعث شده است ایتالیا ChatGPT، یک چت ربات محبوب مبتنی بر هوش مصنوعی را ممنوع کند و بحث هایی را در مورد مقررات هوش مصنوعی و آینده نوآوری به راه انداخت.

ایتالیا اخیراً با تبدیل شدن به اولین کشور غربی که چت ربات محبوب مبتنی بر هوش مصنوعی (AI) ChatGPT را ممنوع کرد، خبرساز شد.

سازمان حفاظت از داده های ایتالیا (IDPA) از OpenAI، شرکت سازنده ChatGPT مستقر در ایالات متحده خواسته است تا به کاربران ایتالیایی دستور دهد تا پردازش داده های مربوط به اطلاعات را متوقف کنند.

IDPA به نگرانی‌هایی در مورد نقض داده‌ها که مکالمات کاربران و اطلاعات پرداخت را افشا می‌کند، فقدان شفافیت و مبنای قانونی برای جمع‌آوری داده‌های شخصی و استفاده از آن برای آموزش چت‌بات‌ها اشاره کرد.

این تصمیم باعث ایجاد بحث هایی در مورد تأثیر مقررات هوش مصنوعی بر نوآوری، حریم خصوصی و اخلاقیات شد. این اقدام ایتالیا با انتقادات گسترده‌ای مواجه شد و ماتئو سالوینی، معاون نخست‌وزیر این کشور آن را «بی‌تناسب» و ریاکارانه خواند و ده‌ها سرویس مبتنی بر هوش مصنوعی مانند چت بینگ همچنان در این کشور فعال هستند. مزرعه برنج.

سالوینی گفت این ممنوعیت می تواند به کسب و کار و نوآوری کشور آسیب برساند و استدلال کرد که هر انقلاب تکنولوژیکی “تغییرات، خطرات و فرصت های عمده” را به همراه دارد.

هوش مصنوعی و خطرات حریم خصوصی

ممنوعیت کامل ChatGPT ایتالیا به طور گسترده در کانال های رسانه های اجتماعی مورد انتقاد قرار گرفت، اما برخی کارشناسان استدلال کردند که این ممنوعیت می تواند توجیه پذیر باشد. آرون رافرتی، مدیر عامل StandardDAO، یک سازمان مستقل غیرمتمرکز، به کوین تلگراف گفت که این ممنوعیت «در صورتی که خطرات غیرقابل مدیریت حریم خصوصی را به همراه داشته باشد، ممکن است توجیه شود.» مزرعه برنج.

رافرتی افزود که پرداختن به چالش‌های گسترده‌تر حریم خصوصی هوش مصنوعی، مانند پردازش داده‌ها و شفافیت، می‌تواند «موثرتر از تمرکز بر یک سیستم هوش مصنوعی واحد» باشد. او استدلال کرد که این اقدام ایتالیا و شهروندانش را “در مسابقه تسلیحاتی هوش مصنوعی” در قرمز قرار می دهد و “اکنون ایالات متحده نیز رنج می برد”.

اخیراً: Shapella می‌تواند سرمایه‌گذاران نهادی را علی‌رغم ریسک‌ها به اتریوم بیاورد

وینسنت پیترز، یکی از فارغ التحصیلان استارلینک و بنیانگذار پروژه توکن غیرقابل تعویض Heritance Art، گفت که این ممنوعیت موجه است و خاطرنشان کرد که GDPR “روشی برای محافظت از داده های مصرف کننده و اطلاعات شخصی قابل شناسایی است. این مجموعه ای جامع از مقررات است که به شما کمک می کند.

پیترز، که رهبری تلاش‌های استارلینک برای انطباق با GDPR در سراسر قاره را بر عهده داشت، اظهار داشت که کشورهای اروپایی که از قوانین حفظ حریم خصوصی پیروی می‌کنند، آنها را جدی می‌گیرند. با این وجود، او با سالوینی موافق بود و اظهار داشت:

همانطور که ChatGPT را نباید جدا کرد، نباید از نیاز به رفع نگرانی‌های مربوط به حریم خصوصی که تقریباً همه سرویس‌های آنلاین نیاز به رفع آن دارند، غافل شد.

نیکو سبه، رئیس هوش مصنوعی در شرکت هوش مصنوعی Humans.ai و استاد یادگیری ماشین در دانشگاه ترنتو در ایتالیا، به کوین تلگراف گفت که همیشه تضاد بین پیشرفت‌های فناوری و جنبه‌های اخلاقی و حریم خصوصی مرتبط با آنها وجود داشته است. رقابت وجود دارد

گردش کار ChatGPT. منبع: Open AI

Sebe معتقد است که مسابقه همیشه همگام نیست و فناوری در این مورد پیشرو است، اما جنبه های اخلاقی و حریم خصوصی به زودی فرا خواهد رسید. حریم خصوصی.”

این عدم تطابق منحصر به ایتالیا نیست. با نزدیک شدن جهان به هوش مصنوعی، دولت های دیگر در حال تدوین قوانین خود برای هوش مصنوعی هستند – اصطلاحی که برای توصیف هوش مصنوعی استفاده می شود که می تواند هر کار هوشمندی را انجام دهد. بریتانیا برنامه‌هایی را برای تنظیم مقررات هوش مصنوعی اعلام کرده است، اما اتحادیه اروپا از طریق قانون هوش مصنوعی که استفاده از هوش مصنوعی را در چندین حوزه کلیدی مانند دستگاه‌های پزشکی و خودروهای خودران به شدت محدود می‌کند، موضع محتاطانه‌ای اتخاذ کرده است.

یک سابقه ایجاد کنید؟

ایتالیا ممکن است آخرین کشوری نباشد که ChatGPT را ممنوع کرده است. تصمیم IDPA برای ممنوعیت ChatGPT می تواند سابقه ای برای سایر کشورها و مناطق ایجاد کند و می تواند پیامدهای مهمی برای شرکت های جهانی هوش مصنوعی داشته باشد. Rafferty از StandardDAO گفت:

“در حالی که تصمیم ایتالیا ممکن است سابقه ای برای سایر کشورها و مناطق ایجاد کند، عوامل خاص حوزه قضایی نحوه رسیدگی به نگرانی های مربوط به حریم خصوصی مرتبط با هوش مصنوعی را تعیین می کند. هیچ کشوری نمی خواهد از نظر پتانسیل توسعه عقب بماند.”

جیک میمار، معاون نوآوری گروه گلیمپس، یک ارائه‌دهنده نرم‌افزار واقعیت مجازی و افزوده، گفت که این اقدام «با جلب توجه به چالش‌ها یا عدم وجود آن‌ها در ارتباط با هوش مصنوعی و سیاست داده، سابقه‌ای ایجاد می‌کند.»

برای مامار، بحث عمومی در مورد این موضوعات “گامی در جهت درست است، جایی که یک چشم انداز گسترده تر توانایی ما را برای درک طیف گسترده ای از تاثیرات افزایش می دهد.” او گفت که این اقدام یک سابقه برای سایر کشورهای مشمول GDPR خواهد بود.

برای کشورهایی که GDPR را اجرا نکرده‌اند، «چارچوبی را تنظیم کرده‌ایم که در آن این کشورها باید نحوه پردازش و استفاده OpenAI داده‌های مصرف‌کننده را در نظر بگیرند». دانشگاه ترنتو Seve این ممنوعیت را به دلیل مغایرت بین قوانین ایتالیایی در مورد مدیریت داده ها و قوانینی که “معمولاً در ایالات متحده مجاز است” نسبت داده است.

ایجاد تعادل بین نوآوری و حریم خصوصی

واضح است که بازیکنان در فضای هوش مصنوعی، حداقل در اتحادیه اروپا، باید رویکرد خود را تغییر دهند تا بتوانند در عین حفظ سمت خوب تنظیم کننده ها، به کاربران خود خدمت کنند. اما چگونه می توانید هنگام توسعه محصولات، نیاز به نوآوری را با حفظ حریم خصوصی و نگرانی های اخلاقی متعادل کنید؟

پاسخ به این سوال آسان نیست، زیرا توسعه محصولات هوش مصنوعی که به حقوق کاربر احترام می‌گذارند می‌تواند شامل معاوضه‌ها و چالش‌هایی باشد.

خواکین کاپوزولی، مدیر عامل پلتفرم بازی Web3 Mendax، گفت: “ما اقدامات قوی حفاظت از داده ها را ایجاد کرده ایم، بررسی های اخلاقی کاملی انجام داده ایم، و گفتگوی باز با کاربران و تنظیم کننده ها برای رسیدگی فعالانه به نگرانی ها داشته ایم. با انجام این کار، تعادل می تواند حاصل شود.

Rafferty از StandardDAO به جای اینکه ChatGPT را متمایز کند، گفت که آنها به یک رویکرد جامع با “استانداردها و مقررات منسجم برای همه فناوری های هوش مصنوعی و فناوری های رسانه های اجتماعی گسترده تر” نیاز دارند.

ایجاد تعادل بین نوآوری و حریم خصوصی مستلزم “اولویت بندی شفافیت، کنترل کاربر، حفاظت قوی از داده ها، و اصول حریم خصوصی بر اساس طراحی” است. رافرتی گفت: اکثر شرکت ها باید “به نحوی با دولت ها کار کنند یا یک چارچوب متن باز برای مشارکت و بازخورد ارائه کنند.”

Sebe به بحث های جاری در مورد مضر بودن فناوری هوش مصنوعی اشاره کرد. این شامل نامه سرگشاده اخیری است که خواستار توقف شش ماهه پیشرفت فناوری شده است تا امکان تحلیل عمیق تر و انعکاسی بیشتر از تأثیر بالقوه فناوری هوش مصنوعی را فراهم کند. این نامه بیش از ۲۰۰۰۰ امضا دریافت کرد، از جمله رهبران فناوری مانند ایلان ماسک، مدیرعامل تسلا، استیو وزنیاک بنیانگذار اپل و کریس لارسن از بنیانگذاران ریپل.

این نامه نگرانی های مشروعی را برای Seve ایجاد می کند، اما چنین تعلیق شش ماهه ای “غیر واقعی” است. او اضافه کرد:

شرکت‌های هوش مصنوعی برای ایجاد تعادل بین نیاز به نوآوری و نگرانی‌های مربوط به حفظ حریم خصوصی، سیاست‌های سخت‌گیرانه‌تری برای حفظ حریم خصوصی داده‌ها و اقدامات امنیتی اتخاذ می‌کنند، شفافیت در جمع‌آوری و استفاده از داده‌ها را تضمین می‌کنند و جمع‌آوری و پردازش داده‌ها را محدود می‌کنند. رضایت کاربر باید برای

پیشرفت‌ها در هوش مصنوعی توانایی ما را برای جمع‌آوری و تجزیه و تحلیل حجم وسیعی از داده‌های شخصی افزایش داده است و نگرانی‌هایی را در مورد حفظ حریم خصوصی و نظارت ایجاد کرده است و اقدامات امنیتی قوی برای محافظت از داده‌های کاربر ایجاد می‌کند.»

Seve گفت که سایر نگرانی‌های اخلاقی شامل سوگیری، پاسخگویی و شفافیت بالقوه است و اشاره کرد که سیستم‌های هوش مصنوعی “می‌توانند تعصب اجتماعی موجود را تشدید و تقویت کنند، در نتیجه ممکن است با گروه‌های خاصی رفتار تبعیض آمیز شود.”

کاپوزولی مندکس گفت: «این یک مسئولیت مشترک برای شرکت‌های هوش مصنوعی، کاربران و تنظیم‌کننده‌ها است که با هم کار کنند تا چارچوب‌هایی ایجاد کنند که به نگرانی‌های اخلاقی رسیدگی کند و ضمن حمایت از حقوق فردی، نوآوری را تقویت کند.» من فکر می‌کنم وجود دارد.

اخیرا: XRP Pro-Lawyer John Deaton “BTC 10x, ETH 4x”: Hall of Flame

میمار از گروه Glimpse می گوید سیستم های هوش مصنوعی مانند ChatGPT «پتانسیل نامحدودی دارند و در صورت بهره برداری می توانند بسیار مخرب باشند». او افزود، برای اینکه شرکت‌های پشت چنین سیستم‌هایی بتوانند همه چیز را متعادل کنند، باید از فناوری‌های مشابه آگاه باشند و تحلیل کنند که کجا اشتباه می‌کنند و کجا موفق می‌شوند.

میمار گفت، شبیه سازی ها و آزمایش ها حفره هایی را در سیستم نشان دادند. بنابراین شرکت‌های هوش مصنوعی باید برای نوآوری، شفافیت و مسئولیت‌پذیری تلاش کنند.

آنها باید به طور فعال خطرات و اثرات بالقوه محصولات خود را بر حریم خصوصی، اخلاقیات و جامعه شناسایی و رسیدگی کنند. با انجام این کار، می‌توانیم اعتماد و اطمینان را بین کاربران و تنظیم‌کننده‌ها ایجاد کنیم و از سرنوشت ChatGPT در ایتالیا جلوگیری کنیم یا احتمالاً معکوس کنیم.

نویسنده: Francisco Rodrigues

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا