
به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
نقض داده ها و عدم شفافیت باعث شده است ایتالیا ChatGPT، یک چت ربات محبوب مبتنی بر هوش مصنوعی را ممنوع کند و بحث هایی را در مورد مقررات هوش مصنوعی و آینده نوآوری به راه انداخت.
ایتالیا اخیراً با تبدیل شدن به اولین کشور غربی که چت ربات محبوب مبتنی بر هوش مصنوعی (AI) ChatGPT را ممنوع کرد، خبرساز شد.
سازمان حفاظت از داده های ایتالیا (IDPA) از OpenAI، شرکت سازنده ChatGPT مستقر در ایالات متحده خواسته است تا به کاربران ایتالیایی دستور دهد تا پردازش داده های مربوط به اطلاعات را متوقف کنند.
IDPA به نگرانیهایی در مورد نقض دادهها که مکالمات کاربران و اطلاعات پرداخت را افشا میکند، فقدان شفافیت و مبنای قانونی برای جمعآوری دادههای شخصی و استفاده از آن برای آموزش چتباتها اشاره کرد.
این تصمیم باعث ایجاد بحث هایی در مورد تأثیر مقررات هوش مصنوعی بر نوآوری، حریم خصوصی و اخلاقیات شد. این اقدام ایتالیا با انتقادات گستردهای مواجه شد و ماتئو سالوینی، معاون نخستوزیر این کشور آن را «بیتناسب» و ریاکارانه خواند و دهها سرویس مبتنی بر هوش مصنوعی مانند چت بینگ همچنان در این کشور فعال هستند. مزرعه برنج.
سالوینی گفت این ممنوعیت می تواند به کسب و کار و نوآوری کشور آسیب برساند و استدلال کرد که هر انقلاب تکنولوژیکی “تغییرات، خطرات و فرصت های عمده” را به همراه دارد.
هوش مصنوعی و خطرات حریم خصوصی
ممنوعیت کامل ChatGPT ایتالیا به طور گسترده در کانال های رسانه های اجتماعی مورد انتقاد قرار گرفت، اما برخی کارشناسان استدلال کردند که این ممنوعیت می تواند توجیه پذیر باشد. آرون رافرتی، مدیر عامل StandardDAO، یک سازمان مستقل غیرمتمرکز، به کوین تلگراف گفت که این ممنوعیت «در صورتی که خطرات غیرقابل مدیریت حریم خصوصی را به همراه داشته باشد، ممکن است توجیه شود.» مزرعه برنج.
رافرتی افزود که پرداختن به چالشهای گستردهتر حریم خصوصی هوش مصنوعی، مانند پردازش دادهها و شفافیت، میتواند «موثرتر از تمرکز بر یک سیستم هوش مصنوعی واحد» باشد. او استدلال کرد که این اقدام ایتالیا و شهروندانش را “در مسابقه تسلیحاتی هوش مصنوعی” در قرمز قرار می دهد و “اکنون ایالات متحده نیز رنج می برد”.
اخیراً: Shapella میتواند سرمایهگذاران نهادی را علیرغم ریسکها به اتریوم بیاورد
وینسنت پیترز، یکی از فارغ التحصیلان استارلینک و بنیانگذار پروژه توکن غیرقابل تعویض Heritance Art، گفت که این ممنوعیت موجه است و خاطرنشان کرد که GDPR “روشی برای محافظت از داده های مصرف کننده و اطلاعات شخصی قابل شناسایی است. این مجموعه ای جامع از مقررات است که به شما کمک می کند.
پیترز، که رهبری تلاشهای استارلینک برای انطباق با GDPR در سراسر قاره را بر عهده داشت، اظهار داشت که کشورهای اروپایی که از قوانین حفظ حریم خصوصی پیروی میکنند، آنها را جدی میگیرند. با این وجود، او با سالوینی موافق بود و اظهار داشت:
همانطور که ChatGPT را نباید جدا کرد، نباید از نیاز به رفع نگرانیهای مربوط به حریم خصوصی که تقریباً همه سرویسهای آنلاین نیاز به رفع آن دارند، غافل شد.
نیکو سبه، رئیس هوش مصنوعی در شرکت هوش مصنوعی Humans.ai و استاد یادگیری ماشین در دانشگاه ترنتو در ایتالیا، به کوین تلگراف گفت که همیشه تضاد بین پیشرفتهای فناوری و جنبههای اخلاقی و حریم خصوصی مرتبط با آنها وجود داشته است. رقابت وجود دارد

Sebe معتقد است که مسابقه همیشه همگام نیست و فناوری در این مورد پیشرو است، اما جنبه های اخلاقی و حریم خصوصی به زودی فرا خواهد رسید. حریم خصوصی.”
این عدم تطابق منحصر به ایتالیا نیست. با نزدیک شدن جهان به هوش مصنوعی، دولت های دیگر در حال تدوین قوانین خود برای هوش مصنوعی هستند – اصطلاحی که برای توصیف هوش مصنوعی استفاده می شود که می تواند هر کار هوشمندی را انجام دهد. بریتانیا برنامههایی را برای تنظیم مقررات هوش مصنوعی اعلام کرده است، اما اتحادیه اروپا از طریق قانون هوش مصنوعی که استفاده از هوش مصنوعی را در چندین حوزه کلیدی مانند دستگاههای پزشکی و خودروهای خودران به شدت محدود میکند، موضع محتاطانهای اتخاذ کرده است.
یک سابقه ایجاد کنید؟
ایتالیا ممکن است آخرین کشوری نباشد که ChatGPT را ممنوع کرده است. تصمیم IDPA برای ممنوعیت ChatGPT می تواند سابقه ای برای سایر کشورها و مناطق ایجاد کند و می تواند پیامدهای مهمی برای شرکت های جهانی هوش مصنوعی داشته باشد. Rafferty از StandardDAO گفت:
“در حالی که تصمیم ایتالیا ممکن است سابقه ای برای سایر کشورها و مناطق ایجاد کند، عوامل خاص حوزه قضایی نحوه رسیدگی به نگرانی های مربوط به حریم خصوصی مرتبط با هوش مصنوعی را تعیین می کند. هیچ کشوری نمی خواهد از نظر پتانسیل توسعه عقب بماند.”
جیک میمار، معاون نوآوری گروه گلیمپس، یک ارائهدهنده نرمافزار واقعیت مجازی و افزوده، گفت که این اقدام «با جلب توجه به چالشها یا عدم وجود آنها در ارتباط با هوش مصنوعی و سیاست داده، سابقهای ایجاد میکند.»
برای مامار، بحث عمومی در مورد این موضوعات “گامی در جهت درست است، جایی که یک چشم انداز گسترده تر توانایی ما را برای درک طیف گسترده ای از تاثیرات افزایش می دهد.” او گفت که این اقدام یک سابقه برای سایر کشورهای مشمول GDPR خواهد بود.
برای کشورهایی که GDPR را اجرا نکردهاند، «چارچوبی را تنظیم کردهایم که در آن این کشورها باید نحوه پردازش و استفاده OpenAI دادههای مصرفکننده را در نظر بگیرند». دانشگاه ترنتو Seve این ممنوعیت را به دلیل مغایرت بین قوانین ایتالیایی در مورد مدیریت داده ها و قوانینی که “معمولاً در ایالات متحده مجاز است” نسبت داده است.
ایجاد تعادل بین نوآوری و حریم خصوصی
واضح است که بازیکنان در فضای هوش مصنوعی، حداقل در اتحادیه اروپا، باید رویکرد خود را تغییر دهند تا بتوانند در عین حفظ سمت خوب تنظیم کننده ها، به کاربران خود خدمت کنند. اما چگونه می توانید هنگام توسعه محصولات، نیاز به نوآوری را با حفظ حریم خصوصی و نگرانی های اخلاقی متعادل کنید؟
پاسخ به این سوال آسان نیست، زیرا توسعه محصولات هوش مصنوعی که به حقوق کاربر احترام میگذارند میتواند شامل معاوضهها و چالشهایی باشد.
خواکین کاپوزولی، مدیر عامل پلتفرم بازی Web3 Mendax، گفت: “ما اقدامات قوی حفاظت از داده ها را ایجاد کرده ایم، بررسی های اخلاقی کاملی انجام داده ایم، و گفتگوی باز با کاربران و تنظیم کننده ها برای رسیدگی فعالانه به نگرانی ها داشته ایم. با انجام این کار، تعادل می تواند حاصل شود.
Rafferty از StandardDAO به جای اینکه ChatGPT را متمایز کند، گفت که آنها به یک رویکرد جامع با “استانداردها و مقررات منسجم برای همه فناوری های هوش مصنوعی و فناوری های رسانه های اجتماعی گسترده تر” نیاز دارند.
ایجاد تعادل بین نوآوری و حریم خصوصی مستلزم “اولویت بندی شفافیت، کنترل کاربر، حفاظت قوی از داده ها، و اصول حریم خصوصی بر اساس طراحی” است. رافرتی گفت: اکثر شرکت ها باید “به نحوی با دولت ها کار کنند یا یک چارچوب متن باز برای مشارکت و بازخورد ارائه کنند.”
Sebe به بحث های جاری در مورد مضر بودن فناوری هوش مصنوعی اشاره کرد. این شامل نامه سرگشاده اخیری است که خواستار توقف شش ماهه پیشرفت فناوری شده است تا امکان تحلیل عمیق تر و انعکاسی بیشتر از تأثیر بالقوه فناوری هوش مصنوعی را فراهم کند. این نامه بیش از 20000 امضا دریافت کرد، از جمله رهبران فناوری مانند ایلان ماسک، مدیرعامل تسلا، استیو وزنیاک بنیانگذار اپل و کریس لارسن از بنیانگذاران ریپل.
این نامه نگرانی های مشروعی را برای Seve ایجاد می کند، اما چنین تعلیق شش ماهه ای “غیر واقعی” است. او اضافه کرد:
شرکتهای هوش مصنوعی برای ایجاد تعادل بین نیاز به نوآوری و نگرانیهای مربوط به حفظ حریم خصوصی، سیاستهای سختگیرانهتری برای حفظ حریم خصوصی دادهها و اقدامات امنیتی اتخاذ میکنند، شفافیت در جمعآوری و استفاده از دادهها را تضمین میکنند و جمعآوری و پردازش دادهها را محدود میکنند. رضایت کاربر باید برای
پیشرفتها در هوش مصنوعی توانایی ما را برای جمعآوری و تجزیه و تحلیل حجم وسیعی از دادههای شخصی افزایش داده است و نگرانیهایی را در مورد حفظ حریم خصوصی و نظارت ایجاد کرده است و اقدامات امنیتی قوی برای محافظت از دادههای کاربر ایجاد میکند.»
Seve گفت که سایر نگرانیهای اخلاقی شامل سوگیری، پاسخگویی و شفافیت بالقوه است و اشاره کرد که سیستمهای هوش مصنوعی “میتوانند تعصب اجتماعی موجود را تشدید و تقویت کنند، در نتیجه ممکن است با گروههای خاصی رفتار تبعیض آمیز شود.”
کاپوزولی مندکس گفت: «این یک مسئولیت مشترک برای شرکتهای هوش مصنوعی، کاربران و تنظیمکنندهها است که با هم کار کنند تا چارچوبهایی ایجاد کنند که به نگرانیهای اخلاقی رسیدگی کند و ضمن حمایت از حقوق فردی، نوآوری را تقویت کند.» من فکر میکنم وجود دارد.
اخیرا: XRP Pro-Lawyer John Deaton “BTC 10x, ETH 4x”: Hall of Flame
میمار از گروه Glimpse می گوید سیستم های هوش مصنوعی مانند ChatGPT «پتانسیل نامحدودی دارند و در صورت بهره برداری می توانند بسیار مخرب باشند». او افزود، برای اینکه شرکتهای پشت چنین سیستمهایی بتوانند همه چیز را متعادل کنند، باید از فناوریهای مشابه آگاه باشند و تحلیل کنند که کجا اشتباه میکنند و کجا موفق میشوند.
میمار گفت، شبیه سازی ها و آزمایش ها حفره هایی را در سیستم نشان دادند. بنابراین شرکتهای هوش مصنوعی باید برای نوآوری، شفافیت و مسئولیتپذیری تلاش کنند.
آنها باید به طور فعال خطرات و اثرات بالقوه محصولات خود را بر حریم خصوصی، اخلاقیات و جامعه شناسایی و رسیدگی کنند. با انجام این کار، میتوانیم اعتماد و اطمینان را بین کاربران و تنظیمکنندهها ایجاد کنیم و از سرنوشت ChatGPT در ایتالیا جلوگیری کنیم یا احتمالاً معکوس کنیم.
نویسنده: Francisco Rodrigues