فکر کنید ابزارهای هوش مصنوعی داده ها را جمع آوری نمی کنند؟ دوباره حدس بزنید

به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
با محصولات “رایگان” مانند ChatGPT، داده های شخصی شما به محصولی تبدیل می شود که دولت ها در سراسر جهان از آن به نفع خود استفاده می کنند.
به لطف محصولات متمرکز بر کاربر مانند ChatGPT، Dall-E و Lensa از OpenAI، رشد بیسابقه هوش مصنوعی مولد به یک حس واقعی فناوری تبدیل شده است. اما رونق هوش مصنوعی کاربر پسند همراه با نادیده گرفتن یا نادیده گرفتن ظاهراً خطرات حریم خصوصی ناشی از این پروژه ها توسط کاربران بوده است.
اما در میان این همه هیاهو، دولت های بین المللی و بازیگران بزرگ فناوری زنگ خطر را به صدا در می آورند. ایتالیا به تازگی ChatGPT را به دلیل حفظ حریم خصوصی و نگرانی های امنیتی به طور موقت ممنوع کرده است، که می تواند باعث ایجاد یک بلوک مشابه در آلمان شود. در بخش خصوصی، صدها محقق و رهبر فناوری هوش مصنوعی، از جمله ایلان ماسک و استیو وزنیاک، نامه ای سرگشاده را امضا کرده اند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی فراتر از امضای GPT-4 شده اند.
در حالی که اقدام نسبتاً سریع برای مهار توسعه غیرمسئولانه هوش مصنوعی قابل ستایش است، چشم انداز وسیع تهدیداتی که هوش مصنوعی برای حریم خصوصی و امنیت داده ها ایجاد می کند فراتر از هر مدل یا توسعه دهنده ای است. هیچکس نمیخواهد قابلیتهای تغییر پارادایم هوش مصنوعی را کاهش دهد، اما برای جلوگیری از عواقب فاجعهبار، باید کاستیهای آن را بهطور جدی برطرف کرد.
طوفان حفظ حریم خصوصی داده ها توسط هوش مصنوعی
در حالی که سرزنش OpenAI و سایر پروژههای هوش مصنوعی مبتنی بر فناوری بزرگ برای مسائل مربوط به حریم خصوصی دادهها در هوش مصنوعی آسان است، اما این موضوع مدتها قبل از اینکه هوش مصنوعی به جریان اصلی تبدیل شود مطرح شد. رسواییهای حفظ حریم خصوصی دادهها در هوش مصنوعی قبل از سرکوب ChatGPT، بیشتر آنها در علنی است.
همین سال گذشته، Clearview AI، یک شرکت تشخیص چهره مبتنی بر هوش مصنوعی با دانش عمومی محدود، طبق گزارشها توسط هزاران دولت و سازمانهای مجری قانون مورد استفاده قرار گرفت و فناوری تشخیص چهره خود را به شرکتهای خصوصی در ایالات متحده رساند. Clearview همچنین به دلیل بانک اطلاعاتی غیرقانونی تشخیص چهره در بریتانیا ۹.۴ میلیون دلار جریمه شد. چه کسی می گوید که پروژه های هوش مصنوعی بصری متمرکز بر مصرف کننده مانند Midjourney نمی توانند برای اهداف مشابه استفاده شوند؟
Clearview AI، یک شرکت فناوری تشخیص چهره، تأیید کرد که چهره من در پایگاه داده آنها وجود دارد. من عکس هایم را برای آنها فرستادم و آنها با این عکس ها و لینک سایتی که آنها را دریافت کردند پاسخ دادند. "استالکر اینستا" pic.twitter.com/ff5ajAFlg0
– توماس دایگل (@thomasdaigle) ۹ ژوئن ۲۰۲۰
مشکل این است که آنها قبلاً انجام می دهند. رسواییهای دیپفیک اخیر مربوط به پورنوگرافی و اخبار جعلی ایجاد شده از طریق محصولات هوش مصنوعی سطح مصرفکننده تنها ضرورت محافظت از کاربران را در برابر استفاده مخرب هوش مصنوعی افزایش میدهد. این مفهوم مجازی تقلید دیجیتال را در بر می گیرد و آن را به یک تهدید بسیار واقعی برای مردم عادی و افراد مشهور با نفوذ تبدیل می کند.
مربوط: الیزابت وارن از پلیس می خواهد که در سال ۲۰۲۴ به خانه او بیاید
یک مدل هوش مصنوعی مولد اساساً به دادههای جدید و موجود برای ایجاد و ارتقای عملکرد و قابلیت استفاده خود متکی است. این یکی از دلایلی است که ChatGPT بسیار چشمگیر است. گفته میشود، هر مدلی که بر ورودی دادههای جدید متکی باشد، به مکانی برای دریافت آن دادهها نیاز دارد، که برخی از آنها ناگزیر شامل دادههای شخصی افرادی است که از آن استفاده میکنند. و این حجم از داده ها می تواند به راحتی توسط سازمان های متمرکز، دولت ها و هکرها مورد سوء استفاده قرار گیرد، در صورتی که به دست آنها برسد.
بنابراین، با توجه به محدوده محدود مقررات جامع و نظرات متضاد در مورد توسعه هوش مصنوعی، اکنون شرکت ها و کاربران این محصولات چه کاری می توانند انجام دهند؟
کاری که شرکت ها و کاربران می توانند انجام دهند
این واقعیت که دولتها و دیگر توسعهدهندگان اکنون پرچمدار هوش مصنوعی را برافراشتهاند، واقعاً نشاندهنده پیشرفت از سرعت یخبندان مقررات برای برنامههای کاربردی Web2 و ارزهای دیجیتال است. اما برافراشتن پرچم مشابه نظارت نیست، بنابراین حفظ احساس فوریت و هوشیاری بدون کمک برای ایجاد مقررات مؤثر قبل از اینکه خیلی دیر شود ضروری است.
ممنوعیت ChatGPT ایتالیا اولین حمله ای نیست که دولت ها به هوش مصنوعی انجام می دهند. اتحادیه اروپا و برزیل قوانینی را تصویب کرده اند که استفاده و توسعه انواع خاصی از هوش مصنوعی را تحریم می کند. به طور مشابه، پتانسیل هوش مصنوعی مولد برای ارتکاب نقض داده ها، اقدامات قانونی اولیه را از سوی دولت کانادا آغاز کرده است.
مشکل نقض داده های هوش مصنوعی آنقدر جدی است که OpenAI باید مداخله کند. اگر چند هفته پیش ChatGPT را باز کردید، ممکن است متوجه شده باشید که ویژگی سابقه چت خاموش شده است. OpenAI بهدلیل نگرانیهای جدی در خصوص حفظ حریم خصوصی که درخواستهای غریبهها را فاش میکرد و اطلاعات پرداخت را فاش میکرد، موقتاً این ویژگی را به حالت تعلیق درآورده است.
مربوط: اگر هوش مصنوعی سعی کرد ارز دیجیتال شما را خراب کند، تعجب نکنید
OpenAI به طور موثری این آتش را خاموش کرده است، اما میتوان به سختی به غول Web2 اعتماد کرد که برنامهای را پیشدستانه رهبری کند که تیم اخلاق هوش مصنوعی خود را کاهش داده و به انجام کار درست هدایت کند.
در سطح کل صنعت، استراتژیهای توسعه هوش مصنوعی متمرکز بر یادگیری ماشینی فدرال نیز حریم خصوصی دادهها را افزایش میدهد. یادگیری فدرال یک تکنیک هوش مصنوعی مشترک است که مدلهای هوش مصنوعی را بدون دسترسی به دادهها آموزش میدهد، در عوض از چندین منبع مستقل برای آموزش الگوریتمها بر روی مجموعه دادههای خود استفاده میکند.
در سمت کاربر، خودپسندی هوش مصنوعی و ترک استفاده از این برنامه ها به طور کلی غیر ضروری و احتمالاً به زودی غیرممکن است. اما راههای هوشمندانهتری برای فکر کردن در مورد اینکه به کدام هوش مصنوعی مولد در زندگی روزمره خود دسترسی دارید وجود دارد. برای شرکتها و کسبوکارهای کوچکی که محصولات هوش مصنوعی را در عملیات خود وارد میکنند، مهمتر است که مراقب دادههایی باشند که الگوریتمهای خود را تغذیه میکنند.
این ضرب المثل همیشه سبز که استفاده از محصولات رایگان از داده های شخصی شما محافظت می کند دندان ها این محصول همچنان برای هوش مصنوعی کاربرد دارد. با در نظر گرفتن این موضوع، ممکن است شما را وادار کند که در مورد پروژههای هوش مصنوعی که وقت خود را صرف آن میکنید و در واقع وقت خود را صرف چه چیزی میکنید، تجدید نظر کنید. اگر همه شما بخشی از گرایش رسانه های اجتماعی برای تغذیه عکس های خود به وب سایت های مبهم مبتنی بر هوش مصنوعی بوده اید، در نظر بگیرید که در چنین سایت هایی شرکت نکنید.
ChatGPT تنها در دو ماه پس از راه اندازی به ۱۰۰ میلیون کاربر رسید. این عدد خیره کننده به وضوح نشان می دهد که آینده دیجیتالی توسط هوش مصنوعی تقویت می شود. اما با وجود این اعداد، هوش مصنوعی هنوز فراگیر نشده است. تنظیمکنندهها و شرکتها باید از این سرمایهگذاری کنند و بهجای اینکه پروژهها خیلی بزرگ و خارج از کنترل شوند، چارچوبهایی را برای توسعه مسئولانه و ایمن هوش مصنوعی بسازند. همانطور که وجود دارد، توسعه هوش مصنوعی مولد بین حفاظت و پیشرفت متعادل نیست، اما هنوز زمان برای یافتن مسیر درست برای حفظ اطلاعات کاربر و حفظ حریم خصوصی در خط مقدم وجود دارد.
این مقاله برای اهداف اطلاعاتی عمومی است و در نظر گرفته نشده است، و همچنین نباید به عنوان مشاوره حقوقی یا سرمایه گذاری تلقی شود. دیدگاهها، افکار و نظرات بیان شده در اینجا به تنهایی متعلق به نویسنده است و لزوماً منعکسکننده یا بیانگر دیدگاهها یا نظرات Cointelegraph نیست.
نویسنده: Erik Prince & Ryan Paterson