اخبار ارز دیجیتال

فکر کنید ابزارهای هوش مصنوعی داده ها را جمع آوری نمی کنند؟ دوباره حدس بزنید


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

با محصولات “رایگان” مانند ChatGPT، داده های شخصی شما به محصولی تبدیل می شود که دولت ها در سراسر جهان از آن به نفع خود استفاده می کنند.

به لطف محصولات متمرکز بر کاربر مانند ChatGPT، Dall-E و Lensa از OpenAI، رشد بی‌سابقه هوش مصنوعی مولد به یک حس واقعی فناوری تبدیل شده است. اما رونق هوش مصنوعی کاربر پسند همراه با نادیده گرفتن یا نادیده گرفتن ظاهراً خطرات حریم خصوصی ناشی از این پروژه ها توسط کاربران بوده است.

اما در میان این همه هیاهو، دولت های بین المللی و بازیگران بزرگ فناوری زنگ خطر را به صدا در می آورند. ایتالیا به تازگی ChatGPT را به دلیل حفظ حریم خصوصی و نگرانی های امنیتی به طور موقت ممنوع کرده است، که می تواند باعث ایجاد یک بلوک مشابه در آلمان شود. در بخش خصوصی، صدها محقق و رهبر فناوری هوش مصنوعی، از جمله ایلان ماسک و استیو وزنیاک، نامه ای سرگشاده را امضا کرده اند که در آن خواستار توقف شش ماهه توسعه هوش مصنوعی فراتر از امضای GPT-4 شده اند.

در حالی که اقدام نسبتاً سریع برای مهار توسعه غیرمسئولانه هوش مصنوعی قابل ستایش است، چشم انداز وسیع تهدیداتی که هوش مصنوعی برای حریم خصوصی و امنیت داده ها ایجاد می کند فراتر از هر مدل یا توسعه دهنده ای است. هیچ‌کس نمی‌خواهد قابلیت‌های تغییر پارادایم هوش مصنوعی را کاهش دهد، اما برای جلوگیری از عواقب فاجعه‌بار، باید کاستی‌های آن را به‌طور جدی برطرف کرد.

طوفان حفظ حریم خصوصی داده ها توسط هوش مصنوعی

در حالی که سرزنش OpenAI و سایر پروژه‌های هوش مصنوعی مبتنی بر فناوری بزرگ برای مسائل مربوط به حریم خصوصی داده‌ها در هوش مصنوعی آسان است، اما این موضوع مدت‌ها قبل از اینکه هوش مصنوعی به جریان اصلی تبدیل شود مطرح شد. رسوایی‌های حفظ حریم خصوصی داده‌ها در هوش مصنوعی قبل از سرکوب ChatGPT، بیشتر آن‌ها در علنی است.

همین سال گذشته، Clearview AI، یک شرکت تشخیص چهره مبتنی بر هوش مصنوعی با دانش عمومی محدود، طبق گزارش‌ها توسط هزاران دولت و سازمان‌های مجری قانون مورد استفاده قرار گرفت و فناوری تشخیص چهره خود را به شرکت‌های خصوصی در ایالات متحده رساند. Clearview همچنین به دلیل بانک اطلاعاتی غیرقانونی تشخیص چهره در بریتانیا ۹.۴ میلیون دلار جریمه شد. چه کسی می گوید که پروژه های هوش مصنوعی بصری متمرکز بر مصرف کننده مانند Midjourney نمی توانند برای اهداف مشابه استفاده شوند؟

مشکل این است که آنها قبلاً انجام می دهند. رسوایی‌های دیپ‌فیک اخیر مربوط به پورنوگرافی و اخبار جعلی ایجاد شده از طریق محصولات هوش مصنوعی سطح مصرف‌کننده تنها ضرورت محافظت از کاربران را در برابر استفاده مخرب هوش مصنوعی افزایش می‌دهد. این مفهوم مجازی تقلید دیجیتال را در بر می گیرد و آن را به یک تهدید بسیار واقعی برای مردم عادی و افراد مشهور با نفوذ تبدیل می کند.

مربوط: الیزابت وارن از پلیس می خواهد که در سال ۲۰۲۴ به خانه او بیاید

یک مدل هوش مصنوعی مولد اساساً به داده‌های جدید و موجود برای ایجاد و ارتقای عملکرد و قابلیت استفاده خود متکی است. این یکی از دلایلی است که ChatGPT بسیار چشمگیر است. گفته می‌شود، هر مدلی که بر ورودی داده‌های جدید متکی باشد، به مکانی برای دریافت آن داده‌ها نیاز دارد، که برخی از آنها ناگزیر شامل داده‌های شخصی افرادی است که از آن استفاده می‌کنند. و این حجم از داده ها می تواند به راحتی توسط سازمان های متمرکز، دولت ها و هکرها مورد سوء استفاده قرار گیرد، در صورتی که به دست آنها برسد.

بنابراین، با توجه به محدوده محدود مقررات جامع و نظرات متضاد در مورد توسعه هوش مصنوعی، اکنون شرکت ها و کاربران این محصولات چه کاری می توانند انجام دهند؟

کاری که شرکت ها و کاربران می توانند انجام دهند

این واقعیت که دولت‌ها و دیگر توسعه‌دهندگان اکنون پرچم‌دار هوش مصنوعی را برافراشته‌اند، واقعاً نشان‌دهنده پیشرفت از سرعت یخبندان مقررات برای برنامه‌های کاربردی Web2 و ارزهای دیجیتال است. اما برافراشتن پرچم مشابه نظارت نیست، بنابراین حفظ احساس فوریت و هوشیاری بدون کمک برای ایجاد مقررات مؤثر قبل از اینکه خیلی دیر شود ضروری است.

ممنوعیت ChatGPT ایتالیا اولین حمله ای نیست که دولت ها به هوش مصنوعی انجام می دهند. اتحادیه اروپا و برزیل قوانینی را تصویب کرده اند که استفاده و توسعه انواع خاصی از هوش مصنوعی را تحریم می کند. به طور مشابه، پتانسیل هوش مصنوعی مولد برای ارتکاب نقض داده ها، اقدامات قانونی اولیه را از سوی دولت کانادا آغاز کرده است.

مشکل نقض داده های هوش مصنوعی آنقدر جدی است که OpenAI باید مداخله کند. اگر چند هفته پیش ChatGPT را باز کردید، ممکن است متوجه شده باشید که ویژگی سابقه چت خاموش شده است. OpenAI به‌دلیل نگرانی‌های جدی در خصوص حفظ حریم خصوصی که درخواست‌های غریبه‌ها را فاش می‌کرد و اطلاعات پرداخت را فاش می‌کرد، موقتاً این ویژگی را به حالت تعلیق درآورده است.

مربوط: اگر هوش مصنوعی سعی کرد ارز دیجیتال شما را خراب کند، تعجب نکنید

OpenAI به طور موثری این آتش را خاموش کرده است، اما می‌توان به سختی به غول Web2 اعتماد کرد که برنامه‌ای را پیش‌دستانه رهبری کند که تیم اخلاق هوش مصنوعی خود را کاهش داده و به انجام کار درست هدایت کند.

در سطح کل صنعت، استراتژی‌های توسعه هوش مصنوعی متمرکز بر یادگیری ماشینی فدرال نیز حریم خصوصی داده‌ها را افزایش می‌دهد. یادگیری فدرال یک تکنیک هوش مصنوعی مشترک است که مدل‌های هوش مصنوعی را بدون دسترسی به داده‌ها آموزش می‌دهد، در عوض از چندین منبع مستقل برای آموزش الگوریتم‌ها بر روی مجموعه داده‌های خود استفاده می‌کند.

در سمت کاربر، خودپسندی هوش مصنوعی و ترک استفاده از این برنامه ها به طور کلی غیر ضروری و احتمالاً به زودی غیرممکن است. اما راه‌های هوشمندانه‌تری برای فکر کردن در مورد اینکه به کدام هوش مصنوعی مولد در زندگی روزمره خود دسترسی دارید وجود دارد. برای شرکت‌ها و کسب‌وکارهای کوچکی که محصولات هوش مصنوعی را در عملیات خود وارد می‌کنند، مهم‌تر است که مراقب داده‌هایی باشند که الگوریتم‌های خود را تغذیه می‌کنند.

این ضرب المثل همیشه سبز که استفاده از محصولات رایگان از داده های شخصی شما محافظت می کند دندان ها این محصول همچنان برای هوش مصنوعی کاربرد دارد. با در نظر گرفتن این موضوع، ممکن است شما را وادار کند که در مورد پروژه‌های هوش مصنوعی که وقت خود را صرف آن می‌کنید و در واقع وقت خود را صرف چه چیزی می‌کنید، تجدید نظر کنید. اگر همه شما بخشی از گرایش رسانه های اجتماعی برای تغذیه عکس های خود به وب سایت های مبهم مبتنی بر هوش مصنوعی بوده اید، در نظر بگیرید که در چنین سایت هایی شرکت نکنید.

ChatGPT تنها در دو ماه پس از راه اندازی به ۱۰۰ میلیون کاربر رسید. این عدد خیره کننده به وضوح نشان می دهد که آینده دیجیتالی توسط هوش مصنوعی تقویت می شود. اما با وجود این اعداد، هوش مصنوعی هنوز فراگیر نشده است. تنظیم‌کننده‌ها و شرکت‌ها باید از این سرمایه‌گذاری کنند و به‌جای اینکه پروژه‌ها خیلی بزرگ و خارج از کنترل شوند، چارچوب‌هایی را برای توسعه مسئولانه و ایمن هوش مصنوعی بسازند. همانطور که وجود دارد، توسعه هوش مصنوعی مولد بین حفاظت و پیشرفت متعادل نیست، اما هنوز زمان برای یافتن مسیر درست برای حفظ اطلاعات کاربر و حفظ حریم خصوصی در خط مقدم وجود دارد.

رایان پترسون رئیس Unplugged. قبل از Unplugged، او به عنوان بنیانگذار، رئیس و مدیر عامل IST Research از سال ۲۰۰۸ تا ۲۰۲۰ خدمت می کرد. در سپتامبر ۲۰۲۰، شرکت را فروختم و IST Research را ترک کردم. او در دو دیدار با آژانس تحقیقات پیشرفته دفاعی و آژانس تحقیقات پیشرفته دفاعی ایالات متحده خدمت کرده است. به مدت ۱۲ سال در تفنگداران دریایی ایالات متحده خدمت کرد.
اریک پرنس کارآفرین، نیکوکار و کهنه سرباز نیروی دریایی با علایق تجاری در اروپا، آفریقا، خاورمیانه و آمریکای شمالی. او بنیانگذار و رئیس Frontier Resource Group و بنیانگذار Blackwater USA بود، ارائه‌دهنده راه‌حل‌های امنیتی، آموزشی و لجستیکی جهانی برای دولت ایالات متحده و سایر سازمان‌ها، تا زمانی که این شرکت در سال ۲۰۱۰ فروخته شد.

این مقاله برای اهداف اطلاعاتی عمومی است و در نظر گرفته نشده است، و همچنین نباید به عنوان مشاوره حقوقی یا سرمایه گذاری تلقی شود. دیدگاه‌ها، افکار و نظرات بیان شده در اینجا به تنهایی متعلق به نویسنده است و لزوماً منعکس‌کننده یا بیانگر دیدگاه‌ها یا نظرات Cointelegraph نیست.



نویسنده: Erik Prince & Ryan Paterson

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا