اخبار ارز دیجیتال

حمله به حریم خصوصی متا باید به عنوان یک هشدار برای هوش مصنوعی باشد

فیس بوک بدترین اتفاقی بود که در ۲۰ سال گذشته برای حریم خصوصی کاربران رخ داد. هوش مصنوعی می تواند بدترین اتفاقات را در روزهای آینده به نمایش بگذارد.

در دنیایی که به طور فزاینده‌ای مبتنی بر هوش مصنوعی است، بلاک چین می‌تواند نقشی کلیدی در جلوگیری از گسترش و عادی‌سازی جنایات برنامه‌هایی مانند فیس‌بوک داشته باشد.

پلتفرم‌های هوش مصنوعی مانند ChatGPT و Bard گوگل وارد جریان اصلی شده‌اند و قبلاً به ایجاد اختلافات سیاسی با تعصبات خود متهم شده‌اند. همانطور که در فیلم های محبوبی مانند نابود کننده، ماتریس و همین اواخر، Mission: Impossible – Dead Reckoning قسمت ۱، از قبل واضح است که هوش مصنوعی حیوانی وحشی است که احتمالاً برای اهلی کردن آن تلاش خواهیم کرد.

از کمپین‌های اطلاعات نادرست و هواپیماهای بدون سرنشین قاتل که دموکراسی را از بین می‌برند تا نابودی کامل حریم خصوصی شخصی، هوش مصنوعی این پتانسیل را دارد که اقتصاد جهانی و شاید خود تمدن را متحول کند. در ماه مه ۲۰۲۳، رهبران فناوری جهانی با نوشتن نامه‌ای سرگشاده هشدار دادند که فناوری هوش مصنوعی می‌تواند به اندازه سلاح‌های هسته‌ای خطرناک باشد.

مربوط: دوست دختر، کودکان کشته شده، قاتلان اندروید – آیا هوش مصنوعی نفرین شده است؟

یکی از مهم‌ترین نگرانی‌ها در مورد هوش مصنوعی، عدم شفافیت در مورد آموزش و برنامه‌نویسی آن، به‌ویژه مدل‌های یادگیری عمیق است که مصادره کردن آن‌ها دشوار است. از داده های حساس برای آموزش مدل های هوش مصنوعی استفاده می شود، بنابراین اگر داده ها به خطر بیفتند، می توان آنها را دستکاری کرد.

در سال های آینده، بلاک چین به طور گسترده همراه با هوش مصنوعی برای افزایش شفافیت، مسئولیت پذیری و قابلیت شنیدن در مورد فرآیندهای تصمیم گیری مورد استفاده قرار خواهد گرفت.

به عنوان مثال، هنگام آموزش یک مدل هوش مصنوعی با استفاده از داده های ذخیره شده در یک بلاک چین، منشأ و یکپارچگی داده ها تضمین می شود و از تغییرات غیرمجاز جلوگیری می شود. ذینفعان می‌توانند فرآیند تصمیم‌گیری را با ثبت پارامترهای آموزشی مدل، به‌روزرسانی‌ها و نتایج اعتبارسنجی در بلاک چین ردیابی و تأیید کنند.

در این مورد، بلاک چین نقش اصلی را در جلوگیری از سوء استفاده ناخواسته از هوش مصنوعی ایفا خواهد کرد. اما اگر عمدی باشد چه؟ این سناریوی بسیار خطرناک تری است و متأسفانه احتمالاً در سال های آینده با آن روبرو خواهیم شد.

حتی بدون هوش مصنوعی، Big Tech متمرکز از لحاظ تاریخی هم افراد و هم ارزش‌های دموکراتیک را دستکاری کرده است تا به بالاترین قیمت پیشنهاد دهد، همانطور که توسط رسوایی Cambridge Analytica فیس‌بوک معروف شد. به اقداماتی کمک کرده است که منجر به در سال ۲۰۱۴، اپلیکیشن Thisisyourdigitallife برای تست شخصیتی که برای دسترسی به پروفایل فیس بوک کاربر و پروفایل دوستانش نیاز به مجوز داشت، پیشنهاد پرداخت. در اصل، فیس بوک به کمبریج آنالیتیکا اجازه می داد تا از کاربرانش بدون اجازه آنها جاسوسی کند.

نتیجه؟ دو کمپین تاریخی روابط عمومی روانشناختی با هدف عموم تأثیر نسبتاً قوی بر نتایج انتخابات ریاست جمهوری ۲۰۱۶ ایالات متحده و همه پرسی عضویت بریتانیا در اتحادیه اروپا داشتند. آیا متا (فیسبوک سابق) از اشتباهات خود درس گرفته است؟ به نظر نمی رسد.

در ماه جولای، متا جدیدترین اپلیکیشن خود، Threads را معرفی کرد. این به عنوان رقیب توییتر ایلان ماسک معرفی شده است و داده های معمولی را که فیس بوک و اینستاگرام جمع آوری می کنند جمع آوری می کند. اما مشابه TikTok، هنگامی که کاربران Threads ثبت نام کردند، ناخواسته به Meta دسترسی به موقعیت مکانی GPS، دوربین، عکس‌ها، اطلاعات IP، نوع دستگاه و سیگنال‌های دستگاه خود دادند. این روش استاندارد Web2 است که چنین اقداماتی را با تبلیغاتی که “کاربر شرایط خدمات را پذیرفته است” توجیه کند. در واقع، یک کاربر معمولی اینترنت به طور متوسط ​​۷۶ روز کاری طول می کشد تا همه سیاست حفظ حریم خصوصی را برای هر برنامه ای که استفاده می کند، بخواند. نقطه؟ متا اکنون تقریباً به همه چیز در تلفن های همراه بیش از ۱۵۰ میلیون کاربر دسترسی دارد.

هوش مصنوعی ظاهر خواهد شد. اگر پیامدهای رسوایی کمبریج آنالیتیکا باعث نگرانی شود، آیا می‌توانیم پیامدهای ازدواج این نظارت تهاجمی با هوش خداگونه هوش مصنوعی را درک کنیم؟

راه حل در اینجا، بدون تعجب، بلاک چین است، اما راه حل به این سادگی نیست.

مربوط: شیدایی پوچ هوش مصنوعی رو به پایان است

یکی از خطرات اصلی هوش مصنوعی در داده‌هایی است که می‌تواند جمع‌آوری کرده و به سلاح تبدیل کند. وقتی صحبت از رسانه‌های اجتماعی می‌شود، فناوری بلاک چین پتانسیل افزایش حریم خصوصی و کنترل داده‌ها را دارد و می‌تواند به تسهیل شیوه‌های جمع‌آوری داده توسط Big Tech کمک کند. اما بعید به نظر می‌رسد که بتوانیم شرکت‌های بزرگ فناوری را از استخراج داده‌های حساس «منع» کنیم.

برای اینکه واقعاً از خود در برابر خطرات عمدی هوش مصنوعی محافظت کنیم و از سناریوهای مشابه کمبریج آنالیتیکا در آینده اجتناب کنیم، به پلتفرم های رسانه های اجتماعی غیرمتمرکز ترجیحا مبتنی بر بلاک چین نیاز داریم. با طراحی، تمرکز داده های کاربر را در یک نهاد مرکزی کاهش می دهد و پتانسیل نظارت انبوه یا کمپین های اطلاعات نادرست هوش مصنوعی را به حداقل می رساند.

به زبان ساده، از طریق فناوری بلاک چین، ابزارهایی را که برای محافظت از استقلال خود در برابر هوش مصنوعی در سطح فردی و ملی نیاز داریم، در اختیار داریم.

مدت کوتاهی پس از امضای نامه ای سرگشاده به دولت ها درباره خطرات هوش مصنوعی در ماه می، سام آلتمن، مدیر عامل OpenAI، چندین استراتژی برای مدیریت مسئولانه سیستم های هوش مصنوعی قدرتمند ارائه می دهد. یک پست وبلاگ منتشر کنید. این شامل همکاری میان توسعه دهندگان پیشرو هوش مصنوعی، تقویت تحقیقات فنی در مدل های زبان در مقیاس بزرگ و ایجاد یک سازمان جهانی برای ایمنی هوش مصنوعی بود.

این اقدامات شروع خوبی هستند، اما به سیستم‌هایی که ما را در برابر هوش مصنوعی آسیب‌پذیر می‌کنند نمی‌پردازند: نهادهای متمرکز Web2 مانند متا. برای اینکه واقعاً از خود در برابر هوش مصنوعی محافظت کنیم، به پیشرفت‌های بیشتر در فناوری مبتنی بر بلاک چین، یعنی امنیت سایبری، برای استقرار یک اکوسیستم واقعاً رقابتی از برنامه‌های رسانه‌های اجتماعی غیرمتمرکز نیاز فوری است.

کالوم کنارد مدیر محتوا در Storm Partners، ارائه‌دهنده راهکارهای Web3 مستقر در سوئیس است. او فارغ التحصیل دانشگاه برایتون انگلستان است.

این مقاله فقط برای اهداف اطلاعاتی عمومی است و در نظر گرفته نشده است، و نباید به عنوان مشاوره حقوقی یا سرمایه گذاری تلقی شود. دیدگاه‌ها، ایده‌ها و نظرات بیان شده در اینجا به تنهایی متعلق به نویسنده است و لزوماً منعکس‌کننده یا بیانگر دیدگاه‌ها و نظرات Cointelegraph نیست.



نویسنده: Callum Kennard

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا