حمله به حریم خصوصی متا باید به عنوان یک هشدار برای هوش مصنوعی باشد

فیس بوک بدترین اتفاقی بود که در ۲۰ سال گذشته برای حریم خصوصی کاربران رخ داد. هوش مصنوعی می تواند بدترین اتفاقات را در روزهای آینده به نمایش بگذارد.
در دنیایی که به طور فزایندهای مبتنی بر هوش مصنوعی است، بلاک چین میتواند نقشی کلیدی در جلوگیری از گسترش و عادیسازی جنایات برنامههایی مانند فیسبوک داشته باشد.
پلتفرمهای هوش مصنوعی مانند ChatGPT و Bard گوگل وارد جریان اصلی شدهاند و قبلاً به ایجاد اختلافات سیاسی با تعصبات خود متهم شدهاند. همانطور که در فیلم های محبوبی مانند نابود کننده، ماتریس و همین اواخر، Mission: Impossible – Dead Reckoning قسمت ۱، از قبل واضح است که هوش مصنوعی حیوانی وحشی است که احتمالاً برای اهلی کردن آن تلاش خواهیم کرد.
از کمپینهای اطلاعات نادرست و هواپیماهای بدون سرنشین قاتل که دموکراسی را از بین میبرند تا نابودی کامل حریم خصوصی شخصی، هوش مصنوعی این پتانسیل را دارد که اقتصاد جهانی و شاید خود تمدن را متحول کند. در ماه مه ۲۰۲۳، رهبران فناوری جهانی با نوشتن نامهای سرگشاده هشدار دادند که فناوری هوش مصنوعی میتواند به اندازه سلاحهای هستهای خطرناک باشد.
مربوط: دوست دختر، کودکان کشته شده، قاتلان اندروید – آیا هوش مصنوعی نفرین شده است؟
یکی از مهمترین نگرانیها در مورد هوش مصنوعی، عدم شفافیت در مورد آموزش و برنامهنویسی آن، بهویژه مدلهای یادگیری عمیق است که مصادره کردن آنها دشوار است. از داده های حساس برای آموزش مدل های هوش مصنوعی استفاده می شود، بنابراین اگر داده ها به خطر بیفتند، می توان آنها را دستکاری کرد.
در سال های آینده، بلاک چین به طور گسترده همراه با هوش مصنوعی برای افزایش شفافیت، مسئولیت پذیری و قابلیت شنیدن در مورد فرآیندهای تصمیم گیری مورد استفاده قرار خواهد گرفت.
چت GPT عیسی را مسخره می کند، اما محمد نمی خندد pic.twitter.com/LzMXBcdCmw
– E (@ElijahSchaffer) ۲ سپتامبر ۲۰۲۳
به عنوان مثال، هنگام آموزش یک مدل هوش مصنوعی با استفاده از داده های ذخیره شده در یک بلاک چین، منشأ و یکپارچگی داده ها تضمین می شود و از تغییرات غیرمجاز جلوگیری می شود. ذینفعان میتوانند فرآیند تصمیمگیری را با ثبت پارامترهای آموزشی مدل، بهروزرسانیها و نتایج اعتبارسنجی در بلاک چین ردیابی و تأیید کنند.
در این مورد، بلاک چین نقش اصلی را در جلوگیری از سوء استفاده ناخواسته از هوش مصنوعی ایفا خواهد کرد. اما اگر عمدی باشد چه؟ این سناریوی بسیار خطرناک تری است و متأسفانه احتمالاً در سال های آینده با آن روبرو خواهیم شد.
حتی بدون هوش مصنوعی، Big Tech متمرکز از لحاظ تاریخی هم افراد و هم ارزشهای دموکراتیک را دستکاری کرده است تا به بالاترین قیمت پیشنهاد دهد، همانطور که توسط رسوایی Cambridge Analytica فیسبوک معروف شد. به اقداماتی کمک کرده است که منجر به در سال ۲۰۱۴، اپلیکیشن Thisisyourdigitallife برای تست شخصیتی که برای دسترسی به پروفایل فیس بوک کاربر و پروفایل دوستانش نیاز به مجوز داشت، پیشنهاد پرداخت. در اصل، فیس بوک به کمبریج آنالیتیکا اجازه می داد تا از کاربرانش بدون اجازه آنها جاسوسی کند.
نتیجه؟ دو کمپین تاریخی روابط عمومی روانشناختی با هدف عموم تأثیر نسبتاً قوی بر نتایج انتخابات ریاست جمهوری ۲۰۱۶ ایالات متحده و همه پرسی عضویت بریتانیا در اتحادیه اروپا داشتند. آیا متا (فیسبوک سابق) از اشتباهات خود درس گرفته است؟ به نظر نمی رسد.
در ماه جولای، متا جدیدترین اپلیکیشن خود، Threads را معرفی کرد. این به عنوان رقیب توییتر ایلان ماسک معرفی شده است و داده های معمولی را که فیس بوک و اینستاگرام جمع آوری می کنند جمع آوری می کند. اما مشابه TikTok، هنگامی که کاربران Threads ثبت نام کردند، ناخواسته به Meta دسترسی به موقعیت مکانی GPS، دوربین، عکسها، اطلاعات IP، نوع دستگاه و سیگنالهای دستگاه خود دادند. این روش استاندارد Web2 است که چنین اقداماتی را با تبلیغاتی که “کاربر شرایط خدمات را پذیرفته است” توجیه کند. در واقع، یک کاربر معمولی اینترنت به طور متوسط ۷۶ روز کاری طول می کشد تا همه سیاست حفظ حریم خصوصی را برای هر برنامه ای که استفاده می کند، بخواند. نقطه؟ متا اکنون تقریباً به همه چیز در تلفن های همراه بیش از ۱۵۰ میلیون کاربر دسترسی دارد.
هوش مصنوعی ظاهر خواهد شد. اگر پیامدهای رسوایی کمبریج آنالیتیکا باعث نگرانی شود، آیا میتوانیم پیامدهای ازدواج این نظارت تهاجمی با هوش خداگونه هوش مصنوعی را درک کنیم؟
راه حل در اینجا، بدون تعجب، بلاک چین است، اما راه حل به این سادگی نیست.
مربوط: شیدایی پوچ هوش مصنوعی رو به پایان است
یکی از خطرات اصلی هوش مصنوعی در دادههایی است که میتواند جمعآوری کرده و به سلاح تبدیل کند. وقتی صحبت از رسانههای اجتماعی میشود، فناوری بلاک چین پتانسیل افزایش حریم خصوصی و کنترل دادهها را دارد و میتواند به تسهیل شیوههای جمعآوری داده توسط Big Tech کمک کند. اما بعید به نظر میرسد که بتوانیم شرکتهای بزرگ فناوری را از استخراج دادههای حساس «منع» کنیم.
برای اینکه واقعاً از خود در برابر خطرات عمدی هوش مصنوعی محافظت کنیم و از سناریوهای مشابه کمبریج آنالیتیکا در آینده اجتناب کنیم، به پلتفرم های رسانه های اجتماعی غیرمتمرکز ترجیحا مبتنی بر بلاک چین نیاز داریم. با طراحی، تمرکز داده های کاربر را در یک نهاد مرکزی کاهش می دهد و پتانسیل نظارت انبوه یا کمپین های اطلاعات نادرست هوش مصنوعی را به حداقل می رساند.
به زبان ساده، از طریق فناوری بلاک چین، ابزارهایی را که برای محافظت از استقلال خود در برابر هوش مصنوعی در سطح فردی و ملی نیاز داریم، در اختیار داریم.
مدت کوتاهی پس از امضای نامه ای سرگشاده به دولت ها درباره خطرات هوش مصنوعی در ماه می، سام آلتمن، مدیر عامل OpenAI، چندین استراتژی برای مدیریت مسئولانه سیستم های هوش مصنوعی قدرتمند ارائه می دهد. یک پست وبلاگ منتشر کنید. این شامل همکاری میان توسعه دهندگان پیشرو هوش مصنوعی، تقویت تحقیقات فنی در مدل های زبان در مقیاس بزرگ و ایجاد یک سازمان جهانی برای ایمنی هوش مصنوعی بود.
این اقدامات شروع خوبی هستند، اما به سیستمهایی که ما را در برابر هوش مصنوعی آسیبپذیر میکنند نمیپردازند: نهادهای متمرکز Web2 مانند متا. برای اینکه واقعاً از خود در برابر هوش مصنوعی محافظت کنیم، به پیشرفتهای بیشتر در فناوری مبتنی بر بلاک چین، یعنی امنیت سایبری، برای استقرار یک اکوسیستم واقعاً رقابتی از برنامههای رسانههای اجتماعی غیرمتمرکز نیاز فوری است.
این مقاله فقط برای اهداف اطلاعاتی عمومی است و در نظر گرفته نشده است، و نباید به عنوان مشاوره حقوقی یا سرمایه گذاری تلقی شود. دیدگاهها، ایدهها و نظرات بیان شده در اینجا به تنهایی متعلق به نویسنده است و لزوماً منعکسکننده یا بیانگر دیدگاهها و نظرات Cointelegraph نیست.
نویسنده: Callum Kennard