🚨 اخبار ارز دیجیتال

کمبریج آنالیتیکا را فراموش کنید – هوش مصنوعی چگونه انتخابات را تهدید می کند


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

در حالی که اطلاعات نادرست یک مشکل دائمی است که تا حدی توسط رسانه های اجتماعی هدایت می شود، هوش مصنوعی می تواند انتشار اطلاعات نادرست را برای بازیگران بد بسیار آسان تر کند.

در سال ۲۰۱۸، جهان از شنیدن اینکه شرکت مشاوره سیاسی بریتانیایی کمبریج آنالیتیکا اطلاعات شخصی حداقل ۵۰ میلیون کاربر فیس بوک را بدون رضایت آنها جمع آوری کرده و از آن برای تأثیرگذاری بر انتخابات در ایالات متحده و خارج از کشور استفاده کرده است، شوکه شد.

تحقیقات مخفیانه توسط Channel 4 News منجر به انتشار تصاویری از الکساندر نیکس، مدیرعامل وقت این شرکت شد و شرکت با گمراه کردن عمدی مردم به حمایت از مشتریان سیاسی خوب بود. او پیشنهاد کرد:

“وقتی آن را می گویید وحشتناک به نظر می رسد، اما لزومی ندارد که درست باشد. به شرطی که آن را باور کنید.”

این رسوایی زنگ خطر را در مورد خطرات رسانه های اجتماعی و داده های بزرگ و اینکه دموکراسی ها در برابر تغییرات سریع تکنولوژیکی در سراسر جهان آسیب پذیر هستند، به صدا درآورده است.

هوش مصنوعی

هوش مصنوعی (AI) چگونه در این وضعیت قرار می گیرد و آیا می توان از آن برای تأثیرگذاری بر انتخابات و تهدید یکپارچگی دموکراسی ها در سراسر جهان استفاده کرد؟

به گفته تریش مک کلاسکی، دانشیار دانشگاه دیکین و بسیاری دیگر، پاسخ کاملاً مثبت است.

مک‌کلاسکی به کوین‌تلگراف گفت که مدل‌های زبانی در مقیاس بزرگ مانند ChatGPT OpenAI «می‌توانند محتوایی را تولید کنند که از متن نوشته شده توسط انسان قابل تشخیص نیست» و منجر به کمپین‌های اطلاعات نادرست و انتشار اخبار جعلی آنلاین شود.

مک کلاسکی توانایی هوش مصنوعی در ایجاد دیپ‌فیک را از جمله نمونه‌های دیگری از این که چگونه هوش مصنوعی می‌تواند به طور بالقوه دموکراسی را تهدید کند و اینکه چهره‌های برجسته مانند نامزدهای ریاست‌جمهوری می‌توانند از دیپ‌فیک استفاده کنند، تاکید کرد.او بر امکان دستکاری افکار عمومی با ساختن ویدئوهای مردم تاکید کرد.

تشخیص عمیق بودن یا نبودن یک ویدیو به طور کلی آسان است، اما فناوری آنقدر سریع در حال پیشرفت است که در نهایت از واقعیت قابل تشخیص نیست.

به عنوان مثال، در ویدیوهای دیپ فیک مدیر عامل سابق FTX سام بنکمن-فرید که به وب‌سایت‌های فیشینگ مرتبط است، لب‌های او اغلب با کلماتش هماهنگ نبوده و باعث می‌شود بینندگان احساس کنند چیزی اشتباه است.

گری مارک، کارآفرین هوش مصنوعی و نویسنده کتاب راه اندازی مجدد هوش مصنوعی: ساختن هوش مصنوعی قابل اعتماد او که با ارزیابی مک کلاسکی موافق بود، به کوین تلگراف گفت که مهمترین خطرات ناشی از هوش مصنوعی در کوتاه مدت عبارتند از:

“اطلاعات غلط در مقیاس بزرگ، خودکار و قابل قبول، تهدیدی برای غلبه بر دموکراسی است.”

مقاله بررسی شده در سال ۲۰۲۱ با عنوان «نقش هوش مصنوعی در اطلاعات نادرست» توسط محققان نومی بونتریدر و ایو پولت، همچنین توانایی سیستم‌های هوش مصنوعی برای کمک به اطلاعات نادرست را برجسته می‌کند و نشان می‌دهد که دو راه برای انتشار اطلاعات نادرست وجود دارد.

“اول، آنها [AI] این می تواند توسط ذینفعان مخرب برای دستکاری افراد به روشی خاص و موثر و در مقیاس بزرگ استفاده شود. دوم، آنها به طور مستقیم گسترش چنین محتوایی را تقویت می کنند. “

علاوه بر این، سیستم‌های هوش مصنوعی امروزی فقط به اندازه داده‌هایی هستند که به آن‌ها وارد می‌کنند، که گاهی اوقات می‌تواند منجر به پاسخ‌های جانبدارانه شود که بر نظر کاربر تأثیر می‌گذارد.

چگونه خطر را کاهش دهیم

در حالی که واضح است که هوش مصنوعی پتانسیل تهدید دموکراسی ها و انتخابات در سراسر جهان را دارد، شایان ذکر است که هوش مصنوعی همچنین می تواند نقش فعالی در دموکراسی و مبارزه با اطلاعات نادرست داشته باشد.

به عنوان مثال، مک کلاسکی گفت که هوش مصنوعی می تواند نه تنها برای “تشخیص و هشدار درباره اطلاعات نادرست، تسهیل بررسی حقایق، و نظارت بر درستی انتخابات”، بلکه برای آموزش مردم و مشارکت آنها در روند دموکراتیک نیز مورد استفاده قرار گیرد.

McCluskey می‌افزاید: «مهم است که اطمینان حاصل شود که فناوری هوش مصنوعی با رعایت مقررات و اقدامات ایمنی مناسب توسعه یافته و مسئولانه استفاده می‌شود.

نمونه ای از مقرراتی که می تواند به کاهش توانایی هوش مصنوعی در ایجاد و انتشار اطلاعات نادرست کمک کند، قانون خدمات دیجیتال اتحادیه اروپا (DSA) است.

مربوط: مدیر عامل OpenAI در کنگره با مدافع “تعلیق هوش مصنوعی” و مدیران IBM شهادت می دهد

پس از اجرای کامل DSA، پلتفرم های آنلاین بزرگ مانند توییتر و فیس بوک ملزم به انجام یک سری تعهدات با هدف به حداقل رساندن اطلاعات نادرست یا حداکثر ۶ درصد از گردش مالی سالانه خواهند بود.

DSA همچنین الزامات شفافیت را در این پلتفرم‌های آنلاین اعمال می‌کند، نه تنها نحوه مدیریت محتوای خود، بلکه همچنین نحوه توصیه محتوا به کاربران (اغلب با استفاده از الگوریتم‌های هوش مصنوعی).

Bontridder و Poullet می گویند که شرکت ها به طور فزاینده ای از هوش مصنوعی برای سفارشی کردن محتوا استفاده می کنند، اما هوش مصنوعی می تواند “به ویژه مشکل ساز” باشد زیرا می تواند بیش از حد تنظیم شود و آزادی بیان را نقض کند. اشاره کردند که وجود دارد

DSA فقط برای مشاغل در اتحادیه اروپا اعمال می شود. مک کلاسکی به عنوان یک پدیده جهانی اشاره می کند که تنظیم هوش مصنوعی و مبارزه با اطلاعات نادرست نیازمند همکاری بین المللی است.

مجله: ۳.۴ میلیارد دلار بیت کوین در قوطی پاپ کورن – داستان هکرهای جاده ابریشم

مک‌کلاسکی پیشنهاد کرد که این امر می‌تواند از طریق «توافق بین‌المللی درباره اخلاق هوش مصنوعی، استانداردهای حریم خصوصی داده‌ها، یا تلاش‌های مشترک برای ردیابی و مبارزه با کمپین‌های اطلاعات نادرست» حاصل شود.

مک کلاسکی در نهایت گفت: «مبارزه با خطراتی که هوش مصنوعی به اطلاعات نادرست کمک می‌کند، نیازمند مقررات دولتی، خودتنظیمی توسط شرکت‌های فناوری، همکاری بین‌المللی، آموزش عمومی، راه‌حل‌های فناوری، سواد رسانه‌ای و تحقیقات مداوم است.» «یک رویکرد چند وجهی مورد نیاز است. ،” او گفت.



نویسنده: Luke Huigsloot

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا