
به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
در حالی که اطلاعات نادرست یک مشکل دائمی است که تا حدی توسط رسانه های اجتماعی هدایت می شود، هوش مصنوعی می تواند انتشار اطلاعات نادرست را برای بازیگران بد بسیار آسان تر کند.
در سال 2018، جهان از شنیدن اینکه شرکت مشاوره سیاسی بریتانیایی کمبریج آنالیتیکا اطلاعات شخصی حداقل 50 میلیون کاربر فیس بوک را بدون رضایت آنها جمع آوری کرده و از آن برای تأثیرگذاری بر انتخابات در ایالات متحده و خارج از کشور استفاده کرده است، شوکه شد.
تحقیقات مخفیانه توسط Channel 4 News منجر به انتشار تصاویری از الکساندر نیکس، مدیرعامل وقت این شرکت شد و شرکت با گمراه کردن عمدی مردم به حمایت از مشتریان سیاسی خوب بود. او پیشنهاد کرد:
“وقتی آن را می گویید وحشتناک به نظر می رسد، اما لزومی ندارد که درست باشد. به شرطی که آن را باور کنید.”
این رسوایی زنگ خطر را در مورد خطرات رسانه های اجتماعی و داده های بزرگ و اینکه دموکراسی ها در برابر تغییرات سریع تکنولوژیکی در سراسر جهان آسیب پذیر هستند، به صدا درآورده است.
هوش مصنوعی
هوش مصنوعی (AI) چگونه در این وضعیت قرار می گیرد و آیا می توان از آن برای تأثیرگذاری بر انتخابات و تهدید یکپارچگی دموکراسی ها در سراسر جهان استفاده کرد؟
به گفته تریش مک کلاسکی، دانشیار دانشگاه دیکین و بسیاری دیگر، پاسخ کاملاً مثبت است.
کریگ مارتل، مدیر ارشد دیجیتال و هوش مصنوعی پنتاگون، هشدار می دهد که مدل های زبان مولد هوش مصنوعی به این شکل هستند: #ChatGPT ممکن است تبدیل شود "ابزار کامل" برای #اطلاعات نادرست. آنها فاقد زمینه هستند و مردم سخنان آنها را به عنوان واقعیت در نظر می گیرند. #هوش مصنوعی #امنیت سایبری pic.twitter.com/pPCHY2zKJH
– پلتفرم هوش جهانی داده در زمان واقعی (@KIDataApp) 5 مه 2023
مککلاسکی به کوینتلگراف گفت که مدلهای زبانی در مقیاس بزرگ مانند ChatGPT OpenAI «میتوانند محتوایی را تولید کنند که از متن نوشته شده توسط انسان قابل تشخیص نیست» و منجر به کمپینهای اطلاعات نادرست و انتشار اخبار جعلی آنلاین شود.
مک کلاسکی توانایی هوش مصنوعی در ایجاد دیپفیک را از جمله نمونههای دیگری از این که چگونه هوش مصنوعی میتواند به طور بالقوه دموکراسی را تهدید کند و اینکه چهرههای برجسته مانند نامزدهای ریاستجمهوری میتوانند از دیپفیک استفاده کنند، تاکید کرد.او بر امکان دستکاری افکار عمومی با ساختن ویدئوهای مردم تاکید کرد.
تشخیص عمیق بودن یا نبودن یک ویدیو به طور کلی آسان است، اما فناوری آنقدر سریع در حال پیشرفت است که در نهایت از واقعیت قابل تشخیص نیست.
به عنوان مثال، در ویدیوهای دیپ فیک مدیر عامل سابق FTX سام بنکمن-فرید که به وبسایتهای فیشینگ مرتبط است، لبهای او اغلب با کلماتش هماهنگ نبوده و باعث میشود بینندگان احساس کنند چیزی اشتباه است.
در آخر هفته، یک حساب تایید شده که خود را به عنوان بنیانگذار FTX SBF نشان میدهد، دهها نسخه از این ویدیوی دیپفیک را برای کاربران FTX ارسال کرد. "جبران خسارت" کلاهبرداری فیشینگ با هدف تخلیه کیف پول ارزهای دیجیتال pic.twitter.com/3KoAPRJsya
– جیسون کوبلر (@jason_koebler) 21 نوامبر 2022
گری مارک، کارآفرین هوش مصنوعی و نویسنده کتاب راه اندازی مجدد هوش مصنوعی: ساختن هوش مصنوعی قابل اعتماد او که با ارزیابی مک کلاسکی موافق بود، به کوین تلگراف گفت که مهمترین خطرات ناشی از هوش مصنوعی در کوتاه مدت عبارتند از:
“اطلاعات غلط در مقیاس بزرگ، خودکار و قابل قبول، تهدیدی برای غلبه بر دموکراسی است.”
مقاله بررسی شده در سال 2021 با عنوان «نقش هوش مصنوعی در اطلاعات نادرست» توسط محققان نومی بونتریدر و ایو پولت، همچنین توانایی سیستمهای هوش مصنوعی برای کمک به اطلاعات نادرست را برجسته میکند و نشان میدهد که دو راه برای انتشار اطلاعات نادرست وجود دارد.
“اول، آنها [AI] این می تواند توسط ذینفعان مخرب برای دستکاری افراد به روشی خاص و موثر و در مقیاس بزرگ استفاده شود. دوم، آنها به طور مستقیم گسترش چنین محتوایی را تقویت می کنند. “
علاوه بر این، سیستمهای هوش مصنوعی امروزی فقط به اندازه دادههایی هستند که به آنها وارد میکنند، که گاهی اوقات میتواند منجر به پاسخهای جانبدارانه شود که بر نظر کاربر تأثیر میگذارد.
تعصب کلاسیک لیبرال هوش مصنوعی #AI #هوش مصنوعی اسنپ چت #هوش مصنوعی مولد #هوش مصنوعی (توجه: من در انتخابات رای نمی دهم. این ایده ای بود که من به آن نیاز داشتم تا ببینم برنامه نویسان چگونه این هوش مصنوعی را برای پاسخ به سیاست طراحی کرده اند.) pic.twitter.com/hhP2v2pFHg
– دوریان تاپیاس (@CrypticStyle) 10 مه 2023
چگونه خطر را کاهش دهیم
در حالی که واضح است که هوش مصنوعی پتانسیل تهدید دموکراسی ها و انتخابات در سراسر جهان را دارد، شایان ذکر است که هوش مصنوعی همچنین می تواند نقش فعالی در دموکراسی و مبارزه با اطلاعات نادرست داشته باشد.
به عنوان مثال، مک کلاسکی گفت که هوش مصنوعی می تواند نه تنها برای “تشخیص و هشدار درباره اطلاعات نادرست، تسهیل بررسی حقایق، و نظارت بر درستی انتخابات”، بلکه برای آموزش مردم و مشارکت آنها در روند دموکراتیک نیز مورد استفاده قرار گیرد.
McCluskey میافزاید: «مهم است که اطمینان حاصل شود که فناوری هوش مصنوعی با رعایت مقررات و اقدامات ایمنی مناسب توسعه یافته و مسئولانه استفاده میشود.
نمونه ای از مقرراتی که می تواند به کاهش توانایی هوش مصنوعی در ایجاد و انتشار اطلاعات نادرست کمک کند، قانون خدمات دیجیتال اتحادیه اروپا (DSA) است.
مربوط: مدیر عامل OpenAI در کنگره با مدافع “تعلیق هوش مصنوعی” و مدیران IBM شهادت می دهد
پس از اجرای کامل DSA، پلتفرم های آنلاین بزرگ مانند توییتر و فیس بوک ملزم به انجام یک سری تعهدات با هدف به حداقل رساندن اطلاعات نادرست یا حداکثر 6 درصد از گردش مالی سالانه خواهند بود.
DSA همچنین الزامات شفافیت را در این پلتفرمهای آنلاین اعمال میکند، نه تنها نحوه مدیریت محتوای خود، بلکه همچنین نحوه توصیه محتوا به کاربران (اغلب با استفاده از الگوریتمهای هوش مصنوعی).
Bontridder و Poullet می گویند که شرکت ها به طور فزاینده ای از هوش مصنوعی برای سفارشی کردن محتوا استفاده می کنند، اما هوش مصنوعی می تواند “به ویژه مشکل ساز” باشد زیرا می تواند بیش از حد تنظیم شود و آزادی بیان را نقض کند. اشاره کردند که وجود دارد
DSA فقط برای مشاغل در اتحادیه اروپا اعمال می شود. مک کلاسکی به عنوان یک پدیده جهانی اشاره می کند که تنظیم هوش مصنوعی و مبارزه با اطلاعات نادرست نیازمند همکاری بین المللی است.
مجله: 3.4 میلیارد دلار بیت کوین در قوطی پاپ کورن – داستان هکرهای جاده ابریشم
مککلاسکی پیشنهاد کرد که این امر میتواند از طریق «توافق بینالمللی درباره اخلاق هوش مصنوعی، استانداردهای حریم خصوصی دادهها، یا تلاشهای مشترک برای ردیابی و مبارزه با کمپینهای اطلاعات نادرست» حاصل شود.
مک کلاسکی در نهایت گفت: «مبارزه با خطراتی که هوش مصنوعی به اطلاعات نادرست کمک میکند، نیازمند مقررات دولتی، خودتنظیمی توسط شرکتهای فناوری، همکاری بینالمللی، آموزش عمومی، راهحلهای فناوری، سواد رسانهای و تحقیقات مداوم است.» «یک رویکرد چند وجهی مورد نیاز است. ،” او گفت.
نویسنده: Luke Huigsloot