اخبار ارز دیجیتال

OpenAI برای مبارزه با آسیب‌پذیری‌های سیستم، برنامه باگ بونتی راه‌اندازی می‌کند


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

OpenAI یک برنامه پاداش باگ راه اندازی کرده است که به مسائل مربوط به حریم خصوصی و امنیت سایبری می پردازد و به محققان امنیتی برای شناسایی و رسیدگی به آسیب پذیری های سیستم پاداش می دهد.

در میان نگرانی‌های مربوط به حریم خصوصی و امنیت سایبری و ممنوعیت‌های اخیر توسط کشورهای مختلف، شرکت هوش مصنوعی OpenAI برنامه‌ای را برای رفع نگرانی‌های آسیب‌پذیری منتشر کرده است.

OpenAI، شرکت سازنده ChatGPT، روز سه‌شنبه از راه‌اندازی برنامه پاداش باگ OpenAI برای شناسایی و رفع آسیب‌پذیری‌های سیستم خبر داد. طبق این اعلامیه، این برنامه به محققان امنیتی که در ایمن نگه داشتن فناوری و سازمانی OpenAI کمک کرده‌اند، پاداش می‌دهد.

OpenAI از یک جامعه جهانی از محققان امنیتی، هکرهای اخلاقی و علاقه مندان به فناوری دعوت کرد تا مشوق هایی را برای تأیید اطلاعات آسیب پذیری خود ارائه دهند. شرکت‌های هوش مصنوعی بر این باورند که تخصص و هوشیاری تأثیر مستقیمی بر حفظ سیستم‌ها و تضمین امنیت کاربر دارد.

راه‌اندازی این برنامه پس از بیانیه هیروکازو ماتسونو، وزیر ارشد کابینه در روز دوشنبه، مبنی بر اینکه ژاپن در نظر دارد فناوری هوش مصنوعی را در سیستم‌های دولتی قرار دهد، به شرط رفع نگرانی‌های مربوط به حریم خصوصی و امنیت سایبری صورت می‌گیرد.

OpenAI در ۲۰ مارس دچار نقض داده شد، زمانی که یک اشکال در یک کتابخانه منبع باز اطلاعات کاربر را در معرض دید کاربر دیگری قرار داد.

در این اطلاعیه، OpenAI گفت که با Bugcrowd، یک پلتفرم پاداش باگ، برای مدیریت فرآیند ارسال و پاداش طراحی شده برای اطمینان از تجربه کارآمد برای همه شرکت‌کنندگان در مزرعه برنج، شریک شده است. جوایز بر اساس شدت و تأثیر موضوع گزارش شده اعطا می شود. غرامت از ۲۰۰ دلار برای یافته های با شدت کم تا ۲۰۰۰۰ دلار برای یافته های استثنایی متغیر است.

مربوط: BabyAGI و AutoGPT در برنامه‌های GPT-4 می‌توانند اثرات مخربی روی رمزارز داشته باشند

حفاظت از بندر امن برای تحقیقات آسیب‌پذیری که طبق دستورالعمل‌های خاص فهرست‌شده توسط OpenAI انجام می‌شود، ارائه می‌شود. از محققان انتظار می رود که تمام قوانین قابل اجرا را رعایت کنند.

اگر شخص ثالثی علیه یک محقق امنیتی که در برنامه پاداش باگ OpenAI شرکت کرده است، اقدام قانونی کند و محقق قوانین برنامه را رعایت کند، OpenAI به طرف مقابل ثابت نخواهد کرد که محقق مطابق دستورالعمل های برنامه عمل کرده است. به شما اطلاع خواهد داد. این به این دلیل است که سیستم‌های OpenAI با سایر سیستم‌ها و سرویس‌های شخص ثالث مرتبط هستند.

مجله: همه چیز برای ربات قضات قابل قبول است: هوش مصنوعی و بلاک چین می توانند دادگاه را تغییر دهند

نویسنده: Amaka Nwaokocha

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا