OpenAI برای مبارزه با آسیبپذیریهای سیستم، برنامه باگ بونتی راهاندازی میکند

به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
OpenAI یک برنامه پاداش باگ راه اندازی کرده است که به مسائل مربوط به حریم خصوصی و امنیت سایبری می پردازد و به محققان امنیتی برای شناسایی و رسیدگی به آسیب پذیری های سیستم پاداش می دهد.
در میان نگرانیهای مربوط به حریم خصوصی و امنیت سایبری و ممنوعیتهای اخیر توسط کشورهای مختلف، شرکت هوش مصنوعی OpenAI برنامهای را برای رفع نگرانیهای آسیبپذیری منتشر کرده است.
OpenAI، شرکت سازنده ChatGPT، روز سهشنبه از راهاندازی برنامه پاداش باگ OpenAI برای شناسایی و رفع آسیبپذیریهای سیستم خبر داد. طبق این اعلامیه، این برنامه به محققان امنیتی که در ایمن نگه داشتن فناوری و سازمانی OpenAI کمک کردهاند، پاداش میدهد.
OpenAI از یک جامعه جهانی از محققان امنیتی، هکرهای اخلاقی و علاقه مندان به فناوری دعوت کرد تا مشوق هایی را برای تأیید اطلاعات آسیب پذیری خود ارائه دهند. شرکتهای هوش مصنوعی بر این باورند که تخصص و هوشیاری تأثیر مستقیمی بر حفظ سیستمها و تضمین امنیت کاربر دارد.
راهاندازی این برنامه پس از بیانیه هیروکازو ماتسونو، وزیر ارشد کابینه در روز دوشنبه، مبنی بر اینکه ژاپن در نظر دارد فناوری هوش مصنوعی را در سیستمهای دولتی قرار دهد، به شرط رفع نگرانیهای مربوط به حریم خصوصی و امنیت سایبری صورت میگیرد.
OpenAI در ۲۰ مارس دچار نقض داده شد، زمانی که یک اشکال در یک کتابخانه منبع باز اطلاعات کاربر را در معرض دید کاربر دیگری قرار داد.
در این اطلاعیه، OpenAI گفت که با Bugcrowd، یک پلتفرم پاداش باگ، برای مدیریت فرآیند ارسال و پاداش طراحی شده برای اطمینان از تجربه کارآمد برای همه شرکتکنندگان در مزرعه برنج، شریک شده است. جوایز بر اساس شدت و تأثیر موضوع گزارش شده اعطا می شود. غرامت از ۲۰۰ دلار برای یافته های با شدت کم تا ۲۰۰۰۰ دلار برای یافته های استثنایی متغیر است.
مربوط: BabyAGI و AutoGPT در برنامههای GPT-4 میتوانند اثرات مخربی روی رمزارز داشته باشند
حفاظت از بندر امن برای تحقیقات آسیبپذیری که طبق دستورالعملهای خاص فهرستشده توسط OpenAI انجام میشود، ارائه میشود. از محققان انتظار می رود که تمام قوانین قابل اجرا را رعایت کنند.
اگر شخص ثالثی علیه یک محقق امنیتی که در برنامه پاداش باگ OpenAI شرکت کرده است، اقدام قانونی کند و محقق قوانین برنامه را رعایت کند، OpenAI به طرف مقابل ثابت نخواهد کرد که محقق مطابق دستورالعمل های برنامه عمل کرده است. به شما اطلاع خواهد داد. این به این دلیل است که سیستمهای OpenAI با سایر سیستمها و سرویسهای شخص ثالث مرتبط هستند.
مجله: همه چیز برای ربات قضات قابل قبول است: هوش مصنوعی و بلاک چین می توانند دادگاه را تغییر دهند
نویسنده: Amaka Nwaokocha