در اینجا برنامه OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده است:
به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
هدف OpenAI کاهش توهمات هوش مصنوعی در ChatGPT با افزایش مهارت های ریاضی است، زیرا می توان انتظار داشت نظارت بر فرآیند دقت را بهبود بخشد.
OpenAI در ۳۱ مه از تلاشی برای تقویت توانایی حل مسئله ریاضی ChatGPT با هدف کاهش موارد توهمات هوش مصنوعی (AI) خبر داد. OpenAI کاهش توهمات را به عنوان یک گام مهم در جهت توسعه AGI تنظیم شده برجسته کرده است.
در ماه مارس، آخرین نسخه ChatGPT، GPT-4، معرفی شد که هوش مصنوعی را بیش از پیش رایج کرد. با این حال، چت رباتهای مولد هوش مصنوعی مدتهاست که با دقت واقعی دست و پنجه نرم میکنند و گاهی اوقات اطلاعات نادرستی که معمولاً به آن «توهم» میگویند، تولید میکنند. تلاش برای کاهش این توهمات ناشی از هوش مصنوعی از طریق پستی در وب سایت اعلام شد.
توهمهای هوش مصنوعی مواردی هستند که در آن یک سیستم هوش مصنوعی خروجیهایی تولید میکند که واقعاً اشتباه، گمراهکننده یا توسط دادههای دنیای واقعی پشتیبانی نمیشوند. این توهمات می توانند اشکال مختلفی داشته باشند، مانند ایجاد اطلاعات نادرست، ساختن رویدادها یا افرادی که وجود ندارند، یا ارائه جزئیات نادرست در مورد یک موضوع خاص.
OpenAI مطالعه ای را انجام داد که اثربخشی دو نوع بازخورد را بررسی کرد: “نتایج نظارت” و “فرایندهای نظارت”. نظارت بر نتیجه شامل بازخورد بر اساس نتیجه نهایی است، در حالی که نظارت فرآیند ورودی برای هر مرحله در زنجیره فکری را فراهم می کند. OpenAI این مدلها را با استفاده از مسائل ریاضی ارزیابی کرد، راهحلهای متعدد تولید کرد و با توجه به هر مدل بازخورد، راهحلهای دارای بالاترین رتبه را انتخاب کرد.
پس از تجزیه و تحلیل کامل، تیم تحقیقاتی دریافتند که نظارت بر فرآیند عملکرد برتری را به همراه دارد زیرا مدلها را تشویق میکند که فرآیندهای مورد تایید انسان را دنبال کنند. در مقابل، ثابت شد که نظارت بر نتیجه برای بررسی مداوم دشوارتر است.
OpenAI تشخیص داد که تأثیر نظارت بر فرآیند فراتر از ریاضیات است و تحقیقات بیشتری برای درک تأثیر آن در حوزههای مختلف مورد نیاز است. این احتمال را افزایش داد که نظارت بر فرآیند می تواند ترکیب مطلوبی از عملکرد و سازگاری را در مقایسه با نظارت بر نتیجه ارائه دهد، اگر نتایج مشاهده شده در یک زمینه گسترده تر صادق باشد. برای تسهیل تحقیقات، این شرکت مجموعه داده کامل نظارت بر فرآیند را منتشر کرده است که کاوش و تحقیق در این زمینه را تشویق می کند.
مربوط: تقاضای هوش مصنوعی به طور موقت انویدیا را به کلوپ تریلیون دلاری می برد
اگرچه OpenAI مورد روشنی برای بررسی سریع توهمات ارائه نکرد، دو رویداد اخیر مشکل را در سناریوهای دنیای واقعی نشان دادند.
در یک پرونده اخیر، استفان آ. شوارتز، وکیل ماتا علیه آویانکا، اعتراف کرد که به رباتهای چت به عنوان یک منبع تحقیقاتی متکی است. با این حال، معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملاً ساختگی است و مشکل فوری را برجسته می کند.
ChatGPT OpenAI تنها نمونه ای از سیستم هوش مصنوعی نیست که با توهم مواجه می شود. هوش مصنوعی مایکروسافت گزارشهای درآمدی را بررسی کرد و اعداد نادرستی برای شرکتهایی مانند Gap و Lululemon زمانی که فناوری چت بات خود را در ماه مارس نشان داد، تولید کرد.
مجله: ۲۵۰۰۰ معاملهگر روی انتخاب سهام ChatGPT شرط میبندند، هوش مصنوعی در انداختن تاس بد است و موارد دیگر
نویسنده: Amaka Nwaokocha