🚨 اخبار ارز دیجیتال

در اینجا برنامه OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده است:


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

هدف OpenAI کاهش توهمات هوش مصنوعی در ChatGPT با افزایش مهارت های ریاضی است، زیرا می توان انتظار داشت نظارت بر فرآیند دقت را بهبود بخشد.

OpenAI در ۳۱ مه از تلاشی برای تقویت توانایی حل مسئله ریاضی ChatGPT با هدف کاهش موارد توهمات هوش مصنوعی (AI) خبر داد. OpenAI کاهش توهمات را به عنوان یک گام مهم در جهت توسعه AGI تنظیم شده برجسته کرده است.

در ماه مارس، آخرین نسخه ChatGPT، GPT-4، معرفی شد که هوش مصنوعی را بیش از پیش رایج کرد. با این حال، چت ربات‌های مولد هوش مصنوعی مدت‌هاست که با دقت واقعی دست و پنجه نرم می‌کنند و گاهی اوقات اطلاعات نادرستی که معمولاً به آن «توهم» می‌گویند، تولید می‌کنند. تلاش برای کاهش این توهمات ناشی از هوش مصنوعی از طریق پستی در وب سایت اعلام شد.

توهم‌های هوش مصنوعی مواردی هستند که در آن یک سیستم هوش مصنوعی خروجی‌هایی تولید می‌کند که واقعاً اشتباه، گمراه‌کننده یا توسط داده‌های دنیای واقعی پشتیبانی نمی‌شوند. این توهمات می توانند اشکال مختلفی داشته باشند، مانند ایجاد اطلاعات نادرست، ساختن رویدادها یا افرادی که وجود ندارند، یا ارائه جزئیات نادرست در مورد یک موضوع خاص.

OpenAI مطالعه ای را انجام داد که اثربخشی دو نوع بازخورد را بررسی کرد: “نتایج نظارت” و “فرایندهای نظارت”. نظارت بر نتیجه شامل بازخورد بر اساس نتیجه نهایی است، در حالی که نظارت فرآیند ورودی برای هر مرحله در زنجیره فکری را فراهم می کند. OpenAI این مدل‌ها را با استفاده از مسائل ریاضی ارزیابی کرد، راه‌حل‌های متعدد تولید کرد و با توجه به هر مدل بازخورد، راه‌حل‌های دارای بالاترین رتبه را انتخاب کرد.

پس از تجزیه و تحلیل کامل، تیم تحقیقاتی دریافتند که نظارت بر فرآیند عملکرد برتری را به همراه دارد زیرا مدل‌ها را تشویق می‌کند که فرآیندهای مورد تایید انسان را دنبال کنند. در مقابل، ثابت شد که نظارت بر نتیجه برای بررسی مداوم دشوارتر است.

OpenAI تشخیص داد که تأثیر نظارت بر فرآیند فراتر از ریاضیات است و تحقیقات بیشتری برای درک تأثیر آن در حوزه‌های مختلف مورد نیاز است. این احتمال را افزایش داد که نظارت بر فرآیند می تواند ترکیب مطلوبی از عملکرد و سازگاری را در مقایسه با نظارت بر نتیجه ارائه دهد، اگر نتایج مشاهده شده در یک زمینه گسترده تر صادق باشد. برای تسهیل تحقیقات، این شرکت مجموعه داده کامل نظارت بر فرآیند را منتشر کرده است که کاوش و تحقیق در این زمینه را تشویق می کند.

مربوط: تقاضای هوش مصنوعی به طور موقت انویدیا را به کلوپ تریلیون دلاری می برد

اگرچه OpenAI مورد روشنی برای بررسی سریع توهمات ارائه نکرد، دو رویداد اخیر مشکل را در سناریوهای دنیای واقعی نشان دادند.

در یک پرونده اخیر، استفان آ. شوارتز، وکیل ماتا علیه آویانکا، اعتراف کرد که به ربات‌های چت به عنوان یک منبع تحقیقاتی متکی است. با این حال، معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملاً ساختگی است و مشکل فوری را برجسته می کند.

ChatGPT OpenAI تنها نمونه ای از سیستم هوش مصنوعی نیست که با توهم مواجه می شود. هوش مصنوعی مایکروسافت گزارش‌های درآمدی را بررسی کرد و اعداد نادرستی برای شرکت‌هایی مانند Gap و Lululemon زمانی که فناوری چت بات خود را در ماه مارس نشان داد، تولید کرد.

مجله: ۲۵۰۰۰ معامله‌گر روی انتخاب سهام ChatGPT شرط می‌بندند، هوش مصنوعی در انداختن تاس بد است و موارد دیگر

نویسنده: Amaka Nwaokocha

دیدگاهتان را بنویسید

دکمه بازگشت به بالا