🚨 اخبار ارز دیجیتال

آکادمیک بر سر ادعاهای ChatGPT مبنی بر تعصب سیاسی گرایش چپ به انشعاب افتاد

دانشگاهیان بر سر مطالعاتی که ادعا می کنند ChatGPT سوگیری سیاسی را در حوزه های قضایی مختلف نشان می دهد اختلاف نظر دارند.

دانشگاهیان بر سر مقالات تحقیقاتی که نشان می دهد ChatGPT تعصب سیاسی “معنادار و قابل توجهی” در سمت چپ طیف سیاسی نشان می دهد، اختلاف نظر دارند.

همانطور که Cointelegraph قبلا گزارش داده بود، محققانی از بریتانیا و برزیل انتخاب عمومی این مجله گفت که مدل‌های زبانی در مقیاس بزرگ (LLM) مانند ChatGPT می‌توانند متن حاوی خطاها و سوگیری‌هایی را که می‌توانند خوانندگان را گمراه کنند و سوگیری سیاسی ارائه شده توسط رسانه‌های سنتی را تبلیغ کنند، خروجی دهند.

در مکاتبه قبلی با کوین تلگراف، ویکتور رانگل، یکی از نویسندگان مقاله، هدف مقاله را برای سنجش تعصب سیاسی ChatGPT روشن کرد. روش پژوهشگران شامل درخواست از ChatGPT برای جعل هویت شخصی در سمت خاصی از طیف سیاسی و مقایسه پاسخ‌ها با حالت پیش‌فرض است.

Rangel همچنین خاطرنشان کرد که چندین آزمایش استحکام برای رسیدگی به عوامل مخدوش کننده بالقوه و توضیحات جایگزین انجام شده است.

“ما دریافتیم که ChatGPT سوگیری سیاسی قابل توجه و سیستمی را علیه دموکرات ها در ایالات متحده، لولا در برزیل و حزب کارگر در بریتانیا نشان می دهد.”

با توجه به چالش‌ها و پیچیدگی‌های موجود در اندازه‌گیری و تفسیر سوگیری در LLM، شایان ذکر است که نویسندگان تأکید می‌کنند که این مقاله به‌عنوان «کلمه نهایی در مورد سوگیری سیاسی در ChatGPT» عمل نمی‌کند.

Rangel گفت که برخی از منتقدان می‌گویند که روش‌های آنها ممکن است ظرایف ایدئولوژی سیاسی را درک نکند، سؤالات روش ممکن است جانبدارانه یا پیشرو باشند، یا ChatGPT او گفت که او استدلال می‌کند که تصادفی بودن خروجی می‌تواند بر نتایج تأثیر بگذارد.

مرتبط: دانشمند می گوید ChatGPT و کلود برای ماموریت های دنیای واقعی آماده شده اند

او افزود که در حالی که LLM پتانسیل «افزایش ارتباطات انسانی» را دارد، «خطرات و چالش‌های مهمی» برای جامعه ایجاد می‌کند.

به نظر می رسد که این مقاله به وعده خود مبنی بر تحریک تحقیق و بحث در مورد این موضوع عمل کرده است، در حالی که محققان قبلاً در مورد روش شناسی و پارامترهای مختلف یافته های آن بحث کرده اند.

آرویند نارایانان، استاد علوم کامپیوتر در دانشگاه پرینستون، از جمله منتقدان پر سر و صدایی بود که نظرات خود را در مورد یافته‌ها در رسانه‌های اجتماعی بیان کرد و علم مفصل پشت گزارش، روش‌شناسی آن و یافته‌ها را توضیح داد. من نقدی را در Medium ارسال کردم.

نارایانان و دانشمندان دیگر به تعدادی از مشکلات درک شده در این آزمایش اشاره کردند. اولاً، محققان در واقع از خود ChatGPT برای انجام آزمایشات خود استفاده نکردند.

“آنها ChatGPT را آزمایش نکردند! آنها text-davinci-003 را آزمایش کردند، یک مدل قدیمی که توسط ChatGPT استفاده نمی شد، چه در تنظیمات GPT-3.5 یا GPT-4.”

نارایانان همچنین پیشنهاد می‌کند که این آزمایش تعصب را اندازه‌گیری نکرد، بلکه در عوض درخواست نقش‌آفرینی به عنوان اعضای یک حزب سیاسی را داشت. به این ترتیب، چت ربات‌های هوش مصنوعی زمانی که از آنها خواسته می‌شود به‌عنوان اعضایی در هر دو طرف طیف نقش‌آفرینی کنند، تمایلات سیاسی چپ یا راست نشان می‌دهند.

همچنین، ربات‌های چت فقط به سؤالات چند گزینه‌ای پاسخ می‌دادند، که ممکن است توانایی آنها را محدود کرده یا بر تعصب تأثیر بگذارد.

طبق صفحه Medium خود، کالین فریزر، دانشمند داده در Meta نیز بررسی این مقاله را ارائه کرد. ایکس، محققان سوالات چند گزینه ای را در نقش آفرینی مطرح کردند و ترتیبی را برجسته کردند که به طور قابل توجهی بر خروجی تولید شده توسط هوش مصنوعی تأثیر نمی گذارد.

این امر ترتیب درخواست‌ها را از ابتدا به دموکرات تغییر داد و نرخ توافق کلی برای شخصیت دموکرات در مورد همه سؤالات را از ۳۰ درصد به ۶۴ درصد و برای نمایندگان از ۷۰ درصد به ۲۲ درصد افزایش داد. کاهش به

همانطور که Rangel قبلاً بیان کرده است، علاقه زیادی به ماهیت LLM ها و خروجی آنها وجود دارد، اما چگونه ابزارها کار می کنند، چه سوگیری هایی در آنها وجود دارد، و چگونه کاربران هنوز سؤالاتی در مورد اینکه چگونه ممکن است بر نظرات تأثیر بگذارد وجود دارد. و اقدامات

Cointelegraph برای بینش بیشتر در مورد انتقادات او و بحث های جاری در مورد سوگیری در مدل های یادگیری زبان در مقیاس بزرگ با نارایانان تماس گرفته است، اما پاسخی دریافت نکرده است.

مجله: “مسئولیت اخلاقی”: آیا بلاک چین واقعاً می تواند اعتماد به هوش مصنوعی را افزایش دهد؟



نویسنده: Gareth Jenkinson

دیدگاهتان را بنویسید

دکمه بازگشت به بالا