اخبار ارز دیجیتال

آنتروپیک یک ربات چت هوش مصنوعی دموکراتیک ساخت و به کاربران اجازه داد تا به ارزش های خود رای دهند

پاسخ های ارزشی از ۱۰۰۰ آزمودنی برای کالیبره کردن یک مدل زبانی در مقیاس بزرگ دموکراتیک تر استفاده شد.

شاید در اولین مطالعه در نوع خود، شرکت هوش مصنوعی (AI) Anthropic یک مدل زبان در مقیاس بزرگ (LLM) ایجاد کرده است که برای قضاوت‌های ارزشی توسط جامعه کاربران تنظیم شده است.

بسیاری از LLM های در دسترس عموم با نرده های محافظ (دستورالعمل های رمزگذاری شده ای که رفتار خاصی را هدایت می کنند) توسعه یافته اند تا خروجی های ناخواسته را محدود کنند. به عنوان مثال، کلود Anthropic و ChatGPT OpenAI معمولاً پاسخ‌های مطمئن و مطمئنی را به درخواست‌های خروجی مرتبط با موضوعات خشونت‌آمیز یا بحث‌برانگیز ارائه می‌کنند.

اما همانطور که کارشناسان بی‌شماری اشاره کرده‌اند، نرده‌های محافظ و سایر تکنیک‌های نفوذی می‌توانند عاملیت کاربر را از بین ببرند. آنچه قابل قبول تلقی می شود همیشه مفید نیست و آنچه مفید تلقی می شود همیشه قابل قبول نیست. علاوه بر این، تعریف قضاوت های اخلاقی و ارزشی ممکن است در فرهنگ ها، جمعیت ها و دوره های زمانی متفاوت باشد.

مربوط: بریتانیا در نشستی که برای نوامبر برنامه ریزی شده است، تهدیدات بالقوه هوش مصنوعی را هدف قرار می دهد

یکی از راه حل های ممکن برای این امر این است که به کاربر اجازه داده شود تا مقادیر مدل هوش مصنوعی را تنظیم کند. آزمایش “هوش مصنوعی مشروطه جمعی” آنتروپیک این “چالش خاردار” را انجام می دهد.

آنتروپیک با همکاری پولیس و پروژه هوش جمعی، ۱۰۰۰ کاربر را از جمعیت‌های مختلف جمع‌آوری کرد و از آنها خواست تا از طریق یک نظرسنجی به یک سری سؤالات پاسخ دهند.

منبع، انسان شناسی

این چالش بر کمک به سازمان‌های دولتی تمرکز دارد تا بدون قرار دادن کاربران در معرض خروجی نامناسب، تعیین کنند چه چیزی مناسب است. این شامل درخواست ارزش های کاربر و پیاده سازی آن ایده ها در یک مدل از قبل آموزش دیده است.

Anthropic در حال کار برای تنظیم ایمنی و سودمندی LLM با استفاده از تکنیکی به نام “هوش مصنوعی اساسی” است. اساساً، این شامل ارائه فهرستی از قوانین برای پیروی به مدل و درخواست از آن برای اجرای آن قوانین در طول فرآیند است، دقیقاً مانند قوانین اساسی به عنوان سند اصلی حکومت برای بسیاری از کشورها. شامل آموزش مدل می‌شود.

آنتروپیک در آزمایش هوش مصنوعی قانون اساسی خود به دنبال ادغام بازخورد گروهی در اساسنامه مدل بود. طبق پست وبلاگ آنتروپیک، نتایج یک موفقیت علمی است زیرا چالش‌های بیشتری را برای دستیابی به هدف توانمندسازی کاربران محصولات LLM برای تعیین ارزش‌های جمعی خود نشان می‌دهد. به نظر می‌رسد که شما آن را جمع‌آوری کرده‌اید.

یکی از چالش هایی که تیم باید بر آن غلبه می کرد، ارائه روش های جدید برای فرآیند محک زدن بود. به نظر می‌رسد این آزمایش اولین آزمایش در نوع خود باشد، و از آنجایی که بر روش‌شناسی هوش مصنوعی آنتروپیک متکی است، هیچ آزمون ثابتی برای مقایسه مدل پایه با مدل تنظیم‌شده با مقادیر جمع‌سپاری وجود ندارد.

در پایان، به نظر می‌رسد مدلی که داده‌های بازخورد نظرسنجی کاربران را پیاده‌سازی کرده است، «کمی» از مدل پایه در حوزه خروجی‌های مغرضانه بهتر عمل کرده است.

طبق پست وبلاگ:

“بیشتر از مدل به دست آمده، ما در مورد این فرآیند هیجان‌زده‌تر هستیم. این یکی از اولین بارهایی است که مردم عادی بطور جمعی عمداً رفتار یک مدل زبانی را در مقیاس انجام می‌دهند. ما معتقدیم که پتانسیل وجود دارد. امیدواریم که جوامع در اطراف جهان می‌تواند بر اساس فناوری‌هایی مانند این برای آموزش مدل‌های فرهنگی و زمینه‌ای خاص برای برآورده کردن نیازهای خود بسازد.”


نویسنده: Tristan Greene
منابع:
Cointelegraph | CoinDesk | U.Today

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا