آنتروپیک یک ربات چت هوش مصنوعی دموکراتیک ساخت و به کاربران اجازه داد تا به ارزش های خود رای دهند
پاسخ های ارزشی از ۱۰۰۰ آزمودنی برای کالیبره کردن یک مدل زبانی در مقیاس بزرگ دموکراتیک تر استفاده شد.
شاید در اولین مطالعه در نوع خود، شرکت هوش مصنوعی (AI) Anthropic یک مدل زبان در مقیاس بزرگ (LLM) ایجاد کرده است که برای قضاوتهای ارزشی توسط جامعه کاربران تنظیم شده است.
دموکراتیک تر شدن توسعه هوش مصنوعی به چه معناست؟ برای این که بدانیم، با شرکت های زیر همکاری کردیم. @collect_intel استفاده کنید @usepolis یک قانون اساسی هوش مصنوعی بر اساس ورودی های تقریباً ۱۰۰۰ آمریکایی ایجاد کنید. سپس با استفاده از Constitutional AI مدلی را در برابر آن آموزش دادیم. pic.twitter.com/ZKaXw5K9sU
– Anthropic (@AnthropicAI) ۱۷ اکتبر ۲۰۲۳
بسیاری از LLM های در دسترس عموم با نرده های محافظ (دستورالعمل های رمزگذاری شده ای که رفتار خاصی را هدایت می کنند) توسعه یافته اند تا خروجی های ناخواسته را محدود کنند. به عنوان مثال، کلود Anthropic و ChatGPT OpenAI معمولاً پاسخهای مطمئن و مطمئنی را به درخواستهای خروجی مرتبط با موضوعات خشونتآمیز یا بحثبرانگیز ارائه میکنند.
اما همانطور که کارشناسان بیشماری اشاره کردهاند، نردههای محافظ و سایر تکنیکهای نفوذی میتوانند عاملیت کاربر را از بین ببرند. آنچه قابل قبول تلقی می شود همیشه مفید نیست و آنچه مفید تلقی می شود همیشه قابل قبول نیست. علاوه بر این، تعریف قضاوت های اخلاقی و ارزشی ممکن است در فرهنگ ها، جمعیت ها و دوره های زمانی متفاوت باشد.
مربوط: بریتانیا در نشستی که برای نوامبر برنامه ریزی شده است، تهدیدات بالقوه هوش مصنوعی را هدف قرار می دهد
یکی از راه حل های ممکن برای این امر این است که به کاربر اجازه داده شود تا مقادیر مدل هوش مصنوعی را تنظیم کند. آزمایش “هوش مصنوعی مشروطه جمعی” آنتروپیک این “چالش خاردار” را انجام می دهد.
آنتروپیک با همکاری پولیس و پروژه هوش جمعی، ۱۰۰۰ کاربر را از جمعیتهای مختلف جمعآوری کرد و از آنها خواست تا از طریق یک نظرسنجی به یک سری سؤالات پاسخ دهند.
این چالش بر کمک به سازمانهای دولتی تمرکز دارد تا بدون قرار دادن کاربران در معرض خروجی نامناسب، تعیین کنند چه چیزی مناسب است. این شامل درخواست ارزش های کاربر و پیاده سازی آن ایده ها در یک مدل از قبل آموزش دیده است.
Anthropic در حال کار برای تنظیم ایمنی و سودمندی LLM با استفاده از تکنیکی به نام “هوش مصنوعی اساسی” است. اساساً، این شامل ارائه فهرستی از قوانین برای پیروی به مدل و درخواست از آن برای اجرای آن قوانین در طول فرآیند است، دقیقاً مانند قوانین اساسی به عنوان سند اصلی حکومت برای بسیاری از کشورها. شامل آموزش مدل میشود.
آنتروپیک در آزمایش هوش مصنوعی قانون اساسی خود به دنبال ادغام بازخورد گروهی در اساسنامه مدل بود. طبق پست وبلاگ آنتروپیک، نتایج یک موفقیت علمی است زیرا چالشهای بیشتری را برای دستیابی به هدف توانمندسازی کاربران محصولات LLM برای تعیین ارزشهای جمعی خود نشان میدهد. به نظر میرسد که شما آن را جمعآوری کردهاید.
یکی از چالش هایی که تیم باید بر آن غلبه می کرد، ارائه روش های جدید برای فرآیند محک زدن بود. به نظر میرسد این آزمایش اولین آزمایش در نوع خود باشد، و از آنجایی که بر روششناسی هوش مصنوعی آنتروپیک متکی است، هیچ آزمون ثابتی برای مقایسه مدل پایه با مدل تنظیمشده با مقادیر جمعسپاری وجود ندارد.
در پایان، به نظر میرسد مدلی که دادههای بازخورد نظرسنجی کاربران را پیادهسازی کرده است، «کمی» از مدل پایه در حوزه خروجیهای مغرضانه بهتر عمل کرده است.
طبق پست وبلاگ:
“بیشتر از مدل به دست آمده، ما در مورد این فرآیند هیجانزدهتر هستیم. این یکی از اولین بارهایی است که مردم عادی بطور جمعی عمداً رفتار یک مدل زبانی را در مقیاس انجام میدهند. ما معتقدیم که پتانسیل وجود دارد. امیدواریم که جوامع در اطراف جهان میتواند بر اساس فناوریهایی مانند این برای آموزش مدلهای فرهنگی و زمینهای خاص برای برآورده کردن نیازهای خود بسازد.”
نویسنده: Tristan Greene
منابع:
Cointelegraph | CoinDesk | U.Today