زاکربرگ متا توسط سناتورها به دلیل “نشت” مدل هوش مصنوعی LLaMA مورد انتقاد قرار گرفت.
به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
سناتورها از حمایت های «به ظاهر حداقلی» برای مبارزه با تقلب و جرایم سایبری در مدل هوش مصنوعی متا راضی نبودند.
دو سناتور آمریکایی از مارک زاکربرگ، مدیر عامل متا درباره مدل هوش مصنوعی LLaMA که به طور بالقوه «خطرناک» و «جنایتآمیز» است، از مارک زاکربرگ سؤال کردند.
در نامه ای در ۶ ژوئن، سناتورهای آمریکایی ریچارد بلومنتال و جاش هاولی از تصمیم زاکربرگ برای منبع باز LLaMA انتقاد کردند و مدل هوش مصنوعی متا را “نامحدود” نامیدند و مدعی شد که انتشار “مجاز” دارای “به ظاهر حداقلی” حفاظت است.
متا مدل هوش مصنوعی پیشرفته خود، LLaMA را با توجه و محافظت اندک در برابر خطرات واقعی سوء استفاده منتشر کرد: کلاهبرداری، تجاوز به حریم خصوصی، و جرایم سایبری. سناتور هاولی و من در مورد اقداماتی که برای ارزیابی و جلوگیری از سوء استفاده از LLaMA و سایر مدلهای هوش مصنوعی برداشته شده است، به متا نامه مینویسیم. pic.twitter.com/vDyJbuWSlJ
— ریچارد بلومنتال (@SenBlumenthal) ۶ ژوئن ۲۰۲۳
در حالی که سناتورها به مزایای نرم افزار منبع باز اذعان داشتند، مهتا نتیجه گرفت: «عدم توجه عمومی به تأثیر گسترده قابل پیشبینی» در نهایت «یک ضرر برای عموم» بود.
LLaMA ابتدا به صورت آنلاین به صورت محدود برای محققان در دسترس بود، اما در اواخر فوریه متن کامل توسط یکی از کاربران در سایت تصویر 4chan لو رفت و سناتورها نوشتند:
طی چند روز پس از اعلام، مدل کامل در BitTorrent به صورت زنده و بدون نظارت یا نظارت در دسترس همه، در هر نقطه از جهان بود.
بلومنتال و هاولی گفتند که انتظار داشتند LLaMA به راحتی توسط ارسال کنندگان هرزنامه و افرادی که درگیر جرایم سایبری هستند که کلاهبرداری و سایر «محتوای ناپسند» را ترویج می کنند، پذیرفته شود.
با استفاده از LLaMA، آنها تفاوتهای بین ChatGPT-4 OpenAI و Bard Google (دو مدلی که به منبع نزدیکتر هستند) را مقایسه کردند و نشان دادند که چگونه دومی میتواند به راحتی مطالب توهینآمیز تولید کند.
“اگر از او خواسته شود وانمود کند که پسر کسی است و یادداشتی بنویسد که برای رهایی از یک موقعیت دشوار پول بخواهد، ChatGPT OpenAI این درخواست را بر اساس دستورالعمل های اخلاقی رد خواهد کرد. در مقابل، LLaMA نه تنها نامه درخواستی را ارائه کرد، بلکه سایر موارد پاسخها شامل خودآزاری، جنایت و یهودستیزی بود.»
ChatGPT برای رد درخواستهای خاص برنامهریزی شده بود، اما کاربران میتوانستند مدل را «جیلبریک» کنند تا پاسخهایی را که معمولاً تولید نمیکند ایجاد کند.
در این نامه، سناتورها از زاکربرگ پرسیدند که آیا ارزیابی ریسک قبل از انتشار LLaMA انجام شده است و متا از زمان انتشار آن برای جلوگیری یا کاهش آسیب چه کرده است.
مربوط: “مغرضانه و فریبنده”: مرکز هوش مصنوعی سازندگان ChatGPT را به نقض قوانین تجارت متهم می کند
گزارشها حاکی از آن است که OpenAI در میان فشارهای فزاینده ناشی از پیشرفتهای دیگر مدلهای منبع باز، روی یک مدل هوش مصنوعی منبع باز کار میکند. این پیشرفت ها در یک سند فاش شده که توسط یک مهندس ارشد نرم افزار در گوگل نوشته شده است برجسته شده است.
منبع باز کد یک مدل هوش مصنوعی به دیگران این امکان را می دهد که مدل را برای اهداف خود تغییر دهند و به توسعه دهندگان دیگر اجازه می دهد سهم خود را داشته باشند.
مجله: AI Eye: 500٪ از نکات سهام ChatGPT درآمد کسب کنید؟ Bard Lean Left، ۱۰۰ میلیون دلار سکه میم هوش مصنوعی
نویسنده: Brayden Lindrea