🚨 اخبار ارز دیجیتال

تیم کوک می‌گوید اپل هوش مصنوعی را در محصولات خود می‌بیند زیرا محققان با تعصب مقابله می‌کنند


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

مدیر عامل اپل گفت که این شرکت به “بافندگی” هوش مصنوعی در محصولات خود ادامه می دهد زیرا تحقیقات داخلی نشان می دهد که این شرکت بر روی ساخت سیستم های هوش مصنوعی بی طرفانه متمرکز شده است.

در طول بخش پرسش و پاسخ یک تماس اخیر درآمدی، تیم کوک، مدیر عامل شرکت، وقتی در مورد افکارش در مورد هوش مصنوعی مولد (AI) و اینکه «فکر می‌کنی کجا می‌رود؟» به دیوار اپل قاب شده بود، او یک نگاه نادر از باغ به من داد. با وجود اینکه محافظت می شد.

کوک از افشای برنامه های اپل خودداری کرد و به صراحت گفت: “من در مورد نقشه راه محصول اظهار نظر نمی کنم.” با این حال، او اشاره کرد که این شرکت در این زمینه علاقه مند است.

“من فکر می کنم بسیار مهم است که در مورد نحوه برخورد با این موارد بسیار مهم است. مسائل زیادی وجود دارد که باید حل شوند، اما احتمالات قطعا بسیار جالب هستند.”

مدیر عامل شرکت بعداً اضافه کرد که این شرکت “هوش مصنوعی را به عنوان یک چیز بزرگ” می بیند و “به ساخت آن در محصولات خود بر مبنای بسیار متفکرانه ادامه خواهد داد.”

نظرات کوک در مورد اتخاذ یک رویکرد “دقت آمیز و متفکرانه” می تواند توضیح دهد که چرا این شرکت در فضای هوش مصنوعی مولد وجود ندارد. با این حال، نشانه هایی وجود دارد که اپل در حال انجام تحقیقات خود در مورد مدل های مرتبط است.

یک مقاله تحقیقاتی، که قرار است در ژوئن امسال در کنفرانس طراحی تعامل و کودکان ارائه شود، به جزئیات یک سیستم جدید برای مبارزه با سوگیری در توسعه مجموعه داده‌های یادگیری ماشین می‌پردازد.

سوگیری – تمایل مدل‌های هوش مصنوعی به پیش‌بینی‌های ناعادلانه یا نادرست بر اساس داده‌های نادرست یا ناقص- اغلب به عنوان یکی از مبرم‌ترین نگرانی‌ها برای توسعه ایمن و اخلاقی مدل‌های هوش مصنوعی مولد ذکر می‌شود.

این مقاله که اکنون به صورت پیش‌چاپ در دسترس است، به جزئیات سیستمی می‌پردازد که در آن چندین کاربر در توسعه مجموعه داده‌های سیستم‌های هوش مصنوعی با ورودی معادل مشارکت می‌کنند.

توسعه AI مولد فعلی معمولاً بازخورد انسانی را تا مراحل بعدی که مدل قبلاً تعصبات آموزشی پیدا کرده است اضافه نمی کند.

تحقیقات جدید اپل بازخوردهای انسانی را در مراحل اولیه توسعه مدل یکپارچه می کند تا اساساً فرآیند انتخاب داده ها را دموکراتیک کند. به گفته محققان، نتیجه سیستمی است که از “رویکرد مشارکتی و عملی برای به کارگیری استراتژی هایی برای ایجاد مجموعه داده های متعادل” استفاده می کند.

مربوط: مشکل جعبه سیاه هوش مصنوعی: چالش ها و راه حل ها برای آینده ای شفاف

لازم به ذکر است که این مطالعه تحقیقاتی به عنوان یک الگوی آموزشی برای ترویج علاقه مبتدیان به توسعه یادگیری ماشین طراحی شده است.

گسترش تکنیک‌های توصیف‌شده در این مقاله برای استفاده در آموزش مدل‌های زبانی در مقیاس بزرگ (LLM) مانند ChatGPT و Google Bard ممکن است دشوار باشد. اما این مطالعه به رویکرد متفاوتی برای مبارزه با تعصب اشاره می کند.

در نهایت، ایجاد LLM بدون تعصبات ناخواسته ممکن است یک لحظه پیشرفت در سفر به سمت توسعه سیستم‌های هوش مصنوعی در سطح انسانی باشد.

چنین سیستمی می تواند تمام جنبه های بخش فناوری، به ویژه دنیای فین تک، تجارت ارزهای دیجیتال و بلاک چین را مختل کند. به عنوان مثال، ربات‌های معاملاتی بی‌طرفانه سهام و ارزهای دیجیتال که قادر به استدلال در سطح انسانی هستند، می‌توانند با دموکراتیک کردن دانش تجارت سطح بالا، بازارهای مالی جهانی را مختل کنند.

علاوه بر این، نشان دادن LLM بی‌طرفانه می‌تواند راه درازی را به سوی تامین امنیت و نگرانی‌های اخلاقی دولت برای صنعت مولد هوش مصنوعی انجام دهد.

این امر به ویژه برای اپل قابل توجه است. زیرا هر محصول مولد هوش مصنوعی که اپل برای توسعه یا پشتیبانی انتخاب کند، از چیپست هوش مصنوعی یکپارچه آیفون و ردپای ۱.۵ میلیارد کاربر آن سود خواهد برد.



نویسنده: Tristan Greene

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا