تیم کوک میگوید اپل هوش مصنوعی را در محصولات خود میبیند زیرا محققان با تعصب مقابله میکنند

به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
مدیر عامل اپل گفت که این شرکت به “بافندگی” هوش مصنوعی در محصولات خود ادامه می دهد زیرا تحقیقات داخلی نشان می دهد که این شرکت بر روی ساخت سیستم های هوش مصنوعی بی طرفانه متمرکز شده است.
در طول بخش پرسش و پاسخ یک تماس اخیر درآمدی، تیم کوک، مدیر عامل شرکت، وقتی در مورد افکارش در مورد هوش مصنوعی مولد (AI) و اینکه «فکر میکنی کجا میرود؟» به دیوار اپل قاب شده بود، او یک نگاه نادر از باغ به من داد. با وجود اینکه محافظت می شد.
کوک از افشای برنامه های اپل خودداری کرد و به صراحت گفت: “من در مورد نقشه راه محصول اظهار نظر نمی کنم.” با این حال، او اشاره کرد که این شرکت در این زمینه علاقه مند است.
“من فکر می کنم بسیار مهم است که در مورد نحوه برخورد با این موارد بسیار مهم است. مسائل زیادی وجود دارد که باید حل شوند، اما احتمالات قطعا بسیار جالب هستند.”
مدیر عامل شرکت بعداً اضافه کرد که این شرکت “هوش مصنوعی را به عنوان یک چیز بزرگ” می بیند و “به ساخت آن در محصولات خود بر مبنای بسیار متفکرانه ادامه خواهد داد.”
نظرات کوک در مورد اتخاذ یک رویکرد “دقت آمیز و متفکرانه” می تواند توضیح دهد که چرا این شرکت در فضای هوش مصنوعی مولد وجود ندارد. با این حال، نشانه هایی وجود دارد که اپل در حال انجام تحقیقات خود در مورد مدل های مرتبط است.
یک مقاله تحقیقاتی، که قرار است در ژوئن امسال در کنفرانس طراحی تعامل و کودکان ارائه شود، به جزئیات یک سیستم جدید برای مبارزه با سوگیری در توسعه مجموعه دادههای یادگیری ماشین میپردازد.
سوگیری – تمایل مدلهای هوش مصنوعی به پیشبینیهای ناعادلانه یا نادرست بر اساس دادههای نادرست یا ناقص- اغلب به عنوان یکی از مبرمترین نگرانیها برای توسعه ایمن و اخلاقی مدلهای هوش مصنوعی مولد ذکر میشود.
من خوشحالم که OpenAI تعصب را کنترل می کند. pic.twitter.com/y4a7FUochR
– بروکلین نش (@realBrookNash) ۲۷ آوریل ۲۰۲۳
این مقاله که اکنون به صورت پیشچاپ در دسترس است، به جزئیات سیستمی میپردازد که در آن چندین کاربر در توسعه مجموعه دادههای سیستمهای هوش مصنوعی با ورودی معادل مشارکت میکنند.
توسعه AI مولد فعلی معمولاً بازخورد انسانی را تا مراحل بعدی که مدل قبلاً تعصبات آموزشی پیدا کرده است اضافه نمی کند.
تحقیقات جدید اپل بازخوردهای انسانی را در مراحل اولیه توسعه مدل یکپارچه می کند تا اساساً فرآیند انتخاب داده ها را دموکراتیک کند. به گفته محققان، نتیجه سیستمی است که از “رویکرد مشارکتی و عملی برای به کارگیری استراتژی هایی برای ایجاد مجموعه داده های متعادل” استفاده می کند.
مربوط: مشکل جعبه سیاه هوش مصنوعی: چالش ها و راه حل ها برای آینده ای شفاف
لازم به ذکر است که این مطالعه تحقیقاتی به عنوان یک الگوی آموزشی برای ترویج علاقه مبتدیان به توسعه یادگیری ماشین طراحی شده است.
گسترش تکنیکهای توصیفشده در این مقاله برای استفاده در آموزش مدلهای زبانی در مقیاس بزرگ (LLM) مانند ChatGPT و Google Bard ممکن است دشوار باشد. اما این مطالعه به رویکرد متفاوتی برای مبارزه با تعصب اشاره می کند.
در نهایت، ایجاد LLM بدون تعصبات ناخواسته ممکن است یک لحظه پیشرفت در سفر به سمت توسعه سیستمهای هوش مصنوعی در سطح انسانی باشد.
چنین سیستمی می تواند تمام جنبه های بخش فناوری، به ویژه دنیای فین تک، تجارت ارزهای دیجیتال و بلاک چین را مختل کند. به عنوان مثال، رباتهای معاملاتی بیطرفانه سهام و ارزهای دیجیتال که قادر به استدلال در سطح انسانی هستند، میتوانند با دموکراتیک کردن دانش تجارت سطح بالا، بازارهای مالی جهانی را مختل کنند.
علاوه بر این، نشان دادن LLM بیطرفانه میتواند راه درازی را به سوی تامین امنیت و نگرانیهای اخلاقی دولت برای صنعت مولد هوش مصنوعی انجام دهد.
این امر به ویژه برای اپل قابل توجه است. زیرا هر محصول مولد هوش مصنوعی که اپل برای توسعه یا پشتیبانی انتخاب کند، از چیپست هوش مصنوعی یکپارچه آیفون و ردپای ۱.۵ میلیارد کاربر آن سود خواهد برد.
نویسنده: Tristan Greene