کارشناسان هوش مصنوعی سندی را امضا کردند که خطرات «انقراض هوش مصنوعی»، همهگیری، جنگ هستهای را مقایسه میکند.

به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
«پدرخوانده هوش مصنوعی» و مدیران اجرایی OpenAI، Google DeepMind و Anthropic از جمله صدها امضاکننده هستند.
ده ها کارشناس هوش مصنوعی (AI) از جمله مدیران عامل OpenAI، Google DeepMind و Anthropic اخیراً بیانیه عمومی صادر شده توسط مرکز ایمنی هوش مصنوعی (CAIS) را امضا کردند.
بیانیه زیر را صادر کردیم:
کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای باشد.
امضاکنندگان عبارتند از: Hinton، Bengio، Altman، Hassabis، Song و دیگران. https://t.co/N9f6hs4bpa
(۱/۶)
— دن هندریکس (@DanHendrycks) ۳۰ مه ۲۰۲۳
بیانیه حاوی یک بیانیه است:
کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای باشد.
در میان امضاکنندگان این سند، «افراد» با حسن نیت از سرشناسان هوش مصنوعی، از جمله «پدرخوانده» هوش مصنوعی، جفری هینتون، هستند. استوارت راسل از دانشگاه کالیفرنیا، برکلی. رکس فریدمن از موسسه فناوری ماساچوست. نوازنده گریمز نیز یکی از امضاکنندگان است و در رده “افراد برجسته دیگر” فهرست شده است.
مربوط: موزیسین گریمز قصد دارد «۵۰ درصد حق نسخهبرداری» را برای موسیقی تولید شده توسط هوش مصنوعی کاهش دهد.
در حالی که این بیانیه ممکن است در ظاهر بی ضرر به نظر برسد، پیام اصلی در جامعه هوش مصنوعی تا حدودی بحث برانگیز است.
به نظر می رسد تعداد فزاینده ای از کارشناسان بر این باورند که فناوری فعلی ممکن است به شکل اجتناب ناپذیری منجر به ظهور یا توسعه سیستم های هوش مصنوعی شود که می تواند بقای بشریت را تهدید کند.
با این حال، نظرات آنها توسط هیئتی از کارشناسان با نظرات کاملاً مخالف رد شده است. برای مثال، یان لیکان، دانشمند ارشد هوش مصنوعی متا، بارها گفته است که لزوماً معتقد نیست که هوش مصنوعی از کنترل خارج شود.
هوش مصنوعی مافوق بشر در صدر فهرست خطرات بقا قرار ندارد.
عمدتاً به این دلیل که هنوز وجود ندارد.تا زمانی که یک طراحی اساسی برای هوش مصنوعی حتی در سطح سگ نداشته باشیم، چه رسد به سطح انسان، هنوز خیلی زود است که درباره نحوه ایمن سازی آن صحبت کنیم. https://t.co/ClkZxfofV9
– یانگ لوکون (@ylecun) ۳۰ مه ۲۰۲۳
برای او و کسانی مانند اندرو نگ، یکی از بنیانگذاران Google Brain و دانشمند ارشد سابق بایدو که با شعار “انقراض” مخالف هستند، هوش مصنوعی مشکل نیست، بلکه پاسخ است.
از سوی دیگر، کارشناسانی مانند هینتون و کانر لیهی، مدیرعامل Conjecture معتقدند که ورود هوش مصنوعی در سطح انسانی اجتنابناپذیر است و اکنون زمان اقدام فرا رسیده است.
روسای تمام آزمایشگاههای بزرگ هوش مصنوعی این نامه را امضا کردهاند که به صراحت خطر انقراض ناشی از AGI را تایید کردهاند.
پیشرفت باور نکردنی آفرین به دن برای کار فوق العاده اش در جمع آوری این. و از همه امضاکنندگان تشکر می کنم که سهم خود را برای آینده ای بهتر انجام دادند. https://t.co/KDkqWvdJcH
— کانر لیهی (@NPCollapse) ۳۰ مه ۲۰۲۳
با این حال، مشخص نیست که امضاکنندگان به دنبال چه اقدامی هستند. مدیران عامل و روسای هوش مصنوعی تقریباً هر شرکت بزرگ هوش مصنوعی و همچنین دانشمندان برجسته دانشگاهی از جمله امضاکنندگان هستند و قصد متوقف کردن توسعه این سیستمهای بالقوه خطرناک نیست. واضح است.
در اوایل ماه جاری، سام آلتمن، مدیر عامل OpenAI، یکی از امضاکنندگان بیانیه فوق، برای اولین بار در جلسه سنا برای بحث در مورد مقررات هوش مصنوعی در مقابل کنگره ظاهر شد. شهادت او به تیتر خبرها تبدیل شد زیرا بیشتر آن را صرف تشویق قانونگذاران برای تنظیم این صنعت کرد.
Altman’s Worldcoin، پروژهای که رمزارز و تأیید هویت را ترکیب میکند، اخیراً با سرمایهگذاری ۱۱۵ میلیون دلاری سری C سرفصل خبرها شده است و مجموع بودجه خود را پس از سه دور به ۲۴۰ میلیون دلار رسانده است.
نویسنده: Tristan Greene