🚨 اخبار ارز دیجیتال

ایلان ماسک به Vitalik Buterin در توسعه اصلی هوش مصنوعی می پیوندد

مطالب

  • مقررات هوش مصنوعی مورد نیاز است
  • نگرانی های ویتالیک بوترین

ظهور هوش مصنوعی (AI) فوق العاده بوده است. از OpenAI ChatGPT به نظر می‌رسد که ما در عصر طلایی هوش مصنوعی زندگی می‌کنیم و شرکت‌های بزرگی مانند اپل در حال جهش هستند. با این حال، نباید فراموش کرد که “با قدرت بزرگ مسئولیت بزرگی به همراه دارد” که پیام انتقادی فیلم های مختلف مرد عنکبوتی است.

انتظار می رود ظهور هوش مصنوعی خطرات بالقوه قابل توجهی را برای مردم سراسر جهان به همراه داشته باشد. در نتیجه، رهبران صنعت مانند ایلان ماسک و ویتالیک بوترین در مورد مقررات هوش مصنوعی برای مقابله با این خطرات جهانی بسیار پر سر و صدا بوده اند. علاوه بر این، شرکت X.AIاو به پتانسیل این فناوری اعتقاد دارد و از مقررات صنعت حمایت می کند.

مقررات هوش مصنوعی مورد نیاز است

کالیفرنیا یک لایحه ایمنی هوش مصنوعی به نام SB 1047 را برای مقابله با خطرات و خطرات هوش مصنوعی معرفی کرده است. در صورت تصویب این لایحه، توسعه دهندگانی که بیش از ۱۰۰ میلیون دلار برای توسعه یک مدل هوش مصنوعی سرمایه گذاری کرده اند، طبق گزارش ها بیشتر پاسخگو خواهند بود. این توسعه دهندگان باید به طور مسئولانه اقدامات خاصی مانند تست امنیتی مدل های خود را دنبال کنند.

ایلان ماسک، مدیرعامل تسلا در واکنش به این پیشرفت گفت: او توییت کرد او گفت که لایحه SB 1047 باید توسط کالیفرنیا تصویب شود. ماسک بیش از ۲۰ سال است که از قوانین هوش مصنوعی دفاع می کند، اگرچه او می گوید افکار او ممکن است برخی افراد را آزار دهد. این میلیاردر فکر می کند که صنعت هوش مصنوعی باید مانند سایر صنایع مرتبط با فناوری تنظیم شود تا از خطرات احتمالی جلوگیری شود.

نگرانی های ویتالیک بوترین

ویتالیک بوترین، بنیانگذار اتریوم (ETH) در توضیح توییت ماسک گفت: صحبت کرد در مورد نیاز به این مقررات در زمینه هوش مصنوعی. با این حال وی در مورد کارآمدی این لوایح یا پیش نویس ها نیز ابراز نگرانی کرد. بوترین این سوال را مطرح کرد که آیا از لایحه SB 1047 برای دنبال کردن مدل‌های وزن صریح، مدل‌های از پیش آموزش‌دیده برای توسعه بیشتر استفاده می‌شود.

را اتریوم بنیانگذار از دسته «آسیب بحرانی» لایحه حمایت کرد. او گفت که قرائت خیریه این لایحه، SB 1047، بیان می کند که هدف اجرای یک روش تست امنیتی است. در نتیجه، اگر توسعه‌دهندگان یا شرکت‌ها «قابلیت‌ها/رفتارهای تهدیدکننده جهان» را در مدل‌های خود کشف کنند، اجازه راه‌اندازی آن‌ها را نخواهند داشت.


منبع: U.Today

دیدگاهتان را بنویسید

دکمه بازگشت به بالا