اخبار ارز دیجیتال

Etherscan از کدخوان با هوش مصنوعی رونمایی کرد


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

این ابزار به کاربران اجازه می دهد تا کد منبع یک آدرس قرارداد خاص را از طریق اعلان های هوش مصنوعی بازیابی و تفسیر کنند.

در ۱۹ ژوئن، کاوشگر بلاک اتریوم و پلتفرم تحلیلی EtherScan ابزار جدیدی به نام «Code Reader» را راه‌اندازی کرد که از هوش مصنوعی برای بازیابی و تفسیر کد منبع یک آدرس قرارداد استفاده می‌کند. پس از درخواست کاربر، کدخوان پاسخی را از طریق مدل زبان بزرگ OpenAI (LLM) ایجاد می‌کند و بینش فایل‌های کد منبع قرارداد را ارائه می‌دهد. توسعه دهندگان Etherscan می نویسند:

“استفاده از این ابزار نیاز به یک کلید OpenAI API معتبر و محدودیت های استفاده OpenAI کافی دارد. این ابزار کلیدهای API را ذخیره نمی کند.”

موارد استفاده از Code Reader شامل دستیابی به بینش عمیق‌تر در مورد کد قرارداد از طریق توضیحات ایجاد شده توسط هوش مصنوعی، بازیابی فهرستی جامع از ویژگی‌های قرارداد هوشمند مربوط به داده‌های اتریوم، قراردادهای اساسی توزیع شده است که شامل درک نحوه تعامل آنها با برنامه‌های کاربردی نوع (dApps) است. توسعه‌دهنده گفت: «وقتی فایل قرارداد را داریم، می‌توانیم یک فایل کد منبع خاص را برای خواندن انتخاب کنیم، و حتی کد منبع را مستقیماً در UI قبل از اشتراک‌گذاری با هوش مصنوعی تغییر دهیم.» من در حال نوشتن هستم.

نمایش ابزار کدخوان.منبع: Etherscan

در میان رونق هوش مصنوعی، برخی از کارشناسان در مورد امکان سنجی مدل های فعلی هوش مصنوعی هشدار می دهند. طبق گزارشی که اخیراً توسط شرکت سرمایه گذاری خطرپذیر سنگاپوری Foresight Ventures منتشر شده است، “منابع قدرت محاسباتی میدان نبرد بزرگ بعدی در دهه آینده خواهد بود.” با وجود افزایش تقاضا برای آموزش مدل‌های هوش مصنوعی در مقیاس بزرگ در شبکه‌های قدرت محاسباتی توزیع‌شده غیرمتمرکز، محققان بر این باورند که نمونه‌های اولیه کنونی عبارتند از همگام‌سازی داده‌های پیچیده، بهینه‌سازی شبکه، داده‌ها، به گفته آن‌ها با محدودیت‌های قابل توجهی از جمله نگرانی‌های حفظ حریم خصوصی و امنیتی مواجه است.

به عنوان مثال، محققان Foresight خاطرنشان کردند که آموزش یک مدل بزرگ با ۱۷۵ میلیارد پارامتر در نمایش نقطه شناور تک دقیق به حدود ۷۰۰ گیگابایت نیاز دارد. با این حال، آموزش توزیع شده نیاز به ارسال و به روز رسانی این پارامترها به طور مکرر بین گره های محاسباتی دارد. اگر ۱۰۰ گره محاسباتی دارید و هر گره باید تمام پارامترها را در هر مرحله واحد به روز کند، مدل شما نیاز به ارسال ۷۰ ترابایت داده در ثانیه دارد که ظرفیت اکثر شبکه ها است. بسیار بیشتر از محققان به طور خلاصه بیان کردند:

در اکثر سناریوها، مدل‌های کوچک هوش مصنوعی همچنان گزینه مناسب‌تری هستند و گرایش FOMO به سمت مدل‌های بزرگ را نباید خیلی زود نادیده گرفت.»

نویسنده: Zhiyuan Sun

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا