Etherscan از کدخوان با هوش مصنوعی رونمایی کرد
به گزارش پایگاه خبری ارز دیجیتال موبو ارز،
این ابزار به کاربران اجازه می دهد تا کد منبع یک آدرس قرارداد خاص را از طریق اعلان های هوش مصنوعی بازیابی و تفسیر کنند.
در ۱۹ ژوئن، کاوشگر بلاک اتریوم و پلتفرم تحلیلی EtherScan ابزار جدیدی به نام «Code Reader» را راهاندازی کرد که از هوش مصنوعی برای بازیابی و تفسیر کد منبع یک آدرس قرارداد استفاده میکند. پس از درخواست کاربر، کدخوان پاسخی را از طریق مدل زبان بزرگ OpenAI (LLM) ایجاد میکند و بینش فایلهای کد منبع قرارداد را ارائه میدهد. توسعه دهندگان Etherscan می نویسند:
“استفاده از این ابزار نیاز به یک کلید OpenAI API معتبر و محدودیت های استفاده OpenAI کافی دارد. این ابزار کلیدهای API را ذخیره نمی کند.”
موارد استفاده از Code Reader شامل دستیابی به بینش عمیقتر در مورد کد قرارداد از طریق توضیحات ایجاد شده توسط هوش مصنوعی، بازیابی فهرستی جامع از ویژگیهای قرارداد هوشمند مربوط به دادههای اتریوم، قراردادهای اساسی توزیع شده است که شامل درک نحوه تعامل آنها با برنامههای کاربردی نوع (dApps) است. توسعهدهنده گفت: «وقتی فایل قرارداد را داریم، میتوانیم یک فایل کد منبع خاص را برای خواندن انتخاب کنیم، و حتی کد منبع را مستقیماً در UI قبل از اشتراکگذاری با هوش مصنوعی تغییر دهیم.» من در حال نوشتن هستم.
در میان رونق هوش مصنوعی، برخی از کارشناسان در مورد امکان سنجی مدل های فعلی هوش مصنوعی هشدار می دهند. طبق گزارشی که اخیراً توسط شرکت سرمایه گذاری خطرپذیر سنگاپوری Foresight Ventures منتشر شده است، “منابع قدرت محاسباتی میدان نبرد بزرگ بعدی در دهه آینده خواهد بود.” با وجود افزایش تقاضا برای آموزش مدلهای هوش مصنوعی در مقیاس بزرگ در شبکههای قدرت محاسباتی توزیعشده غیرمتمرکز، محققان بر این باورند که نمونههای اولیه کنونی عبارتند از همگامسازی دادههای پیچیده، بهینهسازی شبکه، دادهها، به گفته آنها با محدودیتهای قابل توجهی از جمله نگرانیهای حفظ حریم خصوصی و امنیتی مواجه است.
به عنوان مثال، محققان Foresight خاطرنشان کردند که آموزش یک مدل بزرگ با ۱۷۵ میلیارد پارامتر در نمایش نقطه شناور تک دقیق به حدود ۷۰۰ گیگابایت نیاز دارد. با این حال، آموزش توزیع شده نیاز به ارسال و به روز رسانی این پارامترها به طور مکرر بین گره های محاسباتی دارد. اگر ۱۰۰ گره محاسباتی دارید و هر گره باید تمام پارامترها را در هر مرحله واحد به روز کند، مدل شما نیاز به ارسال ۷۰ ترابایت داده در ثانیه دارد که ظرفیت اکثر شبکه ها است. بسیار بیشتر از محققان به طور خلاصه بیان کردند:
در اکثر سناریوها، مدلهای کوچک هوش مصنوعی همچنان گزینه مناسبتری هستند و گرایش FOMO به سمت مدلهای بزرگ را نباید خیلی زود نادیده گرفت.»
نویسنده: Zhiyuan Sun