اخبار ارز دیجیتال

آزمایش‌ها نشان داده‌اند که هوش مصنوعی می‌تواند در حسابرسی قراردادهای هوشمند مفید باشد، اما هنوز نه.


به گزارش پایگاه خبری ارز دیجیتال موبو ارز،

هوش مصنوعی در شناسایی آسیب‌پذیری‌های امنیتی مؤثر بوده است، اما آزمایش‌های اولیه نشان می‌دهد که تا مدتی جایگزین انسان نخواهد شد.

هوش مصنوعی (AI) در حال حاضر صنایع بی‌شماری را تغییر می‌دهد، از مراقبت‌های بهداشتی و خودرو به بازاریابی و مالی، اما پتانسیل آن در یکی از مهم‌ترین حوزه‌های صنعت بلاک چین نهفته است: امنیت قراردادهای هوشمند. اکنون در حال آزمایش است.

آزمایش‌های متعدد پتانسیل زیادی برای ممیزی‌های بلاک چین مبتنی بر هوش مصنوعی نشان داده‌اند، اما این فناوری نوپا دارای ویژگی‌های کلیدی ذاتی متخصصان انسانی است: شهود، قضاوت دقیق و آگاهی از موضوع. تخصص هنوز وجود ندارد.

سازمان خود من، OpenZeppelin، اخیراً مجموعه‌ای از آزمایش‌ها را انجام داده است که ارزش هوش مصنوعی را در تشخیص آسیب‌پذیری برجسته می‌کند. این کار با استفاده از آخرین مدل OpenAI GPT-4 برای شناسایی مسائل امنیتی در قراردادهای هوشمند Solidity انجام شد. کد مورد آزمایش از بازی وب هک قرارداد هوشمند Ethernaut است و برای کمک به حسابرسان طراحی شده است که چگونه به دنبال سوء استفاده بگردند. در طول آزمایش، GPT-4 با موفقیت ۲۰ آسیب پذیری از ۲۸ چالش را شناسایی کرد.

مربوط: قوی بمانید Reddit: API های بسته بیش از آنچه فکر می کنید هزینه دارند

در برخی موارد، فقط ارائه کد و پرسیدن اینکه آیا قرارداد دارای آسیب‌پذیری است، مانند مشکل نام‌گذاری تابع سازنده زیر، می‌تواند نتایج دقیقی به همراه داشته باشد.

ChatGPT قراردادهای هوشمند را تجزیه و تحلیل می کند. منبع: OpenZeppelin

در موارد دیگر، نتایج مختلط یا حتی کاملاً بد بود. در برخی موارد، ممکن است لازم باشد یک سوال کمی برجسته بپرسید، مانند «آیا می‌توانید آدرس کتابخانه را در قرارداد قبلی خود تغییر دهید؟» تا هوش مصنوعی را وادار به پاسخ صحیح کند. بدترین حالت، GPT-4 حتی زمانی که چیزهایی به وضوح نوشته شده باشند مانند “اگر تابع را از داخل سازنده فراخوانی کنم، می توانم از گیت های ۱ و ۲ عبور کنم، اما چگونه می توانم از آن عبور کنم؟”، هیچ آسیب پذیری یافت نمی شود. آیا می‌خواهید اکنون وارد قرارداد هوشمند GatekeeperTwo شوید؟» در یک نقطه، هوش مصنوعی حتی آسیب‌پذیری را اختراع کرد که در واقع وجود نداشت.

این امر محدودیت های فعلی این فناوری را برجسته می کند. با این حال، GPT-4 نشان دهنده پیشرفت قابل توجهی نسبت به سلف خود، GPT-3.5، مدل زبان بزرگ (LLM) است که در اولین نسخه ChatGPT OpenAI استفاده شد. در دسامبر ۲۰۲۲، آزمایش‌های ChatGPT نشان داد که این مدل می‌تواند تنها ۵ سطح از ۲۶ سطح را با موفقیت حل کند. هر دو GPT-4 و GPT-3.5 بر روی داده ها تا سپتامبر ۲۰۲۱ با استفاده از یادگیری تقویتی از بازخورد انسانی آموزش دیدند. این تکنیکی است که شامل یک حلقه بازخورد انسانی برای تقویت مدل زبان در طول آموزش است.

کوین بیس نیز آزمایش مشابهی را انجام داد و نتایج مقایسه ای به دست آورد. در این آزمایش، ما از ChatGPT برای تأیید امنیت توکن استفاده کردیم. هوش مصنوعی قادر بود بازبینی دستی را برای اکثر قراردادهای هوشمند منعکس کند، اما در ارائه نتایج به دیگران مشکل داشت. Coinbase همچنین چندین نمونه از ChatGPT را ذکر کرده است که دارایی های پرخطر را به عنوان دارایی های کم خطر برچسب گذاری می کند.

مربوط: ساده لوح نباشید – ETF بلک راک نسبت به بیت کوین صعودی نیست

توجه به این نکته مهم است که ChatGPT و GPT-4 LLM هایی هستند که برای پردازش زبان طبیعی، مکالمه شبیه انسان و تولید متن توسعه یافته اند، نه برای تشخیص آسیب پذیری. با نمونه‌های کافی از آسیب‌پذیری‌های قرارداد هوشمند، LLMها می‌توانند دانش و الگوهای لازم را برای شناسایی آسیب‌پذیری‌ها کسب کنند.

با این حال، اگر می‌خواهید یک راه‌حل شناسایی آسیب‌پذیری هدفمندتر و قابل اعتمادتر داشته باشید، مدل‌های یادگیری ماشینی که فقط بر روی مجموعه داده‌های آسیب‌پذیری با کیفیت بالا آموزش داده شده‌اند، به احتمال زیاد نتایج بهتری تولید می‌کنند. داده‌های آموزشی و مدل‌های سفارشی‌سازی شده برای اهداف خاص منجر به بهبود سریع‌تر و نتایج دقیق‌تر می‌شوند.

به عنوان مثال، تیم هوش مصنوعی OpenZeppelin اخیراً یک مدل یادگیری ماشین سفارشی برای شناسایی حملات ورود مجدد ساخته است، شکل رایجی از بهره برداری که زمانی رخ می دهد که قراردادهای هوشمند با سایر قراردادها تماس خارجی برقرار می کنند. نتایج ارزیابی اولیه عملکرد برتر را در مقایسه با ابزارهای امنیتی پیشرو در صنعت با نرخ مثبت کاذب کمتر از ۱% نشان می‌دهد.

ایجاد تعادل بین هوش مصنوعی و تخصص انسانی

آزمایش‌ها تاکنون نشان داده‌اند که در حالی که مدل‌های هوش مصنوعی فعلی ابزارهای مفیدی برای شناسایی آسیب‌پذیری‌های امنیتی هستند، بعید است که جایگزین قضاوت دقیق و تخصص موضوعی کارشناسان امنیت انسانی شوند. من این را می‌دانم. GPT-4 اساساً بر اساس داده های عمومی تا سال ۲۰۲۱ است، بنابراین ما نمی توانیم آسیب پذیری های پیچیده یا منحصر به فرد را فراتر از داده های آموزشی خود شناسایی کنیم. با توجه به تکامل سریع بلاک چین، مهم است که توسعه دهندگان در مورد آخرین پیشرفت‌ها و آسیب‌پذیری‌های بالقوه در صنعت یاد بگیرند.

با نگاهی به آینده، آینده امنیت قراردادهای هوشمند مستلزم همکاری بین تخصص انسانی و بهبود مداوم ابزارهای هوش مصنوعی است. مؤثرترین دفاع ها در برابر مجرمان سایبری مسلح به هوش مصنوعی از هوش مصنوعی برای شناسایی رایج ترین و شناخته شده ترین آسیب پذیری ها استفاده می کنند، در حالی که متخصصان انسانی با آخرین پیشرفت ها همگام هستند و بر این اساس برای به روز رسانی راه حل هوش مصنوعی سازگار می شوند. فراتر از حوزه امنیت سایبری، ترکیب تلاش‌های هوش مصنوعی و بلاک چین راه‌حل‌های آینده‌نگر و پیشرفت‌کننده‌تری را به همراه خواهد داشت.

هوش مصنوعی به تنهایی نمی تواند جایگزین انسان شود. با این حال، حسابرسان انسانی که یاد گرفته اند از ابزارهای هوش مصنوعی استفاده کنند بسیار مؤثرتر از حسابرسانی هستند که چشم خود را بر روی این فناوری نوظهور می بندند.

ماریکو واکابایاشی رهبر یادگیری ماشین در OpenZeppelin. او مسئول ابتکارات کاربردی AI/ML و داده در OpenZeppelin و Forta Network است. Mariko APIهای عمومی شبکه فورتا را ایجاد کرد و پروژه های به اشتراک گذاری داده و منبع باز را رهبری کرد. سیستم هوش مصنوعی او در فورتا بیش از ۳۰۰ میلیون دلار در زمان واقعی هک بلاک چین را قبل از وقوع شناسایی کرده است.

این مقاله برای اهداف اطلاعاتی عمومی است و در نظر گرفته نشده است، و همچنین نباید به عنوان مشاوره حقوقی یا سرمایه گذاری تلقی شود. دیدگاه‌ها، افکار و نظرات بیان شده در اینجا به تنهایی متعلق به نویسنده است و لزوماً منعکس‌کننده یا بیانگر دیدگاه‌ها یا نظرات Cointelegraph نیست.

نویسنده: Mariko Wakabayashi

به این مطلب چه امتیازی می‌دهید؟

میانگین امتیارها ۰ / ۵. مجموع آرا: ۰

دیدگاهتان را بنویسید

دکمه بازگشت به بالا