CertiK: قراردادهای هوشمند رمزگذاری شده با هوش مصنوعی ناقص هستند و در صورت حمله می توانند به شدت شکست بخورند.

کانگ لی، رئیس امنیت CertiK معتقد است برنامه نویسان بی تجربه که از ابزارهای هوش مصنوعی مانند ChatGPT برای ایجاد قراردادهای هوشمند استفاده می کنند، دستور العملی برای فاجعه است.
مدیران شرکت امنیتی بلاک چین CertiK میگویند استفاده از ابزارهای هوش مصنوعی مانند ChatGPT OpenAI برای ایجاد قراردادهای هوشمند و ساخت پروژههای ارزهای دیجیتال، مشکلات، باگها و حملات بیشتری را به همراه خواهد داشت.
رئیس امنیت CertiK، کانگ لی، در ۵ سپتامبر در هفته بلاک چین کره به کوین تلگراف توضیح داد که ChatGPT نمی تواند اشکالات را در کد منطقی به همان روشی که توسعه دهندگان با تجربه انجام می دهند، شناسایی کند.
لی گفت که ChatGPT میتواند بیش از آنچه شناسایی میکند، باگ ایجاد کند، که میتواند برای برنامهنویسهایی که برای اولینبار و برنامهنویسان آماتوری که به دنبال ساخت پروژههای خود هستند، کشنده باشد.
“ChatGPT به بسیاری از افرادی که هرگز این همه آموزش را ندیده اند اجازه می دهد تا به سرعت شروع کنند. من شروع به نگرانی در مورد مسائل طراحی مورفولوژیکی مدفون در آنجا کردم.”
او اضافه کرد: «اگر چیزی بنویسید، ChatGPT به ساخت آن کمک میکند، اما به دلیل تمام این نقصهای طراحی، زمانی که مهاجمان شروع به ورود کنند، میتواند بهشدت شکست بخورد.» تا.
در عوض، لی معتقد است که ChatGPT باید به عنوان دستیار مهندس استفاده شود زیرا بهتر است توضیح دهد که یک خط کد واقعاً به چه معناست.
“به نظر من ChatGPT ابزار بسیار مفیدی برای افرادی است که تجزیه و تحلیل کد و مهندسی معکوس انجام می دهند. این قطعا یک دستیار عالی است و کارایی ما را تا حد زیادی بهبود می بخشد.”

او تاکید کرد که برنامه نویسان بی تجربه، به ویژه آنهایی که به دنبال ساخت چیزی سودآور هستند، نباید هنگام نوشتن کد به آن تکیه کنند.
لی اذعان کرد که پیشرفت های سریع در هوش مصنوعی می تواند قابلیت های ChatGPT را تا حد زیادی بهبود بخشد و گفت که حداقل تا دو تا سه سال آینده روی ادعاهای خود خواهد ایستاد.
AI Tech بهره برداری های مهندسی اجتماعی را بهبود می بخشد
در همین حال، ریچارد ما، یکی از بنیانگذاران و مدیر عامل شرکت امنیتی Web3 Quantstamp، در ۴ سپتامبر در KBW به کوین تلگراف گفت که ابزارهای هوش مصنوعی در حملات مهندسی اجتماعی موفق تر هستند. بسیاری از آنها مشابه حملات انسانی هستند.
ما گفت که مشتریان Quantstamp تعداد هشداردهندهای از تلاشهای پیچیدهتر مهندسی اجتماعی را گزارش میکنند.
“[With] این روزها به نظر می رسد که مردم از یادگیری ماشینی برای نوشتن ایمیل و پیام استفاده می کنند. بسیار متقاعد کننده تر از تلاش های مهندسی اجتماعی چند سال پیش. ”
در حالی که کاربران عادی اینترنت برای سالها گرفتار ایمیلهای هرزنامه تولید شده توسط هوش مصنوعی بودهاند، Ma میگوید تشخیص اینکه پیامهای مخرب توسط هوش مصنوعی یا انسان تولید شدهاند، دشوار است.
مربوط: هک توییتر: «حمله مهندسی اجتماعی» علیه پنل مدیریت کارکنان
گفتن اینکه چه کسی به شما پیام میدهد سختتر و سختتر میشود. [or] داشتن یک هوش مصنوعی برای شما پیامی ارسال می کند یا برای شما پیام شخصی می نویسد بسیار قانع کننده است.”
کارشناسان صنعت ارزهای دیجیتال قبلاً هدف قرار گرفتهاند و دیگران توسط رباتهای هوش مصنوعی جعل هویت شدهاند. مادر معتقد است که اوضاع بدتر خواهد شد.
کریپتوکارنسی دارای پایگاههای اطلاعاتی بسیاری با تمام اطلاعات تماس افراد کلیدی در هر پروژه است. بنابراین هکرها میتوانند به آن دسترسی داشته باشند. [and] آنها اساساً هوش مصنوعی دارند که می تواند سعی کند به روش های مختلف به مردم پیام دهد. ”
Ma اضافه کرد: «تعلیم دادن به یک شرکت برای عدم واکنش به چنین چیزهایی بسیار سخت است.
Ma گفت نرم افزار ضد فیشینگ بهتری در بازار وجود دارد که به شرکت ها کمک می کند تا حملات احتمالی را کاهش دهند.
مجله: AI Eye: اپل هوش مصنوعی جیبی میسازد، تجارت موسیقی Deepfake، GPT-4 را هیپنوتیزم میکند
نویسنده: Brayden Lindrea