بدافزرهای وحشتناکی که با ChatGPT ساخته می شوند

  • فریبا شاه نوری فریبا شاه نوری
  • ۱۲ بهمن ۱۴۰۱
  • زمان مطالعه : 2.8 دقیقه

خبرآنلاین نوشت؛  ظاهراً برخی مجرمان سایبری موفق شده‌اند از هوش مصنوعی ChatGPT برای ساخت نوع جدیدی از بدافزارها سوءاستفاده کنند.

هرروز خبرهای جدیدی درباره‌ی توانایی‌های چت‌بات هوش مصنوعی ChatGPT منتشر می‌شوند. این ابزار قطعاً می‌تواند به انواع سؤالات علمی، فلسفی و... جواب دهد یا در کدنویسی و حتی بررسی آلزایمر به شما کمک کند. باوجوداین، مثل هر فناوری مبتنی‌بر هوش مصنوعی دیگری، درمعرض خطر سوءاستفاده نیز قرار دارد.

محققان Check Point Software متوجه شدند ChatGPT می‌تواند برای ایجاد ایمیل‌های فیشینگ به‌کار گرفته شود. از این چت‌بات در ترکیب با Codex به‌منظور توسعه و تزریق کدهای مخرب نیز می‌توان استفاده کرد. گفتی است OpenAI ابزار Codex را برای تبدیل متن به کدهای مفهوم کامپیوتری طراحی کرده است.

محققان موفق شده‌اند با این دو فناوری زنجیره‌ای کاملاً آلوده به بدافزار ایجاد کند که از یک ایمیل فیشینگ آغاز می‌شود و با سند اکسل حاوی کدهای مخرب VBA ادامه پیدا می‌کند. کل کدهای بدافزار را می‌توان در یک فایل اجرایی کامپایل و آن را روی سیستم‌های هدف اجرا کند. ChatGPT بیشتر ایمیل‌های فیشینگ و جعل هویت بهتر و قانع‌کننده‌تری از نمونه‌های واقعی موجود تولید می‌کند.

سرگئی شیکویچ از شرکت Check Point Software می‌گوید:ChatGPT به افراد بیشتری اجازه می‌دهد کدنویسی کنند؛ اما خطر بزرگ این است که احتمالاً تعداد زیادی از آن‌ها به توسعه‌دهندگان بدافزار تبدیل شوند.

به‌هرحال، وقتی از ChatGPT صحبت می‌شود، تکرارشدن امری مهم محسوب می‌شود. شیکویچ می‌گوید خروجی این چت‌بات ابتدا به‌صورت کد نبود. او روش استفاده از هوش مصنوعی مذکور را با سرویس مترجم متن گوگل مقایسه می‌کند؛ جایی‌ که اکثر خروجی‌ها همان چیزی است که به‌دنبال آن هستید. به‌هرحال، مثل گوگل ترنسلیت با اصلاح‌کردن خروجی‌های ChatGPT می‌توان این ابزار را به تولید کد نهایی مجبور کرد.

لوری فیث‌کرانور، مدیر و استاد برجسته‌ی Bosch در مؤسسه‌ی امنیت و حریم‌ خصوصی CyLab و استاد سیستم‌های FORE در واحد علوم کامپیوتر و مهندسی سیاست عمومی در دانشگاه کارنگی ملون، دیدگاه‌هایش شبیه محققان Check Point Software است. او می‌گوید از ChatGPT برای تولید کد استفاده نکرده؛ اما نمونه‌هایی را دیده است که دیگران ایجاد کرده‌اند. کدی که این هوش مصنوعی تولید می‌کند، خیلی پیچیده نیست؛ اما برخی از آن‌ها کدهای اجرایی هستند.

ابزارهای هوش مصنوعی دیگری نیز برای تولید کد وجود دارد و عملکرد همه‌ی آن‌ها هرروز بهتر می‌شود. درحال‌حاضر، ChatGPT احتمالاً ازنظر تولید متن‌های مفهوم برای انسان‌ها عملکرد بهتری دارد و برای ساخت مواردی مثل ایمیل‌های جعلی واقع‌گرایانه مناسب‌تر است. به‌گزارش Ieee، محققان هکرهایی را شناسایی کرده‌اند که از ChatGPT برای توسعه‌ی ابزارهای مخرب مانند کدهای سرقت اطلاعات استفاده کرده‌اند.

کرنور می‌گوید: فکر می‌کنم امروزه استفاده‌ی موفقیت‌آمیر از ابزارهای هوش مصنوعی به دانش فنی نیاز دارد؛ اما انتظار می‌رود با گذشت زمان، گرفتن خروجی از این ابزارها و انجام حمله‌های سایبری آسان‌تر شود.- کرنور

بدین‌ترتیب، انتظار می‌رود به‌مرورزمان بدافزارهای توسعه‌یافته با هوش مصنوعی درمقایسه‌با نمونه‌های ساخته‌شده‌ی برنامه‌نویسان انسانی بهبود پیدا کند و در آینده‌ای نزدیک، این ابزارها خواهند توانست حمله‌های پیچیده‌ای را در انواع مختلف و با سرعت بسیار زیاد ایجاد کنند.

پیچیدگی‌های بیشتر می‌تواند ناشی از نبود راهکارهایی باشد که به‌منظور تشخیص ایجاد کد مخرب در ChatGPT اِعمال شده‌اند. شیکویچ می‌گوید: هیچ راه مناسبی برای مشخص‌کردن این‌ موضوع وجود ندارد که نرم‌افزاری خاص یا بدافزار یا حتی ایمیل فیشینگ با ChatGPT نوشته شده است یا نه؛ زیرا خروجی این چت‌بات امضای خاصی ندارد.- شیکویچ

OpenAI به‌نوبه‌ی خود در حال‌ کار روی روشی است تا خروجی‌های مدل‌های GPT را با واترمارک متمایز کند. شیکویچ خاطرنشان می‌کند پس‌ از انتشار یافته‌های Check Point Software، محققان دریافتند امکان ایجاد ایمیل‌های فیشینگ با ChatGPT دیگر وجود ندارد.

فریبا شاه نوری
فریبا شاه نوری

دیدگاه شما چیست؟

دیدگاه ها