هر روز اخبار جدیدی در مورد قابلیت های چت ربات هوش مصنوعی ChatGPT منتشر می شود. این ابزار قطعا می تواند پاسخگوی انواع سوالات علمی، فلسفی و … باشد یا در زمینه کدنویسی و حتی تحقیقات آلزایمر به شما کمک کند. با این حال، مانند هر فناوری دیگری که مبتنی بر هوش مصنوعی است، در برابر سوء استفاده نیز آسیب پذیر است.
محققان Check Point Software دریافتند که ChatGPT می تواند برای ایجاد ایمیل های فیشینگ استفاده شود. این چت بات همچنین می تواند در ترکیب با Codex برای توسعه و تزریق کدهای مخرب استفاده شود. شما گفتید که OpenAI ابزار Codex را برای تبدیل متن به کدهای مفهومی کامپیوتری طراحی کرده است.
با این دو فناوری، محققان موفق به ایجاد یک زنجیره کامل آلوده به بدافزار شدهاند که با یک ایمیل فیشینگ شروع میشود و با یک سند اکسل حاوی کد VBA مخرب ادامه مییابد. کل کد بدافزار را می توان در یک فایل اجرایی کامپایل کرد و در سیستم های هدف اجرا کرد. ChatGPT بیشتر ایمیلهای فیشینگ و جعل هویت را تولید میکند که بهتر و قانعکنندهتر از نمونههای واقعی هستند.
سرگئی شیکویچ Check Point Software می گوید:
با این حال، وقتی صحبت از ChatGPT می شود، تکرار مهم است. شیکویچ می گوید خروجی این چت بات ابتدا کدگذاری نشده بود. او روش استفاده از هوش مصنوعی فوق را با سرویس مترجم متن گوگل مقایسه می کند. جایی که بیشتر خروجی همان چیزی است که شما به دنبال آن هستید. با این حال، مانند Google Translate، میتوانید این ابزار را مجبور کنید تا کد نهایی را با تغییر خروجیهای ChatGPT تولید کند.
لوری فیث کرانور، مدیر و استاد برجسته بوش در موسسه CyLab برای امنیت و حریم خصوصی و استاد سیستم های FORE در واحد مهندسی علوم کامپیوتر و سیاست عمومی در دانشگاه کارنگی ملون، نظرات خود را با محققان نرم افزار Check Point به اشتراک می گذارد. او می گوید که از ChatGPT برای تولید کد استفاده نکرده است. اما نمونه هایی را دیده که دیگران خلق کرده اند. کدی که این هوش مصنوعی تولید می کند چندان پیچیده نیست. اما برخی از آنها کدهای اجرایی هستند.
ابزارهای هوش مصنوعی دیگری برای تولید کد وجود دارد و همه آنها هر روز بهتر می شوند. در حال حاضر، ChatGPT احتمالاً از نظر تولید متن معنی دار برای انسان بهتر عمل می کند و برای ساختن چیزهایی مانند ایمیل های جعلی واقع گرایانه مناسب تر است. به گفته IEEE، محققان هکرهایی را شناسایی کرده اند که از ChatGPT برای توسعه ابزارهای مخرب مانند کدهای سرقت اطلاعات استفاده کرده اند.
کرنور می گوید:
بنابراین انتظار می رود با گذشت زمان، بدافزارهای توسعه یافته با هوش مصنوعی در مقایسه با نمونه های ایجاد شده توسط برنامه نویسان انسانی بهبود یابد و در آینده نزدیک، این ابزارها قادر به ایجاد حملات پیچیده در انواع مختلف و با سرعت بسیار بالا خواهند بود.
پیچیدگی های بیشتری می تواند ناشی از فقدان راه حل هایی باشد که به منظور شناسایی ایجاد کدهای مخرب در ChatGPT اعمال شده اند. شیکویچ می گوید:
OpenAI به نوبه خود در حال کار بر روی راهی برای علامت گذاری خروجی های مدل های GPT است. شیکویچ این نشان میدهد که پس از انتشار یافتههای Check Point Software، محققان دریافتند که دیگر امکان ایجاد ایمیلهای فیشینگ با ChatGPT وجود ندارد.