OpenAI مدعی شده است که هکرهای ایرانی و چینی از ChatGPT برای انجام حملات سایبری استفاده کرده اند.
اطلاع رسانی کند باز کردناین گزارش توضیح می دهد که چت بات ChatGPT در بیش از 20 حمله سایبری استفاده شده است که شامل فعالیت هایی مانند نیزه فیشینگ، شناسایی، رفع اشکالات نرم افزاری و توسعه بدافزار پیچیده است.
سوء استفاده هکرهای ایرانی و چینی از فناوری هوش مصنوعی!
این گزارش به طور خاص به دو حمله ای اشاره می کند که از هوش مصنوعی گسترده و ChatGPT استفاده کردند. در یکی از این حملات سایبری، هکرهای چینی از تکنیک فیشینگ SweetSpecter استفاده کردند و سیسکو تالو را هدف قرار دادند. در این حمله یک فایل فشرده حاوی اطلاعات مخرب ارسال شد و پس از باز شدن فایل، مجموعه ای از بدافزارها بر روی سیستم کاربر فعال می شود.
طی این بررسی ها مشخص شد که هکرهای ایرانی و چینی از ChatGPT برای طراحی اسکریپت های مخرب و شناسایی نقاط ضعف سیستم های امنیتی استفاده کرده اند.
در حمله دیگری که بنا بر گزارش ها در ایران مستقر است، ChatGPT برای شناسایی آسیب پذیری های سیستم عامل macOS و سرقت رمز عبور کاربران استفاده شد. علاوه بر این، در حمله دیگری، گروه دیگری از هکرها با استفاده از این ربات چت، بدافزار اندرویدی را طراحی کردند که می توانست اطلاعات تماس را ردیابی کند، به تاریخچه مرورگر دسترسی پیدا کند و مکان دستگاه قربانی را شناسایی کند.
با این حال، این حملات نشان می دهد هوش مصنوعی ظرفیت بالایی برای طراحی و اجرای بدافزار دارد، اما هیچ مدرکی دال بر توانایی ایجاد بدافزار جدید و پیچیده وجود ندارد. با این حال، مایه نگرانی است و چالش های جدیدی را در زمینه امنیت سایبری ایجاد خواهد کرد. زیرا به نظر می رسد سوء استفاده از این فناوری برای ایجاد محتوای مخرب آسان باشد.
بر این اساس OpenAI اعلام کرده است که در تلاش است تا امنیت مدل های هوش مصنوعی خود را بهبود بخشد. او همچنین گفت که یافته های خود را با تیم های امنیتی و جامعه علمی به اشتراک خواهد گذاشت تا از وقوع چنین حوادثی جلوگیری شود.
بیشتر بخوانید:
ارسال نقد و بررسی