در رقابت مدل های جدید ، هوش مصنوعی جدید ایلان مسک امنیت را برای سرعت سریعتر فراموش کرده است.
محققان هوش مصنوعی منفی ، که در زمینه امنیت اطلاعات مصنوعی فعالیت می کنند ، اعلام کرده اند که مدل جدید GROK 3مردی که توسط Xai Ilan Musk ساخته شده است یک فاجعه امنیتی احتمالی است.
هوش مصنوعی جدید ایلان مسک حتی ضعیف تر از مدلهای هوش مصنوعی چینی است
طبق تحقیقات وی ، هوش مصنوعی جدید ایلان مسک در برابر حملات امنیتی ساده (فرار از زندان) بسیار آسیب پذیر است. سپرده ها می توانند از این نقص ها سوء استفاده کنند تا اطلاعات خطرناک مانند روشهای غیرقانونی ، انفجاری و سایر اقدامات جنایی را نشان دهند.
اما مشکل نه تنها در اینجا به پایان می رسد.
الکس پولیاکوف ، مدیرعامل AI AI ، در مصاحبه ای گفت که تیم وی همچنین نقص امنیتی جدیدی را کشف کرد. این آسیب پذیری می تواند دستورالعمل های داخلی کل مدل را نشان دهد.
Jailbreak به مهاجمان اجازه می دهد تا از محدودیت های محتوای مدل جلوگیری کنند ، اما نشت دستورالعمل های داخلی به آنها نقشه فکری مدل را می دهد ، که این امر احتمال سوء استفاده بعدی را به شدت افزایش می دهد.
اگرچه Grok 3 در تست های عملکرد اولیه به نتایج خوبی رسید ، اما در امنیت سایبری شکست خورد.
AI نامطلوب چهار نوع حملات امنیتی مختلف را بر روی بهترین مدل ها امتحان کرد:
- مدل های Operai و Anthropic در برابر همه این حملات مقاومت کردند.
- اما Grok 3 در برابر سه مورد از این چهار حمله شکست خورد.
پولیاکوف همچنان می گفت
امنیت گروه 3 در سطح مدل های چینی است ، نه استانداردهای امنیتی غربی.
بزرگترین خطر زمانی است که از مدل های هوش مصنوعی با تصمیم گیری خودکار استفاده می شود. به عنوان مثال ، فرض کنید که یک نماینده هوش مصنوعی خودکار به ایمیل های الکترونیکی برای شما پاسخ خواهد داد. اگر مهاجم پیام آلوده ای را ارسال کند که شامل سفارش بدون استفاده از محدودیت ها باشد ، این مدل بدون هیچ گونه مقاومت این دستور را اجرا می کند.
اینها خطرات تئوری نیستند ، اما آینده حملات سایبری هوش سایبری را شکل می دهند.
با توجه به این تهدیدها ، شرکت های فناوری برای ایجاد هوش مصنوعی امن تر رقابت می کنند. OpenAi اخیراً ویژگی جدیدی به نام عملگر وی ارائه داده است که می تواند اینترنت را جستجو کرده و کارهای مختلفی انجام دهد.
با این حال ، علاوه بر احتمال دزدی دریایی ، این ویژگی گاهی اوقات اشتباهات جدی دارد و نیاز به نظارت مداوم دارد.
پولیاکوف در پایان هشدار داد:
هنگامی که هوش زبانی شروع به تصمیم گیری در دنیای واقعی می کند ، هرگونه آسیب پذیری کوچک به یک بحران امنیتی تبدیل می شود.
ارسال نقد و بررسی