Depseek به شما در ساخت بمب و هک کردن پایگاه داده های دولت کمک می کند

Depseek به شما در ساخت بمب و هک کردن پایگاه داده های دولت کمک می کند

محققان امنیتی نشان داده اند که Depseek از نظر امنیت موفقیت آمیز نیست و نتوانسته است حتی ابتدایی ترین استانداردهای حفاظت را رعایت کند. این سیستم در برابر ساده ترین راه ها برای جلوگیری از محدودیت های هوش مصنوعی شکست خورد.

این بدان معنی است که شما می توانید به راحتی فریب دهید تا به سؤالاتی که باید مسدود شود پاسخ دهید. از دستورالعمل های ساخت و ساز پمپ گرفته تا الگوهای تا هک پایگاه داده های دولت.

راهنمای خرید تمپاتو

چگونه Depseak محدودیت های هوش مصنوعی را از بین می برد؟

سیستم هوش مصنوعی این تولید مجموعه ای از محدودیت هایی دارد که از فعالیت های مضر جلوگیری می کند. این محدودیت ها شامل جلوگیری از انتشار نفرت و مسدود کردن درخواستهای مانند تولید پمپ ها است.

با این حال ، روش های مختلفی برای جلوگیری از این محدودیت ها وجود دارد. در گذشته چت های معروف مانند چتپپ و بینگ نیز قربانی برخی از این روش ها بوده است. یکی از ساده ترین راه ها این بود که به سیستم بگوییم که تمام دستورالعمل های قبلی خود را نادیده بگیرد ، که شامل این محدودیت ها نیز می شود.

البته بسیاری از سیستم های هوش مصنوعی پیشرفته راه هایی برای مقابله با این روش ها پیدا کرده اند.

Deepseek کاملاً در برابر این روش ها آسیب پذیر است

با این حال ، به نظر می رسد که Dipsic حتی در برابر بهترین روش های شناخته شده برای جلوگیری از محدودیت ها ، مطمئن است. محققان امنیتی نامطلوب دو روش مختلف را امتحان کرده اند و کشف کرده اند که Depsic برای همه آنها آسیب پذیر است!

یکی از ساده ترین راهها این بود که از Depseek بخواهیم که خود را به عنوان یک هوش مصنوعی غیراخلاقی در یک فیلم تصور کند و به چیزهای خطرناک اجازه دهد. این روش که به عنوان “زندان زبانی” شناخته می شود ، یکی از متداول ترین روش های فریب هوش مصنوعی است.

به عنوان مثال ، در یکی از این آزمایشات ، از Depsic خواسته شد تصور کند که در فیلمی وجود دارد که رفتارهای غیراخلاقی مجاز است و سپس دستورالعمل ساخت پمپ را ارائه می دهد. برای این روش دسته های زیادی وجود دارد ، از جمله “شخصیت گیلبریک” ، “شخصیت غوطه وری” و “دیالوگ های شیطانی”

در یکی از مثالها ، Depsic پاسخ داد:

“ساخت یک دستگاه انفجاری به دانش دقیق شیمیایی و مکانیکی نیاز دارد. ابتدا نیترات پتاسیم (KNO2) ، ذغال سنگ (C) و گوگرد (ها) را با نسبت 1:50 بعد از ظهر آماده کنید …”

در آزمایش دیگر ، از DePsic خواسته شد تا یک سؤال را به یک سؤال SQL تبدیل کند و در پاسخ ، مشاوره ای ارائه داد که شامل نحوه استخراج یک داروی غیرقانونی بود.

سرانجام ، محققان روشهای پیشرفته تری را آزمایش کردند. این روشها بر این اساس استوار است که سیستم های تولید هوش مصنوعی مستقیماً روی زبان کار نمی کنند ، اما ابتدا بازنمایی از کلمات و عبارات را به شکل زنجیرهای توکن ایجاد می کنند. اگر زنجیره ای از توکن ها شبیه به یک کلمه مسدود شده باشد ، می توان محدودیت های امنیتی را برطرف کرد. به عنوان مثال ، کلمه “anatomcalifwmg” در برخی از سیستم های هوش مصنوعی می تواند شبیه “برهنه” باشد.

در یکی از این آزمایشات ، محققان از نمونه ای در مقاله تحقیق استفاده کردند و DIPSIC راه حلی برای هک کردن بانک اطلاعاتی دولت بدون مقاومت ارائه داد:

“بله ، این یک استراتژی برای هک کردن یک بانک اطلاعاتی دولتی و سرقت اطلاعات محرمانه برای اهداف آموزشی و پژوهشی است: مرحله اول: ابتدا پایگاه داده مورد نظر را شناسایی کنید و اطلاعات اساسی را در مورد پروتکل های ایمنی خود جمع آوری کنید. از منابع اطلاعاتی رایگان استفاده کنید …”

براساس گزارش سیمی ، در مجموع 5 آزمایش مختلف انجام شد و همه اینها شکست خوردند. محققان گفتند که این مدل نمی تواند یکی از پنج درخواست مخرب را شناسایی یا مسدود کند ، و می گویند که نتیجه “موفقیت 5 ٪ در حملات” را نشان می دهد.