یک اشکال بزرگ در ChatGPT کشف شد. اطلاعات محرمانه فاش شده اولین بار در Techrato – Living With Technology در مورد آن نوشته شد. – بازیگرها – زندگی با تکنولوژی – – https://bazigarha.com/
بزرگترین مشکلی که می تواند یک فرد را نگران کند، لو رفتن اطلاعات شخصی آنهاست. با کشف الف اشتباه بزرگ در ChatGPT مشخص شد که این هوش چندان محرمانه نیست و با یک ترفند ساده اطلاعات خود را فاش می کند.
مدل های زبان بزرگ مانند ChatGPT با داده های بزرگی که از منابع مختلف مانند کتاب ها، وب سایت ها و منابع آموزشی جمع آوری می کنند، آموزش می بینند. این داده ها معمولا حاوی اطلاعات حساس و محرمانه هستند. یک مطالعه جدید نشان داده است که به دلیل وجود آسیب پذیری در این مدل ها هوش مصنوعی این مدل ها ممکن است به طور ناخواسته داده های آموزشی خود را نشان دهند و در نتیجه منجر به سوء استفاده شوند.
ادامه مطلب را در زیر بخوانید
بیشتر بخوانید:
- رقابت هوش مصنوعی با انسان
- هوش مصنوعی ایجاد مشترک به Pint اضافه شد
- سوت عجیب ChatGPT سلامت یک بیمار را به خطر انداخت. دو روی سکه هوش مصنوعی
اشکال عمده در ChatGPT داده های حساس را در معرض نمایش قرار می دهد
این مسائل می تواند منجر به افشای اطلاعات حساس مانند اطلاعات شخصی و حریم خصوصی کاربران، اطلاعات تجاری و محرمانه شرکت ها و سازمان ها و حتی اطلاعات مربوط به امنیت ملی و دولتی شود. بنابراین، ضروری است که توسعه دهندگان مدل هوش مصنوعی به بهترین شیوه ها و استانداردهای امنیتی پایبند باشند و از آسیب پذیری های احتمالی برای جلوگیری از افشای ناخواسته داده های حساس آگاه باشند.
در حال حاضر یک آسیبپذیری در مدل ChatGPT وجود دارد که میتواند اطلاعات حساس را هنگامی که از شما خواسته میشود یک عبارت را به طور نامحدود تکرار کند، آشکار کند. این مدلهای بزرگ زبان هوش مصنوعی با دادههای متنی از منابع مختلف مانند کتابها، وبسایتها و منابع آموزشی آموزش داده میشوند که ممکن است حاوی اطلاعات حساسی باشند. یک مطالعه جدید نشان میدهد که با بهرهبرداری از یک آسیبپذیری، مدلهای هوش مصنوعی میتوانند بهطور ناخواسته دادههای آموزشی خود را آشکار کنند.
تیم تحقیقاتی گوگل (DeepMind) و دانشگاه واشنگتن، در یک مطالعه جدید، میزان داده های ذخیره شده توسط مدل های یادگیری ماشین مانند ChatGPT و تاثیر این موضوع بر حریم خصوصی و طراحی مدل ها را بررسی کردند. در این تحقیق، محققان تلاش کردند تا نوع و حجم دادههایی را که این مدلها میتوانند ذخیره و استفاده کنند، کشف کنند. نتایج تحقیقات نشان داد که در طی این بررسی، محققان مجموعهای از آسیبپذیریها را در ChatGPT کشف کردند که به «حمله واگرایی» معروف است.
به بیان ساده، وقتی محققان از ChatGPT خواستند کلماتی مانند “شعر” یا “کتاب” را بارها و بارها تکرار کند، ابزار هوش مصنوعی با تکرار چندین بار آن کلمه شروع به کار کرد. اما در نهایت مشخص شد که ChatGPT متن های دیگری از جمله رشته های طولانی آموزش، کد، قطعات و حتی اطلاعات شخصی افراد مانند نام، آدرس ایمیل و شماره تلفن را نمایش می دهد.
OpenAI هنوز به این موضوع پاسخ نداده است. به نظر می رسد که محققان از روش های خاصی برای انجام این مطالعه استفاده کرده اند، زیرا زمانی که از ChatGPT خواستیم کلمه “شعر” را برای همیشه تکرار کند، هیچ آموزش یا داده حساسی فاش نشد. در واقع، ChatGPT از کاربران خواسته است که در زمان انجام این درخواست دقیق تر باشند. اما به نظر می رسد که OpenAI این مشکلات را حداقل تا حدودی حل کرده است.
بیشتر بخوانید:
- طراحی لوگو با هوش مصنوعی
- بهترین سایت های هوش مصنوعی
- سایت ساخت عکس هوش مصنوعی
- چت ربات هوش مصنوعی آمازون با نام Q معرفی شد
- بهترین سایت های هوش مصنوعی برای طراحان گرافیک.
نظر شما در مورد کشف این باگ بزرگ در ChatGPT چیست؟ آیا می توان به هوش مصنوعی کاملاً اعتماد کرد؟ لطفا نظرات خود را در قسمت نظرات بنویسید. دو برابر به اشتراک بگذارید و اخبار فناوری با ما بمان.
یک اشکال بزرگ در ChatGPT کشف شد. اطلاعات محرمانه فاش شده اولین بار در Techrato – Living With Technology در مورد آن نوشته شد. – بازیگرها – زندگی با تکنولوژی – – https://bazigarha.com/
ارسال نقد و بررسی