یک اشکال بزرگ در ChatGPT کشف شد. داده های حساس در معرض – تکراری

یک اشکال بزرگ در ChatGPT کشف شد.  داده های حساس در معرض – تکراری

یک اشکال بزرگ در ChatGPT کشف شد. اطلاعات محرمانه فاش شده اولین بار در Techrato – Living With Technology در مورد آن نوشته شد. – بازیگرها – زندگی با تکنولوژی – – https://bazigarha.com/

بزرگترین مشکلی که می تواند یک فرد را نگران کند، لو رفتن اطلاعات شخصی آنهاست. با کشف الف اشتباه بزرگ در ChatGPT مشخص شد که این هوش چندان محرمانه نیست و با یک ترفند ساده اطلاعات خود را فاش می کند.

مدل های زبان بزرگ مانند ChatGPT با داده های بزرگی که از منابع مختلف مانند کتاب ها، وب سایت ها و منابع آموزشی جمع آوری می کنند، آموزش می بینند. این داده ها معمولا حاوی اطلاعات حساس و محرمانه هستند. یک مطالعه جدید نشان داده است که به دلیل وجود آسیب پذیری در این مدل ها هوش مصنوعی این مدل ها ممکن است به طور ناخواسته داده های آموزشی خود را نشان دهند و در نتیجه منجر به سوء استفاده شوند.


ادامه مطلب را در زیر بخوانید

بیشتر بخوانید:

  • رقابت هوش مصنوعی با انسان
  • هوش مصنوعی ایجاد مشترک به Pint اضافه شد
  • سوت عجیب ChatGPT سلامت یک بیمار را به خطر انداخت. دو روی سکه هوش مصنوعی

اشکال عمده در ChatGPT داده های حساس را در معرض نمایش قرار می دهد

این مسائل می تواند منجر به افشای اطلاعات حساس مانند اطلاعات شخصی و حریم خصوصی کاربران، اطلاعات تجاری و محرمانه شرکت ها و سازمان ها و حتی اطلاعات مربوط به امنیت ملی و دولتی شود. بنابراین، ضروری است که توسعه دهندگان مدل هوش مصنوعی به بهترین شیوه ها و استانداردهای امنیتی پایبند باشند و از آسیب پذیری های احتمالی برای جلوگیری از افشای ناخواسته داده های حساس آگاه باشند.

در حال حاضر یک آسیب‌پذیری در مدل ChatGPT وجود دارد که می‌تواند اطلاعات حساس را هنگامی که از شما خواسته می‌شود یک عبارت را به طور نامحدود تکرار کند، آشکار کند. این مدل‌های بزرگ زبان هوش مصنوعی با داده‌های متنی از منابع مختلف مانند کتاب‌ها، وب‌سایت‌ها و منابع آموزشی آموزش داده می‌شوند که ممکن است حاوی اطلاعات حساسی باشند. یک مطالعه جدید نشان می‌دهد که با بهره‌برداری از یک آسیب‌پذیری، مدل‌های هوش مصنوعی می‌توانند به‌طور ناخواسته داده‌های آموزشی خود را آشکار کنند.

شعر
اشتباه بزرگ در ChatGPT

تیم تحقیقاتی گوگل (DeepMind) و دانشگاه واشنگتن، در یک مطالعه جدید، میزان داده های ذخیره شده توسط مدل های یادگیری ماشین مانند ChatGPT و تاثیر این موضوع بر حریم خصوصی و طراحی مدل ها را بررسی کردند. در این تحقیق، محققان تلاش کردند تا نوع و حجم داده‌هایی را که این مدل‌ها می‌توانند ذخیره و استفاده کنند، کشف کنند. نتایج تحقیقات نشان داد که در طی این بررسی، محققان مجموعه‌ای از آسیب‌پذیری‌ها را در ChatGPT کشف کردند که به «حمله واگرایی» معروف است.

به بیان ساده، وقتی محققان از ChatGPT خواستند کلماتی مانند “شعر” یا “کتاب” را بارها و بارها تکرار کند، ابزار هوش مصنوعی با تکرار چندین بار آن کلمه شروع به کار کرد. اما در نهایت مشخص شد که ChatGPT متن های دیگری از جمله رشته های طولانی آموزش، کد، قطعات و حتی اطلاعات شخصی افراد مانند نام، آدرس ایمیل و شماره تلفن را نمایش می دهد.

OpenAI هنوز به این موضوع پاسخ نداده است. به نظر می رسد که محققان از روش های خاصی برای انجام این مطالعه استفاده کرده اند، زیرا زمانی که از ChatGPT خواستیم کلمه “شعر” را برای همیشه تکرار کند، هیچ آموزش یا داده حساسی فاش نشد. در واقع، ChatGPT از کاربران خواسته است که در زمان انجام این درخواست دقیق تر باشند. اما به نظر می رسد که OpenAI این مشکلات را حداقل تا حدودی حل کرده است.

بیشتر بخوانید:

  • طراحی لوگو با هوش مصنوعی
  • بهترین سایت های هوش مصنوعی
  • سایت ساخت عکس هوش مصنوعی
  • چت ربات هوش مصنوعی آمازون با نام Q معرفی شد
  • بهترین سایت های هوش مصنوعی برای طراحان گرافیک.

نظر شما در مورد کشف این باگ بزرگ در ChatGPT چیست؟ آیا می توان به هوش مصنوعی کاملاً اعتماد کرد؟ لطفا نظرات خود را در قسمت نظرات بنویسید. دو برابر به اشتراک بگذارید و اخبار فناوری با ما بمان.

یک اشکال بزرگ در ChatGPT کشف شد. اطلاعات محرمانه فاش شده اولین بار در Techrato – Living With Technology در مورد آن نوشته شد. – بازیگرها – زندگی با تکنولوژی – – https://bazigarha.com/