شرکت OpenAI چارچوب جدیدی را برای تضمین امنیت هوش مصنوعی تعریف کرد – Tekrato

شرکت OpenAI چارچوب جدیدی را برای تضمین امنیت هوش مصنوعی تعریف کرد – Tekrato

مقاله شرکت OpenAI در تعریف چارچوبی جدید برای تضمین امنیت هوش مصنوعی ابتدا در وب سایت بازیگرها نوشته شد: زندگی با فناوری. – بازیگرها – زندگی با تکنولوژی – – https://bazigarha.com/

چارچوب جدید شرکت. هوش مصنوعی را باز کنید برای اطمینان از ایمنی هوش مصنوعی، راه حل جدید این مجموعه رفع برخی نگرانی های ناشی از قدرت بالای این فناوری است.

پس از اخراج سم آلتمن و بازگشت به عنوان مدیرعامل، OpenAI چارچوب جدیدی را برای اطمینان از ایمنی هوش مصنوعی توسعه داد. این دستورالعمل ها به گونه ای تعریف شده اند که حتی نظرات سام آلتمن را می توان وتو کرد.

بیشتر بخوانید: GPT-4 AI تنبل است. OpenAI تایید شد

در این چارچوب، تیم “Systems Security” مسئول ارزیابی مدل های در حال توسعه است. علاوه بر این، تیم Readiness مسئول نظارت بر مدل‌های پیشگام OpenAI برای شناسایی و ارزیابی خطرات احتمالی قبل از انتشار مدل‌ها بوده است. علاوه بر این، گروه «فرهوسوی» مسئولیت کار بر روی حدود نظری مدل های «هوشمند» را نیز بر عهده دارد.

کار با دو دسته اول که ملموس ترند و مدل های آن ها را داریم راحت تر است و درک فعالیت هایشان راحت تر است. این تیم‌ها باید خطرات را بر اساس چهار طبقه‌بندی ارزیابی کنند: امنیت سایبری، «اقناع» (مثلاً با ارائه اطلاعات نادرست)، آناتومی مدل‌ها (مثلاً در قابلیت‌های عملکردی آن‌ها) و CBRN (مخفف تهدیدات شیمیایی، بیولوژیکی، رادیولوژیکی). و هسته ای؛ به عنوان مثال، در ظرفیت هوش مصنوعی در تولید پاتوژن های جدید).

دسته اول و دوم فعالیت ها ملموس تر هستند و درک کار آنها آسان تر است. تیم های فوق باید ریسک ها را بر اساس چهار دسته اصلی ارزیابی کنند. این چهار دسته عبارتند از: امنیت سایبری، متقاعدسازی (به عنوان مثال، اطلاعات نادرست)، آناتومی مدل (به عنوان مثال، قابلیت های عملیاتی)، و CBRN (شامل تهدیدات شیمیایی، بیولوژیکی، رادیولوژیکی و هسته ای؛ به عنوان مثال، قابلیت). اطلاعات). مصنوعی برای ایجاد پاتوژن های جدید).

تیم “آماده سازی” که در ماه اکتبر معرفی شد، یکی از سه گروه جداگانه ای است که بر ایمنی هوش مصنوعی در استارت آپ نظارت می کند. سرپرست این تیم «الکساندر مادری» است که امیدوار است با اجرای این دستورالعمل های جدید خطرات احتمالی در مدل های هوش مصنوعی را به موقع شناسایی کند.

مدتی است که نگرانی ها در مورد قدرت بالای مدل های هوش مصنوعی شنیده می شود و به نظر می رسد این اقدام اخیر OpenAI پاسخی به افزایش این نگرانی ها و در راستای پیشرفت های اخیر این شرکت باشد.

بیشتر بخوانید:

  • توانایی خواندن ذهن با هوش مصنوعی؛ پیشرفت بزرگ دانشمندان
  • ناوهای سپاه مجهز به موشک های دوربرد با قابلیت هوش مصنوعی بودند.
  • تشخیص اوتیسم با هوش مصنوعی؛ تشخیص شبکیه چشم و دقت 100٪
  • لپ تاپ جدید لنوو با پردازنده Intel Core Ultra 5 رونمایی شد; شاهکار مهندسی لنوو با قابلیت های هوش مصنوعی

نظر شما در مورد چارچوب OpenAI جدید این شرکت چیست؟ آیا عملی به نظر می رسد؟ لطفا نظرات خود را در قسمت نظرات به اشتراک بگذارید. اخبار فناوری با موارد تکراری ادامه دهید.

مقاله شرکت OpenAI در تعریف چارچوبی جدید برای تضمین امنیت هوش مصنوعی ابتدا در وب سایت بازیگرها نوشته شد: زندگی با فناوری. – بازیگرها – زندگی با تکنولوژی – – https://bazigarha.com/