هوش مصنوعی خطر توسعه سلاح های بیولوژیکی را افزایش می دهد. OpenAI Confession – Tekrato

هوش مصنوعی خطر توسعه سلاح های بیولوژیکی را افزایش می دهد. OpenAI Confession – Tekrato

به گزارش پایگاه خبری فناوری بازیگرها (bazigarha.com):

روز پنجشنبه OpenAI هوش مصنوعی o1 را معرفی کرد. به نظر می رسد آخرین محصول دارای ویژگی هایی است که محققان و کارشناسان امنیتی را حساس کرده است.

به گفته دیجیاتو، احتمالا به دلیل هوش مصنوعی o1 است هوش مصنوعی را باز کنید به طور قابل توجهی در ساخت سلاح های بیولوژیکی، رادیولوژیکی و هسته ای (CBRN) مورد سوء استفاده قرار گیرد. در این میان یک نکته جالب نیز وجود دارد؛ خود OpenAI نیز این خطرات را تایید کرده و در توضیحات خود به آن اشاره کرده است.

o1 هوش مصنوعی و خطرات بالقوه: آیا هوش مصنوعی محکوم به سوء استفاده خطرناک است؟

هوش مصنوعی مدل o1 دارای قابلیت‌های پیشرفته‌ای مانند استدلال گام به گام و حل مسائل پیچیده ریاضی است که این نگرانی‌ها را در مورد سوء استفاده از آن برای توسعه سلاح‌های خطرناک ایجاد کرده است. اگرچه سطح ریسک این مدل به عنوان “متوسط” توصیف می شود، اما این بالاترین سطح خطر شناخته شده برای مدل های هوش مصنوعی OpenAI تاکنون است.

این موضوع بحث های جدیدی را در مورد قانون در این زمینه به راه انداخته است. هوش مصنوعی به طور خاص، در ایالت کالیفرنیا، SB 1047 در نظر گرفته شده است، که شرکت‌هایی را که مدل‌های هوش مصنوعی تولید می‌کنند مجبور می‌کند اقداماتی را برای جلوگیری از استفاده از مدل‌های خود در توسعه سلاح‌های بیولوژیکی انجام دهند.

OpenAI و برخی دیگر از شرکت های فناوری و سرمایه گذاران خطرپذیر مخالفت خود را با این قانون اعلام کرده اند و استدلال می کنند که تصویب آن می تواند به صنعت هوش مصنوعی آسیب برساند.

بیشتر بخوانید:

  • مطالعه جدید: هوش مصنوعی می تواند در اصلاح باورهای غلط افراد موثر باشد
  • اولین واکنش ها به عملکرد مدل o1. هوش مصنوعی استدلال OpenAI چگونه به وجود آمد؟

ماده o1 هوش مصنوعی خطر ساخت سلاح های بیولوژیکی را افزایش می دهد. اعتراف OpenAI اولین بار در وب سایت Tekrato: Life with Technology نوشته شد. – بازیگرها – زندگی با تکنولوژی – – https://bazigarha.com/