به گزارش پایگاه خبری فناوری بازیگرها (bazigarha.com):
روز پنجشنبه OpenAI هوش مصنوعی o1 را معرفی کرد. به نظر می رسد آخرین محصول دارای ویژگی هایی است که محققان و کارشناسان امنیتی را حساس کرده است.
به گفته دیجیاتو، احتمالا به دلیل هوش مصنوعی o1 است هوش مصنوعی را باز کنید به طور قابل توجهی در ساخت سلاح های بیولوژیکی، رادیولوژیکی و هسته ای (CBRN) مورد سوء استفاده قرار گیرد. در این میان یک نکته جالب نیز وجود دارد؛ خود OpenAI نیز این خطرات را تایید کرده و در توضیحات خود به آن اشاره کرده است.
o1 هوش مصنوعی و خطرات بالقوه: آیا هوش مصنوعی محکوم به سوء استفاده خطرناک است؟
هوش مصنوعی مدل o1 دارای قابلیتهای پیشرفتهای مانند استدلال گام به گام و حل مسائل پیچیده ریاضی است که این نگرانیها را در مورد سوء استفاده از آن برای توسعه سلاحهای خطرناک ایجاد کرده است. اگرچه سطح ریسک این مدل به عنوان “متوسط” توصیف می شود، اما این بالاترین سطح خطر شناخته شده برای مدل های هوش مصنوعی OpenAI تاکنون است.
این موضوع بحث های جدیدی را در مورد قانون در این زمینه به راه انداخته است. هوش مصنوعی به طور خاص، در ایالت کالیفرنیا، SB 1047 در نظر گرفته شده است، که شرکتهایی را که مدلهای هوش مصنوعی تولید میکنند مجبور میکند اقداماتی را برای جلوگیری از استفاده از مدلهای خود در توسعه سلاحهای بیولوژیکی انجام دهند.
OpenAI و برخی دیگر از شرکت های فناوری و سرمایه گذاران خطرپذیر مخالفت خود را با این قانون اعلام کرده اند و استدلال می کنند که تصویب آن می تواند به صنعت هوش مصنوعی آسیب برساند.
بیشتر بخوانید:
- مطالعه جدید: هوش مصنوعی می تواند در اصلاح باورهای غلط افراد موثر باشد
- اولین واکنش ها به عملکرد مدل o1. هوش مصنوعی استدلال OpenAI چگونه به وجود آمد؟
ماده o1 هوش مصنوعی خطر ساخت سلاح های بیولوژیکی را افزایش می دهد. اعتراف OpenAI اولین بار در وب سایت Tekrato: Life with Technology نوشته شد. – بازیگرها – زندگی با تکنولوژی – – https://bazigarha.com/
ارسال نقد و بررسی