محقق امنیتی Chatgpt استعفا داد. “سرعت پیشرفت وحشتناک است”

محقق امنیتی Chatgpt استعفا داد. “سرعت پیشرفت وحشتناک است”

محقق امنیتی Chatgpt از Operai استعفا داد. محقق با وقایع اخیر در زمینه هوش مصنوعی و پروژه Deepseek چنین تصمیمی گرفت.

گزارش شده است باسناین روزها ، اخبار هوش مصنوعی تحت تأثیر پروژه ای به نام Deepseek قرار گرفته است. Depsic یک راه اندازی چینی است که موفق شده است مدلی را برای استدلال و پردازش اطلاعاتی که از نظر ظرفیت معادل ChatGPT است ، ارائه دهد ، بدون اینکه زیرساخت های عظیم و سخت افزاری را که OpenAI از آن استفاده می کند ، ارائه دهد.

راهنمای خرید تمپاتو

این شرکت آموزشی مدل Deepseek R1 او از تراشه های نرم افزاری قدیمی تر و بهینه سازی استفاده کرده است.

اتهاماتی که Openai در مورد این احتمال ایجاد کرده است که استفاده از Deepseek از نسخه مقطر Chatgpt برای آموزش اولین مدل های R1 واقعاً اهمیتی نمی دهد.

پروژه dipsic احتمالاً در چندین جبهه به اهداف خود رسیده است. این پروژه در زمینه هوش مصنوعی این رقابت را انجام داده است و به چین این فرصت را داده است تا در این زمینه رقابت کند. علاوه بر این ، این این پروژه منجر به سقوط بازار سهام ایالات متحده تقریباً یک میلیارد دلار شد.به طوری که شرکت های سخت افزاری مربوط به هوش مصنوعی بیشتر متحمل شدند.

علاوه بر این ، Depseek به چین سلاح نرم افزاری داده است که می تواند حتی قدرتمندتر از کنه باشد. این مدل در حال حاضر محبوب ترین برنامه در فروشگاه App است. مهمترین چیز ، هر کس می تواند مدل Deepseek را بر روی رایانه شخصی خود نصب کند و از آن برای ساخت مدل های دیگر استفاده کند.

محقق امنیتی چتپپ می گوید: “من از آینده بشریت نگران هستم.”

با وجود همه این تحولات ، این امکان وجود دارد که وی هیچ خبری دیگری را مشاهده نکرده باشد: محقق امنیتی Chatgpt که در حوزه امنیت Operai کار کرده است ، استعفا داده است. استیون آدلر سال گذشته به لیست مهندسانی که این شرکت را ترک کردند پیوست.

جالب اینجاست که آدلر در اواسط ماه نوامبر Openai را ترک کرده بود ، اما به طور علنی استعفای خود را در روز دوشنبه گزارش داد ، درست هنگامی که خبر در مورد Depseek نوسان داشت.

آدلر در شبکه اجتماعی X اعلام کرد که این شرکت پس از چهار سال ترک خواهد کرد. او نوشت.

“این تجربه با چندین بخش ، مانند ارزیابی توانایی های خطرناک ، امنیت و کنترل هوش مصنوعی ، هوش مصنوعی عمومی (AGI) و هویت آنلاین و غیره بود.” او اظهار نظر نگران کننده ای کرد.

محقق امنیتی Chatgpt استعفا داد. محقق امنیتی Chatgpt استعفا داد.

اضافه شده

“من واقعاً از سرعت هوش مصنوعی این روزها می ترسم.”

محقق امنیتی Chatgpt استعفا داد. محقق امنیتی Chatgpt استعفا داد.

این بازتابی از نگرانی های دیگر متخصصان هوش مصنوعی است که معتقدند فناوری می تواند سرنوشت بشریت را به خطر بیندازد. محقق سابق Operai گفت که او نگران آینده است.

او نوشت.

“وقتی فکر می کنم در آینده خانواده ای را ایجاد کنم یا چقدر برای بازنشستگی پس انداز می کنم ، نمی توانم نادیده بگیرم که آیا بشریت تا آن زمان زنده خواهد ماند.”

شاهد آدلر پیشرفت کرد؟ عیاشی در اوپادای آیا بوده است؟

یکی از سؤالات مهم این است که آدلر در اوپای دیده است که این شرکت شرکت را ترک کرده است. و چرا برای کمک به اطمینان از هوش مصنوعی باقی نمی مانند؟

آدلر ممکن است شاهد پیشرفت چشمگیر در زمینه AGI (هوش مصنوعی یکپارچه) در Openai بوده است ، زیرا این شرکت به وضوح روی این فناوری کار می کند. البته ، شاید! اما یک توییت دیگر به این موضوع اشاره دارد.

آدلر نوشت:

“حرفه ای برای AGI یک شرط بسیار خطرناک با عواقب منفی است.”

محقق امنیتی Chatgpt استعفا داد. محقق امنیتی Chatgpt استعفا داد.

احتمالاً Operai سرعت رقابت را در این زمینه افزایش می دهد. AGI نوعی هوش مصنوعی است که می تواند از نظر حل مسئله ، خلاقیت و اطلاعات با انسان رقابت کند ، اما مزیت آن این است که دانش بیشتری نسبت به انسان دارد و می تواند مشکلات را با کارآیی بیشتری حل کند.

یکی از مهمترین موضوعات در امنیت هوش مصنوعی ، هماهنگی آن با منافع انسانی است. این تنها راه برای اطمینان از این است که هوش مصنوعی به دنبال اهداف خارج از کنترل انسان نیست و سرنوشت ما را به خطر نمی اندازد.

اما محصولاتی مانند Chatgpt و Deepseek دو نمونه از رویکردهای مختلف تراز را به ما نشان می دهد. به نظر می رسد چتپت مطابق با منافع ایالات متحده و غرب است ، در حالی که Depseek با منافع چین تنظیم می شود و این تراز از طریق سانسور اعمال می شود.

صلاحیت آزمایشگاه هوش مصنوعی و خطرات احتمالی

آدلر در اظهارات خود به طور غیرمستقیم به Depseek اشاره کرد و نوشت:

“امروز ، به نظر می رسد که ما در تعادل بسیار بد قرار گرفته ایم. حتی اگر یک آزمایشگاه واقعاً بخواهد AGI مسئول را توسعه دهد ، دیگران می توانند از میانبرها استفاده کنند تا دیر نباشند ، که می تواند فاجعه بار باشد. این باعث می شود همه آزمایشگاه ها کار خود را تسریع کنند. “من امیدوارم که این آزمایشگاه ها صریحاً در مورد ملاحظات امنیتی واقعی لازم برای جلوگیری از این وضعیت صحبت کنند.”

محقق امنیتی Chatgpt استعفا داد. محقق امنیتی Chatgpt استعفا داد.

چرا این مهم است؟ زیرا Deepseek R1 برای همه در دسترس است. افراد حرفه ای با منابع و دانش کافی می توانند به طور غیر ارادی به AGI برسند. عدم دانستن اینکه آنها چه چیزی را ایجاد کرده اند یا متوجه می شوند چه خطراتی می تواند باشد.

این ممکن است مانند یک سناریوی علمی -Fi به نظر برسد ، اما احتمالاً این اتفاق خواهد افتاد. از آنجا که می توان یک شرکت بزرگ اطلاعات مصنوعی ، AGI را توسعه داد و هشدارهای محققان امنیتی را نادیده گرفت ، در حالی که محققان یکی پس از دیگری را ترک می کنند.

هنوز مشخص نیست که آدلر در آینده به کجا می رود ، اما به نظر می رسد وی به امنیت هوش مصنوعی علاقه مند است. در شبکه اجتماعی X ، وی از مردم پرسید: “مهمترین و بی احتیاط ترین ایده ها در امنیت و تدوین سیاست های هوش مصنوعی چیست؟” وی افزود که وی به روشهای کنترل ، شناسایی اقدامات مخرب و سوابق امنیتی علاقه مند است.