بازی با کارایی بالا صنعت فناوری ؛ آیا هوش مصنوعی از کنترل خارج است؟

بازی با کارایی بالا صنعت فناوری ؛ آیا هوش مصنوعی از کنترل خارج است؟

استیون آدلر هشدار داد که این صنعت “بسیار پرخطر” است و ابراز نگرانی در مورد آینده بشریت و هوش مصنوعی.

یک محقق سابق در زمینه امنیت اطلاعات مصنوعی در Openai هشدار داد که توسعه فناوری بسیار نگران کننده است و این صنعت در حال ساخت “بازی پرخاشگر” است.

راهنمای خرید تمپاتو

استیون آدلر: شاید بشریت ممکن است به آینده ای که تصور می کنیم نرسد!

استیون آدلر ، که نوامبر گذشته Openai را ترک کرد ، در یک سری از نشریات در مورد شبکه اجتماعی X نوشت که کار در شرکت آمریکایی یک “تجربه باورنکردنی” بود و بخش اعظم آن را از دست می دهد. اما وی تأکید کرد که پیشرفت سریع فناوری باعث شده آینده شک و تردید بشریت باشد.

او نوشت.

من واقعاً از سرعت توسعه هوش مصنوعی این روزها می ترسم. به عنوان مثال ، وقتی به آینده فکر می کنم ، خانواده ام را تشکیل می دهم یا چقدر برای بازنشستگی پس انداز می کنم ، نمی توانم از این ایده که آیا بشریت به آن نقطه برسد ، فرار کنم.

برخی از کارشناسان ، مانند برنده جایزه نوبل جفری هینتون ، نگران سیستم های قدرتمند هستند هوش مصنوعی آنها می توانند از کنترل انسان خارج شوند و عواقب فاجعه بار داشته باشند. در مقابل ، افرادی مانند ایان لیکان ، دانشمند اصلی هدف ، این تهدید را بی اهمیت می دانند و معتقدند که هوش مصنوعی حتی می تواند بشریت را از نابودی نجات دهد.

طبق صفحه LinkedIn Adler ، وی طی چهار سال تحقیقات امنیتی در مورد محصولات جدید و سیستم های اطلاعاتی مصنوعی طولانی مدت انجام داده است.

آدلر در مورد رقابت برای توسعه هوش مصنوعی عمومی (AGI) هشدار داد ، که هدف اصلی Openai است و می گوید: “رقابت برای ساخت AGI یک بازی بسیار پرخطر با عواقب مخرب است.”

وی همچنین تأکید کرد که تاکنون هیچ آزمایشگاهی راه حل قطعی برای همزیستی هوش مصنوعی پیدا نکرده است (یعنی اطمینان حاصل می شود که این سیستم ها به ارزش های انسانی پایبند هستند) و اینکه ریتم پیشرفت فعلی می تواند از چنین راه حلی جلوگیری کند. او می گوید: “هرچه زودتر برویم ، احتمال یافتن راه حل صحیح کمتر است.”

اظهارات در حالی انجام شد شرکت چینی Deepseekبا آرزوی توسعه AGI ، صنعت فناوری ایالات متحده را به چالش می کشد و مدلی را معرفی می کند که به نظر می رسد با فناوری Operai ، با منابع کمتری رقابت می کند.

آدلر هشدار داد که این صنعت در “تعادل بسیار خطرناک” گرفتار شده و به مقررات امنیتی واقعی نیاز دارد:

حتی اگر یک آزمایشگاه بخواهد AGI مسئول را توسعه دهد ، سایر شرکت ها می توانند برای جبران فاصله حمله کنند و این ممکن است عواقب فاجعه بار داشته باشد.

اوپای و آدلر هنوز به این اظهارات پاسخ نداده اند.