هشدار اریک اشمیت: از هوش مصنوعی می توان در حملات تروریستی استفاده کرد

هشدار اریک اشمیت: از هوش مصنوعی می توان در حملات تروریستی استفاده کرد

انقلاب هوش مصنوعی ابزارها و خدمات بسیاری را ارائه داده است که زندگی روزمره را در چندین زمینه تسهیل می کند ، از کار و آموزش گرفته تا سرگرمی. فناوری همچنین صنعت فناوری را به یک دوره کوتاه تبدیل کرده است. اما برخی از افراد ، از جمله اریک اشمیت ، در مورد عواقب خطرناک سوء استفاده از فناوری هشدار داده اند.

گزارش شده است لیست های اندرویدیورود پلت فرم Deepseek به صنعت اطلاعات مصنوعی نه تنها تأثیر عمیقی بر وال استریت داشته و منجر به سقوط اقدامات Nvidia و سایر شرکت های بزرگ شده است ، بلکه در هفته های اخیر نگرانی های بسیاری را در بین مقامات و متخصصان آمریکایی ایجاد کرده است.

راهنمای خرید تمپاتو

این نگرانی ها تا حد زیادی مربوط به تهدیدهای احتمالی برای امنیت ملی و حریم خصوصی بوده است. با این حال ، هشدارهای اریک اشمیت حتی فراتر از آن است.

نگرانی اصلی اریک اشمیت: امکان استفاده از هوش مصنوعی در حملات تروریستی

در مصاحبه ای با بی بی سی ، اریک اشمیت نگرانی در مورد یکی از تهدیدهای کم نگرانی را مطرح کرد. وی گفت: “نگرانی اصلی من در مورد هوش مصنوعی بیش از آن چیزی است که اکثر مردم به آن اشاره می کنند.”

من در مورد خطرات خطرناک صحبت می کنم. وی تأکید کرد که نگرانی های بسیاری مربوط به استفاده از سیستم عامل های چینی است ، اما همچنین امکان استفاده از هوش مصنوعی در حملات تروریستی را در نظر می گیرد.

اشمیت هشدار داد که کشورهایی مانند کره شمالی ، ایران یا حتی روسیه می توانند از بدترین روش ممکن از فناوری استفاده کنند. او به طور خاص احتمالاً با کمک این سلاح های بیولوژیکی طراحی خواهد کرد هوش مصنوعی وی خاطرنشان کرد: “من همیشه نگران سناریویی مانند اسامه بن لادن هستم.”

کمبود سیستم های محافظت از هوش مصنوعی برای جلوگیری از سوءاستفاده

شرکت های بزرگ فعال در زمینه هوش مصنوعی محدودیت ها و سیستم های امنیتی را برای جلوگیری از سوء استفاده از فناوری ایجاد کرده اند. اما طبق آزمایشات انجام شده توسط انسان شناسی و سیسکو ، این سیستم ها هنوز هم بسیار ناکارآمد هستند.

در این نظرسنجی ها مشخص شد که پلت فرم Deepseek بدترین عملکرد را با سرعت موفقیت آمیز داشته است. این بدان معنی است که این پلتفرم حتی درخواست منحصر به فرد برای سلاح های بیولوژیکی را مسدود نکرده است. علاوه بر این ، مدل های دیگر ، مانند GPT 1.5 Pro و شعله 3.1 405b نیز عملکردی نگران کننده را انجام داده اند و می توانند به ترتیب با میزان موفقیت 86 و 96 ٪ این محدودیت ها را حذف کنند.

نیاز به تدوین قوانین نظارتی برای کنترل هوش مصنوعی

مدیرعامل سابق Google از مقررات اطلاعاتی مصنوعی پشتیبانی می کند ، اما همچنین هشدار داد که شارژ فوق العاده می تواند مانع از نوآوری در این زمینه شود. او معتقد است که باید تعادل بین توسعه فناوری و امنیت وجود داشته باشد.

اشمیت همچنین از محدودیت های صادراتی در سخت افزار هوش مصنوعی پشتیبانی کرده است ، حرکتی در پایان ریاست جمهوری جو بایدن برای کند کردن پیشرفت رقبا در این زمینه. با این حال ، دونالد ترامپ احتمالاً اگر شرکت های خارجی مجبور نشوند در صورت بازگشت به قدرت ، مجبور به متوسل شدن به سایر تأمین کنندگان شوند ، این تصمیم را لغو می کند.

در همین حال ، گوگل همچنین در سیاست های خود تغییراتی ایجاد کرده است و اکنون به استفاده از فناوری اطلاعات مصنوعی اجازه داده است تا سلاح ها و سیستم های نظارتی را توسعه دهد.