در سال ۲۰۲۶، تقابل میان نیروی کار انسانی و هوش مصنوعی به یکی از داغترین مناقشات ژئوپلیتیک و حقوقی جهان تبدیل شده است. در حالی که غولهای فناوری آمریکایی به طور علنی هزاران کارمند را برای تأمین بودجه زیرساختهای هوش مصنوعی اخراج میکنند، دادگاههای چین در حرکتی بیسابقه، این اقدام را غیرقانونی اعلام کردهاند.
این تضاد نه تنها یک تفاوت ساده در قوانین کار، بلکه یک نبرد تمامعیار بر سر تعریف «آینده کار» است. در حالی که سیلیکونولی (Silicon Valley) بر بهرهوری و سود سهامداران تمرکز دارد، سیستم قضایی چین به دنبال تعریف مرزهایی است که در آن تکنولوژی نتواند بهانهای برای فرار از تعهدات قراردادی باشد.
در این مقاله، ابعاد پنهان این بحران، از پروندههای قضایی جنجالی تا پیامدهای روانشناختی جایگزینی انسان با ماشین را بررسی میکنیم.
۰۱
تراژدی آقای ژو؛ وقتی مربی توسط شاگرد اخراج میشود
پرونده یک کارمند در شهر هانگژو (Hangzhou) به نماد مقاومت در برابر استبداد الگوریتمها تبدیل شده است. آقای ژو، که وظیفهاش آموزش و تصحیح مدلهای زبانی بزرگ (LLMs) بود، متوجه شد که شرکتش قصد دارد همان تکنولوژیای که او به بلوغ رسانده را جایگزین خودش کند. این یک طنز تلخ در دنیای مدرن است؛ کارگرانی که با دست خود، ابزار بیکاریشان را صیقل میدهند.
دادگاه میانی هانگژو در حکمی تاریخی اعلام کرد که پیشرفت تکنولوژی به خودی خود مجوزی برای فسخ قرارداد کار نیست. این حکم نشان داد که در چین، تکنولوژی به عنوان یک «تصمیم تجاری» (Business Decision) تلقی میشود، نه یک حادثه غیرمترقبه یا فورسماژور که بتواند حقوق مکتسبه کارگر را از بین ببرد.
۰۲
منطق سیلیکونولی؛ اخراج برای سرمایهگذاری
در ایالات متحده، رویکرد کاملاً متفاوتی حاکم است. شرکتهایی مانند متا (Meta)، گوگل (Google) و مایکروسافت (Microsoft) به طور همزمان خبر از سرمایهگذاریهای میلیاردی در هوش مصنوعی و اخراج هزاران نفر از پرسنل خود میدهند. در بازار سرمایه آمریکا، این اقدام اغلب با رشد ارزش سهام پاداش داده میشود، زیرا تحلیلگران آن را نشانهای از «چابکی» و «بهینهسازی منابع» میدانند.
از نظر فنی، بسیاری از این مشاغل در بخشهایی هستند که هوش مصنوعی مولد (Generative AI) اکنون میتواند با هزینهای نزدیک به صفر انجام دهد. این تضاد ساختاری نشان میدهد که چگونه یک پدیده واحد (هوش مصنوعی) در دو قطب اقتصادی جهان، دو واکنش کاملاً متضاد حقوقی و اجتماعی ایجاد کرده است.
۰۳
تمایز حقوقی؛ تصمیم استراتژیک در برابر بلایای طبیعی
یکی از کلیدیترین استدلالهای دادگاههای چین، تفاوت قائل شدن بین تغییرات ناخواسته محیطی و تصمیمات استراتژیک شرکت است. شرکتها اغلب سعی میکنند جایگزینی هوش مصنوعی را به عنوان یک «تغییر عمده در شرایط عینی» (Major change in objective circumstances) جلوه دهند تا بتوانند طبق قانون قراردادها را لغو کنند. اما قضات چینی استدلال کردهاند که وقتی مدیری تصمیم میگیرد نرمافزار را جایگزین انسان کند، این یک انتخاب آگاهانه برای افزایش سود است، نه یک بنبست ناخواسته. بنابراین، هزینه این تحول نباید تنها بر دوش کارمند باشد. این نگاه حقوقی، شرکتها را موظف میکند تا پیش از اخراج، به دنبال بازآموزی (Reskilling) یا انتقال کارمند به بخشهای دیگر باشند، نه اینکه صرفاً او را از سیستم حذف کنند.
۰۴
ریشههای تاریخی؛ بازگشت به دوران لودیتها
وضعیت امروز جهان شباهت عجیبی به جنبش لودیتها (Luddites) در قرن نوزدهم انگلستان دارد؛ زمانی که کارگران نساجی ماشینهای بافندگی را از ترس بیکاری میشکستند. تفاوت اینجاست که در سال ۲۰۲۶، نبرد نه در کارخانهها و با پتک، بلکه در دادگاهها و با کدهای قانونی پیش میرود. تاریخ نشان داده است که مقاومت در برابر تکنولوژی در بلندمدت شکست میخورد، اما نحوه مدیریت این انتقال (Transition) تعیینکننده ثبات اجتماعی است. رویکرد فعلی چین را میتوان نوعی «لودیسم قانونی» نامید که به جای توقف تکنولوژی، به دنبال کند کردن سرعت تخریب خلاق (Creative Destruction) برای محافظت از طبقه متوسط است.
۰۵
پارادوکس حکومت چین؛ ترویج هوش مصنوعی در کنار حفظ اشتغال
دولت مرکزی چین به شدت به دنبال برتری جهانی در حوزه هوش مصنوعی است و بودجههای کلانی را به این بخش تزریق میکند. با این حال، تضاد عجیبی وجود دارد؛ از یک سو فشار برای اتوماسیون (Automation) و از سوی دیگر ترس از بیکاری گسترده که میتواند منجر به ناآرامیهای اجتماعی شود. این توازن ظریف باعث شده تا دولت در سطح کلان از ایآی حمایت کند، اما در سطح خرد و حقوقی، اجازه ندهد شرکتهای خصوصی به راحتی از شر نیروی کار خلاص شوند. این مدل حکمرانی نشاندهنده اولویت «ثبات اجتماعی» بر «بهرهوری محض سرمایهداری» در فرهنگ سیاسی شرق آسیا است.
۰۶
جامعهشناسی کار؛ ظهور طبقه بیاستفاده
یووال نوح هراری (Yuval Noah Harari) سالها پیش درباره ظهور «طبقه بیاستفاده» (Useless Class) هشدار داده بود؛ افرادی که نه تنها استثمار نمیشوند، بلکه اصلاً به آنها نیازی نیست. پروندههای حقوقی سال ۲۰۲۶ نشان میدهند که این پیشبینی زودتر از موعد به واقعیت پیوسته است. وقتی یک کارمند بخش نقشهبرداری داده (Data Mapping) با هوش مصنوعی جایگزین میشود، او نه تنها شغل خود، بلکه جایگاه اجتماعی و معنای زندگی خود را نیز در خطر میبیند. دادگاههای چین با غیرقانونی خواندن این اخراجها، در واقع در حال جنگ با یک بحران وجودی (Existential Crisis) هستند که میتواند پایههای جامعه مدرن را سست کند.
۰۷
بازی با کلمات؛ تفاوت تعدیل نیرو و بازسازی ساختاری
شرکتهای بزرگ در بیانیههای خود به ندرت از کلمه «اخراج به دلیل هوش مصنوعی» استفاده میکنند. آنها عباراتی نظیر «بازسازی استراتژیک» (Strategic Restructuring) یا «افزایش کارایی عملیاتی» را به کار میبرند. اما در دادگاههای سال ۲۰۲۶، قضات شروع به «رمزگشایی» این اصطلاحات کردهاند. آنها با بررسی جریانهای نقدی و سرمایهگذاریهای جدید شرکت، ثابت میکنند که هدف واقعی نه نجات شرکت از ورشکستگی، بلکه جایگزینی ارزانقیمت ماشین با انسان است. این شفافیت قضایی، نقاب از چهره بسیاری از غولهای فناوری برداشته و آنها را مجبور به پاسخگویی در برابر افکار عمومی کرده است.
۰۸
بازتاب در رسانهها؛ وقتی سینما واقعیت را پیشبینی کرد
بسیاری از تحلیلگران این وضعیت را با قسمتهایی از سریال «آینه سیاه» (Black Mirror) مقایسه میکنند؛ جایی که الگوریتمها نه تنها کار، بلکه تمام جنبههای زندگی انسان را مدیریت میکنند. در مستندهای جدیدی که در سال ۲۰۲۶ منتشر شده، به وضوح دیده میشود که چگونه نرمافزارهای مدیریت منابع انسانی (HR Software) بر پایه هوش مصنوعی، لیستی از کارمندان «قابل حذف» را بر اساس معیارهای پیچیده ریاضی تهیه میکنند. این «اخراجهای الگوریتمی» بدون دخالت عاطفه انسانی صورت میگیرند و همین موضوع باعث شده تا دادگاهها اصرار داشته باشند که هرگونه اخراج باید دارای یک «دلیل انسانی ملموس» باشد که توسط یک فرد مسئول امضا شده باشد.
۰۹
روانپزشکی صنعتی؛ استرس ناشی از بیثباتی تکنولوژیک
متخصصان روانپزشکی صنعتی از اصطلاح جدیدی به نام «اضطراب جایگزینی» (Replacement Anxiety) یاد میکنند. کارمندانی که هر روز شاهد پیشرفت خیرهکننده ابزارهای هوش مصنوعی در محیط کار خود هستند، دچار نوعی پارانویا و کاهش بهرهوری میشوند. آنها میدانند که هر چقدر بهتر کار کنند و دادههای بیشتری به سیستم بدهند، احتمال جایگزینی خود را افزایش میدهند. دادگاههای چین با ایجاد سد قانونی در برابر اخراجهای بیرویه، در واقع به دنبال کاهش این فشار روانی و حفظ سلامت روان در محیطهای کاری پرتنشن هستند.
۱۰
هزینه اتوماسیون؛ چه کسی صورتحساب را پرداخت میکند؟
وقتی یک فرآیند خودکار میشود، ثروت عظیمی خلق میشود؛ اما این ثروت به جیب چه کسی میرود؟ در مدل فعلی سیلیکونولی، این ثروت مستقیماً به سهامداران منتقل میشود و کارگر اخراج شده با یک «بسته حمایتی» ناچیز رها میشود. اما در رویکرد جدید چین، شرکتها مجبورند بخشی از سود حاصل از اتوماسیون را صرف بازآموزی یا جبران خسارتهای سنگین به کارمندان کنند. این یک بازتوزیع ثروت (Wealth Redistribution) اجباری است که مانع از تمرکز بیش از حد سرمایه در دست مالکان الگوریتمها میشود. این تقابل اقتصادی نشان میدهد که هوش مصنوعی نه تنها یک ابزار فنی، بلکه یک ابزار سیاسی برای تغییر ساختار قدرت مالی در جهان است.
۱۱
سناریوهای توضیحی؛ اگر شما جای آقای ژو بودید؟
تصور کنید ۱۰ سال از عمر خود را در یک شرکت صرف کردهاید و اکنون مدیرتان به شما میگوید: «ما یک ربات چت داریم که کار تو را بهتر، سریعتر و بدون نیاز به بیمه انجام میدهد، پس بفرمایید بیرون.» در آمریکا، شما احتمالاً باید به دنبال شغل جدیدی در اقتصاد گیگ (Gig Economy) بگردید. اما در چین، بر اساس رویههای جدید، شما میتوانید به دادگاه بروید و بگویید که شرکت «انتخاب» کرده که شما را اخراج کند، نه اینکه «مجبور» بوده باشد. این تفاوت ساده، مرز بین امنیت شغلی و سقوط به ورطه فقر در عصر دیجیتال است. این سناریوها امروزه در حال تبدیل شدن به واقعیت روزمره میلیونها کارمند یقه سفید (White-collar workers) در سراسر جهان است.
۱۲
آینده مبهم؛ حقوق کار در دنیای پسا-هوش مصنوعی
نبرد حقوقی فعلی میان چین و آمریکا تنها آغاز یک مسیر طولانی است. احتمالاً در آینده شاهد پیمانهای بینالمللی جدیدی خواهیم بود که مرزهای اخلاقی استفاده از هوش مصنوعی در محیط کار را تعیین میکنند. شاید روزی برسد که «حق کار کردن» به عنوان یک حق بنیادین بشری در برابر «حق اتوماسیون» قرار بگیرد. تا آن زمان، گیمرها، برنامهنویسان و تمام فعالان حوزه تکنولوژی باید با دقت این جنگ سرد جدید را دنبال کنند؛ زیرا نتیجه این پروندههای قضایی در پکن و هانگژو، تعیینکننده این است که آیا ما در آینده همکار هوش مصنوعی خواهیم بود یا قربانی آن.







ارسال نقد و بررسی