محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی؛ نبرد تازه دولت بریتانیا با غول‌های فناوری | بازیگرها

محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی؛ نبرد تازه دولت بریتانیا با غول‌های فناوری | بازیگرها

در نیمه‌شب، نور آبی نمایشگرِ گوشی هوشمند، چهره نوجوانی را روشن کرده که انگشتش به شکلی ناخودآگاه و مداوم روی صفحه می‌لغزد؛ او در دامی افتاده که مهندسانِ ترازِ اولِ سیلیکون‌ولی (Silicon Valley) با دقت طراحی کرده‌اند تا هرگز نقطه پایانی برای تماشا پیدا نکند. این صحنه، همان «آسیبِ خاموشی» است که کی‌یر استارمر (Keir Starmer) به عنوان یک پدر و اکنون در مقام نخست‌وزیر بریتانیا، آن را هدف قرار داده است.

دولت بریتانیا با اعلام یک جنگ تمام‌عیار علیه ساختارهای اعتیادآور دیجیتال، به دنبال اجرای طرحی جامع برای محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی است که فراتر از یک توصیه اخلاقی ساده، با جریمه‌های میلیاردی و مسدودسازی پلتفرم‌ها همراه خواهد بود. نبردِ میانِ سلامتِ رَوانی نسلِ جدید و الگوریتم‌هایی که برای بلعیدنِ زمانِ آن‌ها طراحی شده‌اند، اکنون وارد فازِ حقوقیِ پیچیده‌ای شده است. از چت‌بات‌های هوش مصنوعی که ممکن است محتوایِ مشوقِ آسیب به خود تولید کنند، تا پلتفرم‌هایی که تاییدِ سِن را جدی نمی‌گیرند، همگی زیرِ ذره‌بینِ قانون قرار دارند.

۱- ریشه‌های اعتیاد دیجیتال؛ چرا مغز کودکان در برابر اسکرول بی‌پایان تسلیم می‌شود؟

برای درک ضرورت محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی، ابتدا باید به معماریِ عصبیِ مغز در سنینِ رشد نگاهی بیندازیم. سیستمِ پاداش در مغزِ نوجوانان به شدت به ترشحِ دوپامین (Dopamine) حساس است و ویژگی‌هایی مانند پیمایشِ بی‌پایان (Infinite Scrolling) دقیقاً مشابهِ ماشین‌هایِ قمار عمل می‌کنند.

در این ساختار، کاربر هیچ‌گاه نمی‌داند در حرکتِ بعدی با چه محتوایِ جذابی روبرو می‌شود و همین «پاداشِ متغیر» باعث می‌شود مغز برای یافتنِ لذتِ بعدی، فرمانِ ادامه دادن بدهد. کی‌یر استارمر در اظهاراتِ اخیر خود به این موضوع اشاره کرده که شبکه‌های اجتماعی از صفحاتِ ساده و ایستا در دو دهه پیش، به ماشین‌هایِ پیچیده‌ای تبدیل شده‌اند که برای «قلاب کردنِ» ذهنِ کودکان طراحی شده‌اند. دولت بریتانیا قصد دارد با ممنوع کردنِ ویژگی‌هایی نظیر پخشِ خودکارِ ویدیوها (Auto-play) و اسکرولِ نامحدود، این چرخه اعتیادآور را در نطفه خفه کند.


آیا می‌دانستید؟
طراحِ اصلیِ ویژگیِ پیمایشِ بی‌پایان، آزا راسکین (Aza Raskin)، بعدها از اختراعِ خود ابرازِ پشیمانی کرد و آن را به «کوکائینِ دیجیتال» تشبیه کرد که روزانه معادل ۲۰۰ هزار سال از زمانِ بشر را هدر می‌دهد.

پژوهش‌هایِ نوین در حوزه عصب‌شناسیِ رفتاری نشان می‌دهند که قشرِ پیش‌پیشانیِ مغز (Prefrontal Cortex) که مسئولِ کنترلِ تکانه و تصمیم‌گیریِ منطقی است، تا سن ۲۵ سالگی به تکاملِ کامل نمی‌رسد. به همین دلیل، انتظارِ «خودکنترلی» از یک نوجوان در برابرِ الگوریتم‌هایی که با هوشِ مصنوعیِ فوق‌پیشرفته بهینه‌سازی شده‌اند، انتظاری غیرواقع‌بینانه است.

محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی در واقع تلاشی برای ایجاد یک «سدِ حفاظتیِ بیرونی» است تا زمانی که مغزِ کودک قدرتِ دفاعِ داخلی را پیدا کند. استارمر تاکید کرده است که تکنولوژی با سرعتی سرسام‌آور در حالِ حرکت است و قوانینِ فعلی دیگر توانِ مقابله با این هجمه مهندسی‌شده را ندارند. این تغییراتِ قانونی، نه یک اقدامِ تنبیهی برای نوجوانان، بلکه یک جراحیِ ضروری برای بازگرداندنِ تعادل به زندگیِ دیجیتالِ آن‌ها محسوب می‌شود.

۲- مسدودسازی حفره‌های امنیتی در چت‌بات‌های هوش مصنوعی

هوش مصنوعی مولد (Generative AI) لایه جدیدی از خطر را به فضایِ آنلاین اضافه کرده است که تا پیش از این در قوانینِ امنیتِ سایبری پیش‌بینی نشده بود. چت‌بات‌هایی مانند گروک (Grok) یا نمونه‌هایِ مشابه، پتانسیلِ تولیدِ محتوایِ غیراخلاقی یا ارائه توصیه‌هایِ خطرناک به کودکان را دارند.

مشکلِ اساسی اینجاست که بسیاری از این مدل‌ها به جایِ جستجویِ مستقیم در وب، بر اساسِ داده‌هایِ آموزشیِ خود پاسخ می‌دهند و همین موضوع باعث شده بود تا از شمولِ برخی قوانینِ فعلی خارج بمانند. دولت بریتانیا اکنون در حالِ بستنِ این حفره حقوقی است تا تمامِ ارائه‌دهندگانِ هوش مصنوعی را مجبور کند به وظایفِ خود در قبالِ محتوایِ غیرقانونی عمل کنند. محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی شاملِ فیلترهایِ سخت‌گیرانه‌ای خواهد بود که اجازه نمی‌دهد این ابزارها محتوایِ مشوقِ اختلالاتِ تغذیه‌ای یا آسیب به خود را در اختیارِ کاربرانِ خردسال قرار دهند.

در گزارش‌هایِ اخیرِ نهادهایِ حمایتی، مواردی مشاهده شده که نوجوانان از هوش مصنوعی به عنوانِ یک مشاورِ سلامتِ روان استفاده کرده‌اند و پاسخ‌هایِ کاملاً گمراه‌کننده یا حتی خطرناک دریافت نموده‌اند. کی‌یر استارمر معتقد است که هیچ پلتفرمی نباید «چکِ سفیدِ امضا» داشته باشد و فعالیت در بریتانیا مشروط به رعایتِ بالاترین استانداردهایِ ایمنیِ طراحی (Safety by Design) خواهد بود. این رویکرد به معنایِ آن است که شرکت‌هایِ فناوری باید از همان ابتدایِ ساختِ محصول، خطراتِ احتمالی برای کودکان را پیش‌بینی و خنثی کنند. اگر شرکتی نتواند امنیتِ کاربرانِ کم‌سن را تضمین کند، با جریمه‌هایِ سنگینی روبرو خواهد شد که می‌تواند تا ۱۰ درصدِ درآمدِ کلِ سالانه آن شرکت را شامل شود؛ جریمه‌ای که برای غول‌هایی مثل اوپن‌ای‌آی (OpenAI) یا گوگل (Google) می‌تواند به میلیاردها دلار برسد.

۳- تقابل پارلمان و سیلیکون‌ولی؛ نبرد بر سر حاکمیت دیجیتال

اعلامِ محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی، جرقه یک تقابلِ جدی میانِ دولت بریتانیا و قدرتمندترین شرکت‌هایِ جهان را زده است. ایلان ماسک پیش از این در برابرِ هشدارهایِ وزرایِ بریتانیایی جبهه‌گیری کرده بود، اما عقب‌نشینیِ پلتفرمِ او در موردِ تولیدِ تصاویرِ غیراخلاقی توسط هوش مصنوعی در خاکِ بریتانیا، نشان داد که اهرم‌هایِ قانونی می‌توانند کارساز باشند. استارمر صراحتاً اعلام کرده است که اگر لازم باشد، برای حفاظت از کودکان واردِ یک مبارزه سخت با شرکت‌هایِ بزرگِ فناوری خواهد شد. این نبرد تنها بر سرِ فیلترینگ نیست، بلکه بر سرِ این است که چه کسی قوانینِ زندگیِ دیجیتال را تعیین می‌کند؛ دولت‌هایِ منتخب یا مهندسانِ ترازِ اول در کالیفرنیا؟

مخالفانِ این طرح در پارلمان، از جمله لورا تروت (Laura Trott)، معتقدند که دولت نباید به مشاوره بسنده کند و باید هرچه سریع‌تر دسترسی افرادِ زیر ۱۶ سال به این پلتفرم‌ها را ممنوع نماید. با این حال، دولتِ استارمر با احتیاطِ بیشتری حرکت می‌کند تا زیرساخت‌هایِ تاییدِ سن (Age Verification) را به گونه‌ای طراحی کند که هم حریمِ خصوصی حفظ شود و هم راهِ فراری برایِ نوجوانان باقی نماند. استفاده از شبکه‌های خصوصی مجازی (VPN) یکی از بزرگترین چالش‌ها در این مسیر است که دولت قصد دارد با همکاریِ ارائه‌دهندگانِ اینترنت، دسترسیِ غیرقانونی به محتواهایِ نامناسب را برایِ کودکان از این طریق نیز محدود کند. این اقداماتِ جامع نشان می‌دهد که بریتانیا قصد دارد به الگویی جهانی در زمینه نظارت بر فضایِ مجازی تبدیل شود.

۴- روان‌شناسی تکاملی و شکارِ توجه؛ چرا کودکان بی‌دفاع هستند؟

از منظرِ روان‌شناسیِ تکاملی، مغزِ انسان برایِ دنیایی طراحی شده است که در آن اطلاعات و پاداش‌ها کمیاب بودند. در چنین محیطی، تمایلِ سیری‌ناپذیر به دانستن و دریافتِ تاییدِ اجتماعی، یک ابزارِ بقا محسوب می‌شد. اما در عصرِ دیجیتال، پلتفرم‌ها از این غریزهِ کهن برایِ نگه داشتنِ کاربران در پلتفرمِ خود سوءاستفاده می‌کنند. محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی در واقع پاسخی به این عدمِ توازن است. کودکان به دلیلِ نداشتنِ تجربه زیسته کافی و عدمِ بلوغِ سیستم‌هایِ ترمزِ مغزی، در برابرِ این محرک‌هایِ بیش‌ازحد (Supernormal Stimuli) کاملاً بی‌دفاع هستند. آن‌ها به جایِ تعاملِ واقعی، در یک چرخهِ بی‌پایان از تاییدهایِ مجازی (Likes) و مقایسه‌هایِ اجتماعیِ مخرب گرفتار می‌شوند که نتیجه آن افزایشِ بی‌سابقهِ نرخِ افسردگی و اضطراب در میانِ نوجوانان است.

بسیاری از تحلیل‌گران معتقدند که تکنولوژیِ مدرن، به نوعی «محیطِ سمی» برایِ رشدِ ذهنِ کودک ایجاد کرده است. استارمر با تاکید بر اینکه این آسیب‌ها به صورتِ «خاموش» رخ می‌دهند، به دنبالِ آن است که مسئولیتِ سلامتِ محیطِ دیجیتال را از دوشِ والدین برداشته و بر عهدهِ شرکت‌هایِ تولیدکننده بگذارد. طبقِ پژوهش‌هایِ انجام شده، والدینی که سعی می‌کنند به تنهایی محدودیتِ دسترسیِ فرزندانشان را مدیریت کنند، اغلب با مقاومتِ شدید و تنش‌هایِ خانوادگی روبرو می‌شوند، چرا که این پلتفرم‌ها به بخشی جدایی‌ناپذیر از زیستِ اجتماعیِ همسالانِ آن‌ها تبدیل شده است. بنابراین، یک مداخلهِ قانونیِ سطحِ بالا برایِ تغییرِ قواعدِ بازی، تنها راهِ موثر برایِ شکستنِ این ساختارِ اعتیادآور به نظر می‌رسد.

۵- قانون جولز؛ وقتی داده‌های دیجیتال به کلیدِ حلِ معماهایِ مرگبار تبدیل می‌شوند

در قلبِ تپنده این تحولاتِ قانونی، روایتی انسانی و دردناک نهفته است که لزومِ محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی را بیش از هر آمارِ خشکی به رخ می‌کشد. جولز روم (Jools Roome)، نوجوانِ ۱۴ ساله‌ای که جانِ خود را در پی یک چالشِ اینترنتیِ مبهم از دست داد، به نمادی برای مبارزه علیه پنهان‌کاریِ غول‌هایِ فناوری تبدیل شده است. الن روم (Ellen Roome)، مادرِ جولز، سال‌هاست که در راهروهایِ دادگاه به دنبالِ پاسخی ساده می‌گردد: «پسرم در آخرین دقایقِ زندگی‌اش چه چیزی را در نمایشگرِ گوشی‌اش می‌دید؟». تحتِ قوانینِ فعلی، شرکت‌هایِ بزرگِ فناوری با تکیه بر پروتکل‌هایِ حریمِ خصوصی، از ارائه داده‌ها به والدینِ سوگوار خودداری می‌کنند و این اطلاعات اغلب پیش از آنکه بازپرس‌هایِ قانونی (Coroners) بتوانند اقدامی کنند، برای همیشه پاک می‌شوند.


خوب است بدانید:
طبق آمارهای حقوقی، بیش از ۷۰ درصد از خانواده‌های داغدار در بریتانیا که فرزندشان بر اثر آسیب‌های آنلاین جان باخته، به دلیل پیچیدگی‌های قانونی حاکم بر شرکت‌های سیلیکون‌ولی، هرگز موفق به دریافت سوابق دیجیتال فرزند خود نمی‌شوند.

دولتِ استارمر با گنجاندنِ «قانون جولز» در لایحه جدیدِ پلیس، قصد دارد این بن‌بستِ اخلاقی را بشکند. طبق این مصوبه، اگر احتمال داده شود که محتوایِ آنلاین با علتِ مرگِ یک کودک مرتبط است، شرکت‌هایِ فناوری موظف خواهند بود ظرفِ تنها ۵ روز، تمامیِ داده‌هایِ مربوطه را حفظ و آرشیو کنند. این اقدام، پایانی بر ماه‌ها انتظارِ بیهودهِ خانواده‌ها برایِ دریافتِ مجوزهایِ قضایی خواهد بود. محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی تنها یک لایه از این پازل است؛ لایه دوم، پاسخگو کردنِ شرکت‌ها در قبالِ ردِپایی است که از خود به جای می‌گذارند. استارمر معتقد است که شفافیت در داده‌ها، نه تنها به تسلایِ خاطرِ بازماندگان کمک می‌کند، بلکه الگوریتم‌هایِ مخربی را که محتوایِ خطرناک را به سمتِ کودکانِ آسیب‌پذیر سوق می‌دهند، رسوا خواهد کرد.

۶- تحلیلِ حفره‌هایِ فنی؛ چرا مسدود کردنِ محتوایِ نامناسب دشوار است؟

بسیاری از منتقدان می‌پرسند چرا با وجودِ پیشرفت‌هایِ خیره‌کننده در حوزه هوشِ مصنوعی، هنوز هم محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی با چالش‌هایِ ابتدایی روبروست؟ پاسخ در ماهیتِ «تولیدی» بودنِ محتوایِ جدید نهفته است. بر خلافِ گذشته که محتوا از پیش بارگذاری می‌شد، هوشِ مصنوعی مولد (Generative AI) محتوا را در لحظه و بر اساسِ تعاملِ کاربر خلق می‌کند. این موضوع باعث می‌شود که فیلترهایِ کلماتِ کلیدیِ سنتی به راحتی دور زده شوند. به عنوانِ مثال، یک چت‌بات ممکن است بدونِ استفاده از واژه‌هایِ ممنوعه، راهکارهایِ خطرناکی را برایِ آسیب به خود به صورتِ غیرمستقیم به کودک ارائه دهد. لایحه جدید دولت بریتانیا، شرکت‌ها را ملزم می‌کند تا مدل‌هایِ زبانیِ خود را به سیستم‌هایِ تشخیصِ بافت (Context-aware) مجهز کنند که فراتر از کلمات، «معنا» و «هدف» پیام را تحلیل نمایند.

علاوه بر این، استفاده از ابزارهایِ تغییرِ آی‌پی و شبکه‌های خصوصی مجازی (VPN) باعث شده است که مرزهایِ جغرافیاییِ قوانین ملی کمرنگ شوند. دولت بریتانیا در حالِ رایزنی با اپراتورهایِ شبکه و ارائه‌دهندگانِ خدماتِ ابری است تا سیستم‌هایِ تاییدِ سنِ یکپارچه‌ای را ایجاد کنند که به جایِ اتکا به اظهارِ خودِ کاربر، از روش‌هایِ بیومتریک (Biometric) یا تاییدِ هویتِ بانکی استفاده نمایند. این اقدامات اگرچه با انتقادِ فعالانِ حریمِ خصوصی روبروست، اما دولت استارمر معتقد است که در ترازویِ عدالت، امنیتِ جانِ کودکان سنگین‌تر از راحتیِ دسترسیِ بدونِ قید و بند به اینترنت است. محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی در واقع تلاشی برایِ بازگرداندنِ «نظارتِ والدگری» به فضایِ بی‌دروپیکرِ دیجیتال است.

۷- مسئولیتِ طراحان؛ گذار از سودمحوری به ایمنی‌محوری

یکی از مباحثِ کلیدی در غنی‌سازیِ این قانون، مفهومِ «مسئولیتِ محصول» (Product Liability) است. در دنیایِ فیزیکی، اگر یک اسباب‌بازی برای کودکان خطرناک باشد، به سرعت از بازار جمع‌آوری شده و شرکتِ سازنده جریمه می‌شود؛ اما در دنیایِ دیجیتال، پلتفرم‌ها سال‌ها پشتِ نقابِ «ما فقط ارائه‌دهنده بستر هستیم» پنهان شده بودند. طرحِ محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی این پارادایم را تغییر می‌دهد. از این پس، شرکت‌هایی مانند تیک‌تاک (TikTok) یا متا (Meta) نمی‌توانند ادعا کنند که مسئولیتی در قبالِ آنچه الگوریتمشان به کودک نمایش می‌دهد ندارند. اگر یک الگوریتم به طورِ مکرر محتوایِ حاویِ استانداردهایِ زیباییِ غیرواقعی یا رژیم‌هایِ غذاییِ خطرناک را به یک نوجوان نشان دهد، این به عنوانِ یک «نقصِ طراحی» شناخته خواهد شد.

لیز کندال (Liz Kendall)، وزیرِ تکنولوژی بریتانیا، تاکید کرده است که دولت قصد ندارد مانعِ نوآوری شود، بلکه می‌خواهد اطمینان حاصل کند که نوآوری به قیمتِ سلامتِ رَوانِ جامعه تمام نمی‌شود. او در گفتگوهایِ خود با مدیرانِ ارشدِ سیلیکون‌ولی صراحتاً بیان کرده است که بریتانیا آماده است تا به عنوانِ اولین کشور، پلتفرم‌هایِ متخلف را با ابزارهایِ قدرتمندی همچون مسدودسازیِ آدرس‌هایِ پروتکلِ اینترنت (IP Blocking) تنبیه کند. این تهدید، لرزه بر اندامِ مدل‌هایِ تجاریِ مبتنی بر تبلیغات می‌اندازد، چرا که بقایِ این شرکت‌ها به حضورِ حداکثریِ کاربران، به ویژه نسلِ جوان، وابسته است. محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی در این سطح، در واقع یک بازنگریِ بنیادین در قراردادِ میانِ جامعه و صنعتِ فناوری است.

۸- نقشِ جامعه و مدارس در گذار به دنیایِ دیجیتالِ ایمن

اگرچه قوانینِ دولتی ستونِ اصلیِ محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی هستند، اما بدونِ همراهیِ نهادهایِ آموزشی و مدنی، این طرح کامل نخواهد بود. دولت بریتانیا برنامه‌هایی را برایِ گنجاندنِ «سوادِ دیجیتالِ پیشرفته» در برنامه درسیِ مدارس در نظر گرفته است. هدف این است که کودکان نه تنها با خطراتِ آنلاین آشنا شوند، بلکه یاد بگیرند چگونه ترفندهایِ روان‌شناختیِ به کار رفته در اپلیکیشن‌ها را تشخیص دهند. وقتی یک نوجوان بفهمد که چرا تمایل دارد مدام گوشی‌اش را چک کند، قدرتِ بیشتری برایِ مقابله با آن پیدا خواهد کرد. این رویکردِ دوسویه (قانونِ سخت‌گیرانه برای شرکت‌ها و آموزش برای کاربران) می‌تواند اثربخشیِ طرحِ استارمر را دوچندان کند.

در این میان، نقشِ سازمان‌هایِ غیردولتی (NGOs) مانند بنیادِ مولی‌رز (Molly Rose Foundation) بسیار برجسته است. این بنیاد که پس از مرگِ مولی راسلِ ۱۴ ساله تاسیس شد، به عنوانِ بازویِ مشورتیِ دولت عمل می‌کند تا اطمینان حاصل شود که قوانینِ جدید، پاسخگویِ نیازهایِ واقعیِ خانواده‌ها هستند. محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی فراتر از یک مجادله سیاسی در پارلمان، به یک حرکتِ ملی تبدیل شده است. بسیاری از معلمان گزارش می‌دهند که کاهشِ تمرکز و افزایشِ پرخاشگری در کلاس‌هایِ درس، مستقیماً با فعالیت‌هایِ شبانه نوجوانان در فضای مجازی مرتبط است. بنابراین، موفقیتِ این طرح می‌تواند به بهبودِ کیفیتِ آموزش و سلامتِ عمومیِ نسل‌هایِ آینده منجر شود.

۹- امنیت به‌مثابه هزینه تجارت؛ رویکرد نوین بریتانیا به مسئولیت‌پذیری پلتفرم‌ها

دولت بریتانیا با اجرای طرح محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی، پیامی صریح به بازارهای جهانی مخابره کرده است: امنیت کاربران و سلامت روان کودکان، بخشی از «هزینه انجام کسب‌وکار» در این کشور محسوب می‌شود. در سال‌های گذشته، شرکت‌های فناوری با اولویت دادن به رشد سریع و جذب کاربر، استانداردهای ایمنی را به عنوان گزینه‌هایی اختیاری در نظر می‌گرفتند. اما اکنون، قوانین جدید این معادله را برعکس کرده است. هرگونه نقص در سیستم‌های تایید سن یا ناتوانی در مهار محتوای آسیب‌زا، نه تنها با جریمه‌های مالی، بلکه با تهدیدِ جدیِ قطع دسترسی به بازار بزرگ بریتانیا روبرو خواهد بود. این رویکرد، پلتفرم‌ها را مجبور می‌کند تا از مدل‌های تجاری مبتنی بر «اقتصاد توجه» (Attention Economy) فاصله گرفته و به سمت طراحی‌های اخلاق‌محور حرکت کنند.

تحلیلگران معتقدند که موفقیت بریتانیا در این مسیر، می‌تواند موجی از تغییرات مشابه را در سراسر اروپا و ایالات متحده ایجاد کند. کی‌یر استارمر با تاکید بر اینکه بریتانیا باید «رهبر و نه دنباله‌رو» باشد، در واقع در حال ترسیم مرزهای جدیدی برای حکمرانی دیجیتال در قرن بیست و یکم است. محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی در این چارچوب، تنها یک اقدام حفاظتی نیست، بلکه تلاشی برای بازپس‌گیری حاکمیت ملی از دست الگوریتم‌های فرامرزی است. این نبرد حقوقی، نشان‌دهنده بلوغ سیاسی در مواجهه با چالش‌های عصر مدرن است؛ جایی که قانون‌گذار به جای نادیده گرفتن تکنولوژی، شجاعتِ بازتعریفِ قواعدِ آن را پیدا کرده است.

منابع: + و +


یک نکته کنجکاوی‌برانگیز:
جالب است بدانید که بسیاری از مدیران ارشد شرکت‌های بزرگ فناوری در سیلیکون‌ولی، استفاده از محصولاتِ شرکتِ خودشان را برای فرزندانشان تا سنین نوجوانی ممنوع کرده یا به شدت محدود می‌کنند.

نتیجه‌گیری

محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی، فراتر از یک تغییر در تنظیماتِ فنی، یک چرخشِ بزرگ در اولویت‌هایِ تمدنیِ ماست. بریتانیا با پیش‌گامی در تصویب قوانینی نظیر «قانون جولز» و مقابله با عناصر اعتیادآور پلتفرم‌ها، نشان داد که می‌توان میان پیشرفت تکنولوژیک و صیانت از ارزش‌های انسانی تعادل برقرار کرد. اگرچه چالش‌هایی نظیر استفاده از وی‌پی‌ان یا پیچیدگی‌های فنی هوش مصنوعی مولد همچنان باقی هستند، اما ارادهِ سیاسی برای پاسخگو کردن غول‌های فناوری، اولین و مهم‌ترین گام در این مسیر است. موفقیت نهایی این طرح نه تنها در گرو جریمه‌های سنگین، بلکه در گرو همکاری نزدیک میان دولت، خانواده‌ها و نهادهای آموزشی برای بازگرداندنِ «کودکیِ واقعی» به نسل جدید در دنیایِ پرآشوبِ دیجیتال خواهد بود.

سوالات متداول (Smart FAQ)

۱. آیا استفاده از هوش مصنوعی برای انجام تکالیف مدرسه نیز محدود می‌شود؟

خیر، هدفِ اصلیِ این قوانین جلوگیری از دسترسی به محتواهایِ آسیب‌زا و اعتیادآور است، نه ابزارهای آموزشی. دولت به دنبال آن است که شرکت‌ها فیلترهای امنیتیِ دقیق‌تری روی چت‌بات‌ها اعمال کنند تا کودکان در معرض اطلاعاتِ نادرست یا خطرناک قرار نگیرند. تمرکز بر این است که هوش مصنوعی به جایِ آسیب، به یک دستیارِ ایمن برای یادگیری تبدیل شود.

۲. چگونه دولت بریتانیا متوجه دور زدنِ تاییدِ سن توسط نوجوانان می‌شود؟

دولت قصد دارد شرکت‌ها را ملزم به استفاده از تکنولوژی‌های تحلیل چهره و تایید هویتِ بیومتریک کند که ضریبِ خطای بسیار پایینی دارند. پلتفرم‌ها موظفند به صورتِ دوره‌ای گزارش‌هایِ دقیقی از اثربخشیِ سیستم‌هایِ تاییدِ سنِ خود به رگولاتورها ارائه دهند. در صورتِ اثباتِ کوتاهی در شناسایی کاربرانِ زیرِ سنِ قانونی، پلتفرم با جریمه‌های سنگین مواجه خواهد شد.

۳. آیا قانون جولز (Jools’ Law) فقط شامل شبکه‌های اجتماعی است یا پیام‌رسان‌ها را هم در بر می‌گیرد؟

این قانون به طور کلی تمام پلتفرم‌های دیجیتالی که داده‌های کاربران را ذخیره می‌کنند، از جمله پیام‌رسان‌های خصوصی، در بر می‌گیرد. طبق این مصوبه، در صورتِ درخواستِ قانونی در پرونده‌های مرگِ مشکوک، شرکت‌ها باید دسترسی به تاریخچه فعالیت را فراهم کنند. این موضوع شاملِ بررسیِ چالش‌های اینترنتی یا گروه‌هایی است که محتوایِ آسیب‌رسان منتشر می‌کنند.

۴. چرا مسدودسازی وی‌پی‌ان (VPN) برای کودکان یکی از اهداف این طرح است؟

بسیاری از نوجوانان برای دسترسی به سایت‌های غیراخلاقی یا پلتفرم‌های ممنوعه، فیلترهای محلی و تنظیماتِ والدین را با استفاده از وی‌پی‌ان دور می‌زنند. دولت بریتانیا به دنبالِ ایجادِ محدودیت‌هایی در سطحِ اپراتورهاست تا استفاده از این ابزارها توسط حساب‌هایِ کاربری متعلق به افرادِ زیر سن قانونی به حداقل برسد. این اقدام به منظورِ یکپارچه‌سازیِ سیستمِ حمایتی در تمامِ لایه‌هایِ دسترسی به اینترنت انجام می‌شود.

۵. جریمه ۱۰ درصدی از درآمد جهانی به چه معناست و چقدر سنگین است؟

این جریمه بر اساس کلِ درآمدِ سالانه شرکت در سطحِ جهان محاسبه می‌شود، نه فقط درآمدِ حاصل از بازارِ بریتانیا. برای غول‌های فناوری نظیر متا یا تیک‌تاک، این مبلغ می‌تواند به چندین میلیارد دلار برسد که به شدت سودآوری آن‌ها را تحت تاثیر قرار می‌دهد. چنین اهرمِ فشاری، شرکت‌ها را مجبور می‌کند تا امنیتِ کاربران را جدی‌تر از هر جریمهِ سمبلیکِ دیگری دنبال کنند.

۶. تفاوت میان «پیمایش بی‌پایان» و «پیمایش معمولی» چیست؟

در پیمایش معمولی، کاربر پس از مدتی به انتهای صفحه یا دکمه «صفحه بعد» می‌رسد که یک وقفه ذهنی ایجاد می‌کند، اما در پیمایش بی‌پایان، محتوا به صورتِ مداوم و بدونِ وقفه بارگذاری می‌شود. این تکنیک باعث می‌شود مغز متوجه گذشتِ زمان نشود و در یک حالتِ خلسه‌مانند به تماشایِ محتوا ادامه دهد. دولت قصد دارد با اجباری کردنِ وقفه‌هایِ بصری، از بروز این حالتِ اعتیادآور جلوگیری کند.

۷. آیا این قوانین باعث نقضِ حریمِ خصوصیِ کاربرانِ بزرگسال نمی‌شود؟

این یکی از چالش‌برانگیزترین بخش‌های طرح است و دولت تاکید دارد که سیستم‌های تایید سن باید از روش‌هایِ حفظِ حریمِ خصوصی (Privacy-preserving) استفاده کنند. در این روش‌ها، هویتِ واقعیِ فرد فاش نمی‌شود و سیستم فقط تایید می‌کند که آیا کاربر بالایِ ۱۸ سال است یا خیر. هدف، ایجادِ تعادل میانِ امنیتِ کودکان و آزادی‌هایِ دیجیتالِ بزرگسالان است.

۸. والدین چگونه می‌توانند در اجرایِ محدودیت دسترسی کودکان به شبکه‌های اجتماعی نقش داشته باشند؟

قوانینِ دولتی زیرساخت را فراهم می‌کنند، اما نظارتِ فعالِ والدین و گفتگو درباره خطراتِ فضایِ مجازی همچنان حیاتی است. والدین باید از ابزارهایِ کنترلِ والدگری (Parental Control) که پلتفرم‌ها موظف به ارائه آن‌ها شده‌اند، به طورِ مستمر استفاده کنند. آموزشِ سوادِ رسانه‌ای به فرزندان در کنارِ این قوانین، بهترین سدِ دفاعی در برابرِ آسیب‌هایِ آنلاین خواهد بود.

تجربه شما از امنیتِ فرزندانتان در فضایِ مجازی چیست؟

به نظر شما محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی چقدر می‌تواند در کاهشِ استرس و اضطرابِ نوجوانان موثر باشد؟ آیا شما هم با چالشِ دور زدنِ تاییدِ سن توسط فرزندانتان روبرو شده‌اید؟ نظرات و تجربیاتِ ارزشمندِ خود را در بخشِ دیدگاه‌ها با ما در میان بگذارید تا دیگر والدین نیز از راهکارهایِ شما بهره‌مند شوند.

محدودیت دسترسی کودکان به شبکه‌های اجتماعی و هوش مصنوعی؛ نبرد تازه دولت بریتانیا با غول‌های فناوری | بازیگرها

دکتر علیرضا مجیدی

پزشک، نویسنده و بنیان‌گذار وبلاگ «بازیگرها»

دکتر علیرضا مجیدی، نویسنده و بنیان‌گذار وبلاگ «بازیگرها».
با بیش از ۲۰ سال نویسندگی «ترکیبی» مستمر در زمینهٔ پزشکی، فناوری، سینما، کتاب و فرهنگ.
باشد که با هم متفاوت بیاندیشیم!