چین بهدنبال رهبری مقررات جهانی هوش مصنوعی
به گزارش صنایع نو نشریه نیچر به قلم «الیزابت گیبنی» نوشت: با وجود خطراتی که از تشدید نابرابری گرفته تا ایجاد بحرانهای وجودی را شامل میشود، جهان هنوز به توافقی برای مقرراتگذاری هوش مصنوعی دست پیدا نکرده است. اگرچه مجموعهای پراکنده از قوانین ملی و منطقهای وجود دارد، اما بسیاری از کشورها هنوز در حال تدوین مقررات الزامآور هستند.
در ماه اکتبر، شی جینپینگ رئیسجمهور چین در نشست «همکاری اقتصادی آسیا-پاسیفیک (APEC)» بار دیگر پیشنهاد کشورش برای ایجاد نهادی با نام «سازمان همکاری جهانی هوش مصنوعی» (WAICO) را مطرح کرد؛ نهادی که قرار است کشورها را برای حرکت بهسوی یک نظام حکمرانی جهانی بر هوش مصنوعی گرد هم آورد.
تفاوت اکوسیستم هوش مصنوعی چین با سایر کشورها چیست؟
در چین، شرکتها با تشویق دولت معمولاً مدلهای خود را با «وزنهای باز» منتشر میکنند؛ یعنی مدلها قابل دانلود و توسعه هستند. برخلاف کشورهای غربی که بیشتر دنبال ساخت ماشینهایی در سطح هوش عمومی مصنوعی هستند، چین تمرکز خود را بر استفاده کاربردی از هوش مصنوعی برای رشد اقتصادی گذاشته است. نمونه بارز این رویکرد، سیاست «+AI» است که در ماه اوت معرفی شد.
چین چگونه به مقرراتگذاری هوش مصنوعی نزدیک میشود؟
چین از سال ۲۰۲۲ از نخستین کشورهایی بود که مقررات اختصاصی هوش مصنوعی وضع کرده است. این کشور قوانین گستردهای درباره محتوای مضر، حریم خصوصی و امنیت داده دارد. توسعهدهندگان ابزارهای عمومی مبتنی بر هوش مصنوعی باید قبل از انتشار، سیستم خود را در اختیار ناظران چینی قرار دهند.
به گفته پژوهشگران، مدلهای مشهوری مانند DeepSeek — که در سال جاری با مدل R1 خبرساز شد — «از جمله تحتنظارتترین مدلهای جهان» هستند. با این حال، نهادهای چینی معمولاً اجرای این مقررات را با نرمی بیشتری پیش میبرند.
در مقابل، ایالات متحده هیچ قانون جامع فدرالی برای هوش مصنوعی ندارد و حتی دولت ترامپ در ژانویه یک دستور اجرایی مرتبط با ایمنی هوش مصنوعی را لغو کرد. اتحادیه اروپا رویکردی مبتنی بر «سطحبندی ریسک» دارد و بریتانیا نیز قوانین جامع هوش مصنوعی را فعلاً به تعویق انداخته است.
چه مقررات بینالمللیای در زمینه هوش مصنوعی وجود دارد؟
تقریباً هیچ.
تنها قانون بینالمللی الزامآور، «کنوانسیون چارچوب هوش مصنوعی» است که شورای اروپا در مه ۲۰۲۴ تصویب کرد. این معاهده کشورها را ملزم میکند اصولی کلی — مانند رعایت حقوق بشر — را در قوانین داخلی خود اعمال کنند. اما هیچ سازوکار تنبیهی یا نهادی برای اجرای آن وجود ندارد.
در سطح جهانی نیز توافقهای غیرالزامآور متعددی وجود دارد؛ مانند:
* توصیهنامه اخلاق هوش مصنوعی یونسکو
* اصول هوش مصنوعی OECD
* بیانیه بلچلی (۲۰۲۳)
سازمان ملل نیز یک فرآیند گفتوگو و یک پنل علمی برای هدایت کشورها ایجاد کرده است.
چین چه طرحی ارائه کرده است؟
WAICO قرار است بستری برای هماهنگی مقررات کشورها باشد؛ در حالی که «بهطور کامل تفاوتهای سیاستی و فرهنگی کشورها» را محترم میشمارد و از کشورهای جنوب جهانی حمایت میکند. چین پیشنهاد داده است مقر این سازمان در شانگهای باشد، اما جزئیات دیگر هنوز مبهم است.
اگرچه به نظر نمیرسد WAICO نهادی الزامآور باشد، اما میتواند گامی برای همگرایی تدریجی کشورها حول یک چارچوب مشترک باشد. به گفته کارشناسان، این ابتکار برای چین هم جنبه اقتصادی دارد (تسهیل صدور استانداردهای چینی به جهان) و هم جنبه دیپلماتیک (تقویت رهبری چین بین کشورهای جنوب).
یک نظام جهانی حکمرانی هوش مصنوعی چه شکلی خواهد داشت؟
پاسخ مشخصی وجود ندارد.
کارشناسان هوش مصنوعی معمولاً آن را با حوزههایی مانند انرژی هستهای مقایسه میکنند — که ترکیبی از استانداردهای غیرالزامآور و معاهدات الزامآور دارد — یا حتی مدلی مشابه CERN که کشورها در آن بهطور مشترک به توسعه پیشرفتهترین فناوریها میپردازند. مدل دیگری شبیه «سازمان بینالمللی هوانوردی غیرنظامی» است که استانداردهایی وضع میکند که بعداً در قوانین داخلی کشورها اعمال میشود.
با این حال، هوش مصنوعی «بهراحتی در قالب مدلهای حکمرانی گذشته نمیگنجد»؛ زیرا فناوریای چندمنظوره، سریعالتطور و عمدتاً تحت هدایت بخش خصوصی است.
آیا امکان رسیدن به یک نظام جهانی مشترک بهزودی وجود دارد؟
به دلیل رقابت ژئوپلیتیکی آمریکا و چین برای تسلط بر هوش مصنوعی، ایجاد هرگونه توافق محدودکننده بینالمللی «بسیار دشوار» است.
از زمان بیانیه بلچلی، تمرکز بر ایمنی هوش مصنوعی در نشستهای بعدی (سئول، پاریس) کاهش یافته و کانالهای همکاری دولتها نیز ضعیفتر شده است. سازمان ملل بهترین بستر برای همکاری گسترده است، اما با چالشهایی مانند کمبود منابع و روندهای بسیار کند روبهروست.
با این حال، استانداردهای مشترک حتی بدون توافقات الزامآور نیز میتوانند شکل بگیرند. WAICO میتواند نقش مهمی در ایجاد فهم مشترک از خطرات و ظرفیتهای هوش مصنوعی داشته باشد یا کشورها را به توافق بر خطوط قرمزی در توسعه این فناوری برساند.
نمونههای تاریخی مانند کنوانسیون ایمنی هستهای نشان میدهد که پیشرفت مقررات معمولاً پس از وقوع بحرانها شتاب میگیرد.
اما، به گفته کارشناسان: «در حوزه هوش مصنوعی وظیفه ما این است که از بحران پیشی بگیریم — قبل از آنکه اتفاق بیفتد.»
نظرات کاربران
هنوز نظری ثبت نشده است.