🇺🇸 لوائح الذكاء الاصطناعي في الولايات المتحدة

المناهج الفيدرالية ومناهج الولايات في حوكمة الذكاء الاصطناعي

المشهد التنظيمي

على عكس قانون الذكاء الاصطناعي الشامل للاتحاد الأوروبي، تتبنى الولايات المتحدة نهجاً أكثر تجزئة وخاصاً بقطاعات محددة لتنظيم الذكاء الاصطناعي. تضع الأوامر التنفيذية الفيدرالية مبادئ واسعة، بينما تقوم الولايات الفردية بتطوير قوانينها الخاصة بالذكاء الاصطناعي.

النهج: تنظيم خفيف، أطر عمل طوعية، قواعد خاصة بقطاعات معينة، وابتكار على مستوى الولايات.

الإطار الفيدرالي

الأمر التنفيذي 14110 (أكتوبر 2023)

يضع الأمر التنفيذي للرئيس بايدن بشأن "الذكاء الاصطناعي الآمن والمأمون والجدير بالثقة" معايير جديدة لسلامة الذكاء الاصطناعي وأمانه.

الأحكام الرئيسية:

  • 🔒
    اختبارات السلامة: يجب على الشركات التي تطور نماذج أساسية مشاركة نتائج اختبارات السلامة مع الحكومة قبل الإصدار العام
  • 🏷️
    مصادقة المحتوى: وضع علامات مائية وتصنيف للمحتوى الذي ينتجه الذكاء الاصطناعي
  • 🛡️
    البنية التحتية الحيوية: معايير أمن سيبراني معززة لأنظمة الذكاء الاصطناعي في البنية التحتية الحيوية
  • ⚖️
    الحقوق المدنية: الحماية من التمييز الخوارزمي في مجالات مثل الإسكان والتوظيف والعدالة الجنائية
  • 🔬
    البحث والتطوير: تسريع البحث والتطوير في الذكاء الاصطناعي لصالح الجمهور
  • 👷
    القوى العاملة: دعم العمال المتأثرين بالأتمتة بواسطة الذكاء الاصطناعي

مبادرات فيدرالية أخرى

  • إطار إدارة مخاطر الذكاء الاصطناعي من NIST (2023): إطار طوعي لإدارة مخاطر الذكاء الاصطناعي عبر القطاعات
  • وثيقة حقوق الذكاء الاصطناعي (2022): مخطط لبناء واستخدام أنظمة الذكاء الاصطناعي التي تحمي الحقوق المدنية والقيم الديمقراطية
  • مذكرة OMB للذكاء الاصطناعي (2024): إرشادات للوكالات الفيدرالية حول اقتناء واستخدام الذكاء الاصطناعي
  • إرشادات FTC للذكاء الاصطناعي: إجراءات إنفاذ ضد ادعاءات الذكاء الاصطناعي المضللة والخوارزميات التمييزية

اللوائح على مستوى الولايات

تقود الولايات الفردية تنظيم الذكاء الاصطناعي في مجالات محددة، مما يخلق فسيفساء من المتطلبات.

🌴 كاليفورنيا

الولاية الأكثر نشاطاً في تنظيم الذكاء الاصطناعي

  • AB 2013 (2024): الإفصاح عن المحتوى المُنتج بالذكاء الاصطناعي في الإعلانات السياسية
  • SB 1047 (مقترح): متطلبات السلامة لنماذج الذكاء الاصطناعي المتقدمة
  • CPRA: حقوق اتخاذ القرارات الآلية بموجب قانون الخصوصية
  • AB 331: الإفصاح عن استخدام الذكاء الاصطناعي في قرارات التوظيف

🗽 نيويورك

التركيز على التوظيف والتمييز

  • القانون المحلي 144 (2023): عمليات تدقيق التحيز لأدوات قرارات التوظيف الآلية في مدينة نيويورك
  • تشريع مقترح: متطلبات الشفافية والمساءلة للذكاء الاصطناعي
  • قطاع التعليم: إرشادات استخدام الذكاء الاصطناعي في المدارس

🌲 كولورادو

التركيز على حماية المستهلك

  • SB 24-205 (2024): متطلبات التمييز الخوارزمي للذكاء الاصطناعي
  • تقييمات الأثر: إلزامية لأنظمة الذكاء الاصطناعي عالية المخاطر
  • حقوق المستهلك: الحق في رفض القرارات المدفوعة بالذكاء الاصطناعي

🦞 فيرمونت

شفافية وسطاء البيانات

  • H.410 (2024): الإفصاح عن استخدام الذكاء الاصطناعي من قبل وسطاء البيانات
  • التنميط الآلي: متطلبات إخطار المستهلك

🌵 يوتا

نهج بيئة الاختبار التنظيمية

  • قانون سياسة الذكاء الاصطناعي (2024): متطلبات الإفصاح للذكاء الاصطناعي التوليدي
  • التزييف العميق: تجريم محتوى التزييف العميق الضار
  • بيئة الابتكار التجريبية: بيئة اختبار لشركات الذكاء الاصطناعي

🌸 فرجينيا

حماية بيانات المستهلك

  • تعديلات VCDPA: حقوق الانسحاب من اتخاذ القرارات الآلية
  • قيود التنميط: قيود على بعض المعالجة الآلية

التنظيم الخاص بقطاعات معينة

الرعاية الصحية (FDA، HHS)

الأجهزة الطبية القائمة على الذكاء الاصطناعي/التعلم الآلي منظمة كبرمجيات كجهاز طبي (SaMD)

الخدمات المالية (SEC، CFPB، الاحتياطي الفيدرالي)

الإشراف على التداول الخوارزمي، الامتثال للإقراض العادل، إدارة مخاطر النماذج

النقل (NHTSA، FAA)

معايير سلامة المركبات ذاتية القيادة، اعتماد أنظمة الذكاء الاصطناعي في الطيران

التوظيف (EEOC)

إنفاذ مكافحة التمييز لأدوات التوظيف والإدارة بالذكاء الاصطناعي

حماية المستهلك (FTC)

ادعاءات الذكاء الاصطناعي المضللة، التمييز الخوارزمي، متطلبات أمن البيانات

التنظيم الذاتي للصناعة

التزمت شركات الذكاء الاصطناعي الكبرى بتدابير سلامة طوعية من خلال تعهدات البيت الأبيض (يوليو 2023):

التزامات السلامة

  • • اختبار الأمن الداخلي والخارجي قبل الإصدار
  • • تبادل المعلومات حول مخاطر الذكاء الاصطناعي
  • • الاستثمار في الأمن السيبراني وحماية التهديدات الداخلية

تدابير الشفافية

  • • وضع علامات مائية على المحتوى المُنتج بالذكاء الاصطناعي
  • • التقارير العامة حول قدرات وقيود الذكاء الاصطناعي
  • • آليات الإفصاح عن الثغرات

الاختلافات الرئيسية عن النهج الأوروبي

قانون الذكاء الاصطناعي للاتحاد الأوروبي

  • ✓ تنظيم أفقي شامل
  • ✓ متطلبات إلزامية قائمة على المخاطر
  • ✓ عقوبات كبيرة (حتى 7% من حجم الأعمال)
  • ✓ تقييمات المطابقة قبل الطرح في السوق
  • ✓ إنفاذ مركزي

النهج الأمريكي

  • ✓ قواعد خاصة بالقطاعات وعلى مستوى الولايات
  • ✓ أطر عمل وإرشادات طوعية
  • ✓ تطبيق القوانين الموجودة على الذكاء الاصطناعي (قانون FTC، إلخ)
  • ✓ التركيز على الإنفاذ بعد الطرح في السوق
  • ✓ لا مركزي (فيدرالي + 50 ولاية)

آخر تحديث: