ومع ذلك ، هناك اختلافات كبيرة بين النهجين في العديد من الجوانب. من بين أمور أخرى ، في ظل عدم وجود عقوبات سجن إلزامية في الولايات المتحدة مقارنة بالاتحاد الأوروبي ، وفي اللامركزية الكبيرة للسلطات في الولايات المتحدة الأمريكية مقارنة بالتنظيم الأفقي في أوروبا ، أعلنت الولايات المتحدة الأمريكية في نهاية يناير 2023 عن الترويج لـ التحرك للتعامل مع الأخلاقيات في الذكاء الاصطناعي ، بعد حوالي شهرين من تحرك مماثل من قبل الاتحاد الأوروبي. قانون الذكاء الاصطناعي (AIA) للاتحاد الأوروبي ، الذي وافق عليه مجلس الاتحاد الأوروبي في 6 ديسمبر ومن المقرر أن يناقش من قبل سينظم البرلمان الأوروبي في وقت مبكر من شهر مارس تطبيقات ومنتجات وخدمات الذكاء الاصطناعي في إطار تسلسل هرمي قائم على المخاطر: كلما زادت المخاطر ، كانت القاعدة أكثر صرامة. وفي حالة الموافقة عليها ، ستكون AIA الخاصة بالاتحاد الأوروبي أول لائحة شاملة في العالم – في جميع القطاعات والتطبيقات – للذكاء الاصطناعي. على النقيض من ذلك ، لا يوجد قانون اتحادي محدد في الولايات المتحدة لتنظيم استخدام الذكاء الاصطناعي ، لكن التنظيم سيعتمد بدلاً من ذلك على القوانين والتصميمات والأطر والمعايير واللوائح الحالية التي يمكن صقلها معًا لتوجيه الاستخدام الأخلاقي للذكاء الاصطناعي. تغطي هذه الإرشادات نشاط الحكومات والمنظمات ، ولكنها لا توفر الحماية للمستهلكين الذين تعرضوا للظلم عند استخدام الذكاء الاصطناعي ضدهم. بالإضافة إلى خليط الإجراءات الفيدرالية ، تقوم الحكومات المحلية وحكومات الولايات بسن قوانين لمعالجة تحيز الذكاء الاصطناعي في التوظيف ، كما هو الحال في مدينة نيويورك وولاية كاليفورنيا بأكملها ، وفي التأمين ، كما يتضح من قانون في كولورادو. لا يوجد قانون محلي مقترح أو تم سنه يحمل أي عقوبة بالسجن. في عام 2016 ، حُكم على إريك لوميس من ولاية ويسكونسن بالسجن ست سنوات بناءً على برنامج ذكاء اصطناعي جزئيًا ، وفقًا لتقرير نُشر في صحيفة نيويورك تايمز. جادل لوميس بأن حقوقه في الإجراءات القانونية قد انتهكت لأنه لم يستطع اختبار أو تحدي خوارزمية البرنامج. يأتي التوجيه الفيدرالي من المعهد الوطني للمعايير والتكنولوجيا (NIST). تم تصميم إطار العمل التطوعي لـ NIST لمساعدة المؤسسات على إدارة مخاطر الذكاء الاصطناعي التي يمكن أن تؤثر على الأشخاص والمنظمات والمجتمع في الولايات المتحدة. يقوم الإطار بذلك من خلال دمج اعتبارات الموثوقية ، مثل قابلية التفسير وتقليل التحيز الضار ، في منتجات وخدمات وأنظمة الذكاء الاصطناعي. “في على المدى القصير ، ما نريد القيام به هو تعزيز الثقة ، “قال إلهام طباسي ، رئيس العاملين في مختبر تكنولوجيا المعلومات في المعهد الوطني للمعايير والتقنية في مقابلة مع EETIMES.” ونقوم بذلك من خلال فهم وإدارة مخاطر أنظمة الذكاء الاصطناعي بحيث يمكن أن تساعد في حماية الحريات وحقوق المواطن وتحسين السلامة مع توفير وخلق فرص للابتكار في الوقت نفسه. “على المدى الطويل ،” نتحدث عن إطار العمل كتجهيز فرق الذكاء الاصطناعي ، سواء كانوا في الأساس أشخاص يخططون أو يطورون أو ينشرون الذكاء الاصطناعي ، للتفكير حول الذكاء الاصطناعي من منظور يأخذ في الاعتبار المخاطر والآثار “، قالت ريفا شوارتز ، عالمة الأبحاث في مختبر تكنولوجيا المعلومات في المعهد الوطني للمعايير والتقنية (NIST). في أكتوبر 2022 ، أصدر البيت الأبيض خطته لميثاق حقوق الذكاء الاصطناعي ، والذي يحدد خمسة مبادئ ستوجه الاستخدام الأخلاقي للذكاء الاصطناعي: يجب أن تكون الأنظمة آمنة وفعالة ، ويجب ألا تميز الخوارزميات والأنظمة. . يجب حماية الأشخاص من ممارسات البيانات المسيئة والتحكم في كيفية استخدام بياناتهم. يجب أن تكون الأنظمة الآلية شفافة. يجب أن يكون الانسحاب من نظام الذكاء الاصطناعي لصالح التدخل البشري أحد الخيارات.
يروج الاتحاد الأوروبي والولايات المتحدة لتحركات لمعالجة أخلاقيات الذكاء الاصطناعي

اترك تعليقاً