في أوروبا ، هناك خوف من إساءة استخدام التكنولوجيا ، وذلك للتأثير بشكل أساسي على الرأي العام ، أو للمساعدة في تزوير المحتوى ، أو نشر أخبار كاذبة ، أو لمجرد الاحتيال. وقال رئيس شركة مايكروسوفت التي أعلنت أنها ستستثمر 10 مليارات دولار في شركة OpenAI: “التنظيم في مجال الذكاء الاصطناعي يجب أن يركز على التطبيقات عالية الخطورة فقط” ومن المتوقع أن تقدم المفوضية الأوروبية هذا العام لائحة مصممة للمراقبة استخدام أنظمة الذكاء الاصطناعي العامة (AI) – مثل ChatGPT ، والمناقشات حول موضوع الزعيم Tyree Burton ، مفوض السوق الداخلية في الاتحاد الأوروبي – بما يعادل وزير الاقتصاد في القارة. وبحسبه فإن التشريع المزمع سيكون بمثابة حل لكل من يخشى مخاطر أنظمة الذكاء الاصطناعي. تعتبر قواعد الاتحاد الأوروبي دائمًا الأكثر صرامة ، خاصة في مجالات التكنولوجيا والرقمية. على سبيل المثال ، أنشأ الاتحاد معيار تنظيم الخصوصية بناءً على قوانين القانون العام لحماية البيانات (GDPR). نظرًا لأن اللائحة إلزامية لأي خدمة تقدم سلعها إلى مواطن أوروبي – حتى لو لم يكن يعيش فعليًا في القارة – فإن النتيجة هي أن هذه القواعد التنظيمية قد تم تكرارها في جميع أنحاء العالم. إن طموح أوروبا في توفير البنية التحتية القانونية الأولى لتقنيات الذكاء الاصطناعي ليس مفاجئًا. معظم الشركات التي تطور الذكاء الاصطناعي هي شركات أمريكية أو صينية ، وفي أوروبا تخشى إساءة استخدام هذه التكنولوجيا ، وذلك للتأثير بشكل أساسي على الرأي العام على سبيل المثال. أعرب العديد من الخبراء عن قلقهم من احتمال إساءة استخدام هذه الأنظمة بسهولة نسبيًا – مثل المساعدة في تزوير المحتوى أو نشر الأخبار المزيفة أو مجرد الاحتيال. أشار بيرتون إلى ChatGPT كمثال على مثل هذا النظام وقال إن دخوله إلى الاستخدام العام يوضح الحاجة الملحة للتشريع التنظيمي. بالطبع ، التشريع الذي ذكره هو نفسه الذي قدمه العام الماضي كأساس للمناقشات حول الموضوع. لكن بيرتون ليس مبتدئًا في هذا المجال. شغل لسنوات عديدة منصب الرئيس التنفيذي لشركات التكنولوجيا الكبرى ، بما في ذلك Orange France أو شركة خدمات الكمبيوتر العملاقة Atos أو Thomson-RCA. لذلك فهو يفهم تمامًا قدرات أنظمة الذكاء الاصطناعي. كما أنه على دراية كبيرة بسوق التكنولوجيا وعقلية شركات التكنولوجيا الأمريكية الكبيرة التي لا تتردد في إنتاج الأنظمة أولاً وبعد ذلك فقط يفكر في كيفية مراقبتها لمنع إساءة الاستخدام. في المرحلة الحالية ، لا تزال القواعد التي اقترحها بارتون قيد المناقشة وليس من الواضح كم منها سيصل إلى التشريع النهائي. وقال بيرتون لرويترز: “كما نرى مع ChatGPT ، يمكن لحلول الذكاء الاصطناعي أن توفر فرصًا هائلة للشركات والمواطنين ، لكنها تشكل أيضًا تهديدًا. ولهذا السبب يجب أن يكون لدينا إطار تنظيمي لضمان ذكاء اصطناعي موثوق يعتمد على بيانات عالية الجودة”. بيان الليلة الماضية (الجمعة). في كلماته ، يشير بيرتون إلى الطريقة التي يتم بها “تدريب” أنظمة الذكاء الاصطناعي أو تعلم مهاراتها. بالنسبة للجزء الأكبر ، سيعتمد المطورون على قواعد بيانات ضخمة متاحة على الشبكة و / أو على استخدام الأنظمة من قبل متصفحي الشبكة. أي أنه في كل مرة يستخدم فيها شخص ما ، على سبيل المثال ، ChatGPT لإنشاء نص له أو لـ Dall-E لرسم قطة له ، فهو في الواقع يساعد في تدريب النظام وتعليمه لتقديم إجابات أكثر موثوقية لطلبات المستخدمين. شكل من أشكال التعهيد الجماعي. تعد جودة البيانات التي يعتمد عليها المطورون أمرًا بالغ الأهمية. أظهرت العديد من الدراسات أنه إذا كان الذكاء الاصطناعي يستخدم بيانات متحيزة – وكلها تقريبًا تستخدم – فسيقدم إجابات أو ردودًا وفقًا لذلك. على سبيل المثال ، أظهرت أنظمة الذكاء الاصطناعي المستخدمة في الولايات المتحدة لتحديد المشتبه بهم في جرائم العنف تحيزًا داخليًا لتحديد السود أو اللاتينيين كمشتبه بهم فوريين. وغني عن القول ، تم تقليل استخدام هذه الأنظمة بشكل كبير في الولايات المتحدة في السنوات الأخيرة ، على الرغم من أنها لم تختف تمامًا. يمكن استخدام نظام الذكاء الاصطناعي ، على سبيل المثال ، لتصفية المرشحين لوظيفة أو تحديد التصنيف الائتماني. قد تؤدي البيانات المتحيزة أيضًا إلى تحيز المتقدمين أو التصنيف الائتماني. ومن هنا الخطر. ومع ذلك ، فإن العديد من الشركات التي تطور الذكاء الاصطناعي تشعر بقلق بالغ من أن التنظيم قد يضر بتطوراتها. خاصة إذا تم تصنيف التطورات على أنها أنظمة عالية المخاطر. الأمر الذي سيؤدي إلى احترام اللائحة الخاصة بهم. قالت حوالي 51٪ من الشركات العاملة في هذا المجال إنها تتوقع تباطؤًا في تطوراتها إذا تم تمرير مثل هذا التنظيم. كتب رئيس مايكروسوفت براد سميث في منشور نشره على مدونة الشركة يوم الأربعاء الماضي: “يجب أن تركز اللوائح في مجال الذكاء الاصطناعي على التطبيقات عالية الخطورة فقط”. كتب سميث: “هناك أيام أشعر فيها بالتفاؤل ولحظات من التشاؤم بشأن استخدام البشرية للذكاء الاصطناعي”. ليس من المستغرب أنه تناول هذه القضية. استثمرت Microsoft بالفعل مليار دولار في OpenAI ومن المتوقع أن تستثمر 10 مليارات دولار أخرى في السنوات القادمة. كما أعلنت الشركة منذ فترة طويلة أنها ستدمج هذه التقنية في منتجاتها المختلفة مثل محرك بحث Bing أو مجموعة Office 365. ومن جانبه ، يريد Burton الشفافية بشكل أساسي. وقال: “يجب أن يكون الناس على دراية بالتحدث إلى الذكاء الاصطناعي وليس إلى الإنسان ، فالشفافية أساسية أيضًا للكشف عن مخاطر التحيز أو المعلومات المزيفة”. القصد من ذلك هو أن نماذج الذكاء الاصطناعي يجب أن يتم تدريبها على أساس قواعد بيانات متنوعة. ولكن بخلاف الخوف من التزوير ، هناك أيضًا مخاوف من انتهاك حقوق النشر ، على سبيل المثال باستخدام المصنفات المحمية لتدريب أو تعليم الذكاء الاصطناعي. هل استخدام علامة مسجلة للتدريب أمر معقول؟ بدأت الشركات اليوم بالفعل في رفع دعاوى قضائية ضد خدمات الذكاء الاصطناعي التي تعتقد أنها تنتهك حقوق ملكيتها على علامة تجارية أو تقنية أو أي علامة مسجلة أخرى. هذه قضية أكثر صعوبة بكثير لحلها ، وأشار بارتون إلى أنه من المحتمل أن يناقشها المشرعون الأوروبيون قريبًا. أخيرًا ، سيحاول التشريع الأوروبي أيضًا تنظيم استخدام الذكاء الاصطناعي للدراسات أو التدريب. أعلنت المدارس الحكومية في الولايات المتحدة وكذلك الجامعات الرائدة في فرنسا وأوروبا بالفعل عن حظر استخدام ChatGPT من قبل الطلاب أو الطلاب. والمخشى هو أن يتم استخدام النظام لإعداد الأوراق أو الإجابة على الامتحانات. بالإضافة إلى استخدام قد يؤدي الذكاء الاصطناعي بهذه الطريقة إلى الانتحال ، أي أن النظام يقدم إجابة تستند إلى محتوى محمي ، على سبيل المثال ، قد يتضمن الباحث الذي يحاول استخدام ChatGPT لكتابة مقال محتوى سينسخه النظام ببساطة من المقالات الأخرى التي كانت تستخدم للتدريب.
الاتحاد الأوروبي مقابل ChatGPT: لجنة اقتراح إطار تنظيمي لاستخدام الذكاء الاصطناعي | حاسبة

اترك تعليقاً