أبرزها ChatGPT.. الجهات التنظيمية تكبح جماح أنظمة الذكاء الاصطناعي
تواجه أدوات الذكاء الاصطناعي التوليدية الخصوصية وحقوق النشر وتحديات أخرى
مع تسارع السباق لتطوير خدمات ذكاء اصطناعي أكثر قوة مثل ChatGPT، يعتمد بعض المنظمين على قوانين قديمة للسيطرة على تقنية يمكن أن تقلب الطريقة التي تعمل بها المجتمعات والشركات.
فيديو ذات صلة
This browser does not support the video element.
صياغة قواعد جديدة للذكاء الاصطناعي
يحتل الاتحاد الأوروبي موقع الصدارة في صياغة قواعد جديدة للذكاء الاصطناعي يمكن أن تضع معياراً عالمياً لمعالجة مخاوف الخصوصية والسلامة التي نشأت مع التقدم السريع في تقنية الذكاء الاصطناعي التوليدية وراء ChatGPT الخاصة بـ OpenAI، وفقاً لتقرير حديث لوكالة رويترز.
لكن التشريع سيستغرق عدة سنوات حتى يتم تطبيقه، حيث يقول ماسيميليانو سيمناغي، خبير حوكمة البيانات الأوروبي في شركة BIP الاستشارية: «في غياب اللوائح، فإن الشيء الوحيد الذي يمكن للحكومات فعله هو تطبيق القواعد الحالية».
وتابع: «إذا كان الأمر يتعلق بحماية البيانات الشخصية، فإنهم يطبقون قوانين حماية البيانات، وإذا كان يمثل تهديداً لسلامة الأشخاص، فهناك لوائح لم يتم تحديدها على وجه التحديد للذكاء الاصطناعي، لكنها لا تزال سارية».
انتهاك الخصوصية
في أبريل، شكل مراقبو الخصوصية الوطنيون في أوروبا فريق عمل لمعالجة المشكلات مع ChatGPT بعد أن أصدرت هيئة حماية بيانات الإيطالية غارانتيGarante قراراً بإيقاف الخدمة، متهمة شركة OpenAI بانتهاك اللائحة العامة لحماية البيانات في الاتحاد الأوروبي، وهو نظام خصوصية واسع النطاق تم سنه في عام 2018.
تمت إعادة ChatGPT بعد أن وافقت الشركة الأمريكية على تثبيت ميزات التحقق من العمر والسماح للمستخدمين الأوروبيين بحظر استخدام معلوماتهم لتدريب نموذج الذكاء الاصطناعي.
ووفقاً للوكالة الإخبارية، قال مصدر مقرب من غارانتي إن الهيئة ستبدأ في فحص أدوات الذكاء الاصطناعي التوليدية الأخرى على نطاق أوسع. كما أطلقت سلطات حماية البيانات في فرنسا وإسبانيا في أبريل تحقيقات في امتثال OpenAI لقوانين الخصوصية.
جلب الخبراء
أصبحت النماذج التوليدية للذكاء الاصطناعي معروفة بارتكاب الأخطاء أو «الهلوسة»، حيث تنشر معلومات مضللة بيقين غير عادي.
مثل هذه الأخطاء يمكن أن يكون لها عواقب وخيمة. إذا استخدم بنك أو إدارة حكومية الذكاء الاصطناعي لتسريع عملية اتخاذ القرار، فقد يتم رفض الأفراد بشكل غير عادل للحصول على قروض أو مدفوعات مزايا.
في هذا الصدد، توقفت شركات التكنولوجيا الكبرى بما في ذلك ألفابت، الشركة الأم لقوقل، وكذلك مايكروسوفت كورب، عن استخدام منتجات الذكاء الاصطناعي التي تعتبر مشبوهاً من الناحية الأخلاقية، مثل المنتجات المالية.
تهدف الجهات التنظيمية إلى تطبيق القواعد الحالية التي تغطي كل شيء بدءاً من حقوق النشر وخصوصية البيانات إلى مسألتين رئيسيتين: البيانات التي يتم إدخالها في النماذج والمحتوى الذي تنتجه، وفقاً لستة هيئات تنظيمية وخبراء في الولايات المتحدة وأوروبا.
وقال سوريش فينكاتاسوبرامانيان، مستشار التكنولوجيا السابق للبيت الأبيض، إنه يتم تشجيع الوكالات في المنطقتين على «تفسير وإعادة تفسير تفويضاتها». واستشهد بالتحقيق الذي أجرته لجنة التجارة الفيدرالية الأمريكية (FTC) بشأن خوارزميات الممارسات التمييزية بموجب السلطات التنظيمية الحالية.
في الاتحاد الأوروبي، ستجبر المقترحات الخاصة بقانون الذكاء الاصطناعي الخاص بالكتلة شركات مثل OpenAI على الكشف عن أي مواد محمية بحقوق الطبع والنشر - مثل الكتب أو الصور الفوتوغرافية - تُستخدم لتدريب نماذجها، مما يجعلها عرضة للتحديات القانونية.
لن يكون إثبات انتهاك حقوق النشر أمراً مباشراً، وفقاً لسيرجي لاغودينسكي، أحد السياسيين العديدين المشاركين في صياغة مقترحات الاتحاد الأوروبي.
يقول لاغودينسكي: «إن الأمر أشبه بقراءة مئات الروايات قبل أن تكتب رواياتك، إذا نسخت شيئاً ما ونشرته بالفعل، فهذا شيء واحد. ولكن إذا لم تكن تسرق بشكل مباشر مادة تخص شخصاً آخر، فلا يهم ما تدربت عليه بنفسك».
التفكير الإبداعي
بدأت هيئة تنظيم البيانات الفرنسية CNIL التفكير بشكل خلاق حول كيفية تطبيق القوانين الحالية على الذكاء الاصطناعي، وفقاً لبرتراند بيلهيز، رائد التكنولوجيا لديها.
تدرس المنظمة استخدام أحد أحكام القانون العام لحماية البيانات (GDPR) الذي يحمي الأفراد من اتخاذ القرار الآلي.
شاهد أيضاً: النصائح حول كيف تكتشف صور الذكاء الاصطناعي
وقال بيلهيز: «في هذه المرحلة، لا أستطيع أن أقول ما إذا كان ذلك كافياً من الناحية القانونية. سوف يستغرق الأمر بعض الوقت لبناء رأي، وهناك خطر من أن المنظمين المختلفين سوف يتخذون وجهات نظر مختلفة».
في بريطانيا، تعد سلطة معهد السلوك المالي واحدة من العديد من الهيئات التنظيمية الحكومية التي تم تكليفها بوضع مبادئ توجيهية جديدة تغطي الذكاء الاصطناعي. وقال متحدث باسم المعهد إنه يتشاور مع معهد آلان تورينغ في لندن، إلى جانب مؤسسات قانونية وأكاديمية أخرى، لتحسين فهمه للتكنولوجيا.