الفوضى الرقمية أم الحوكمة الذكية؟ مستقبل تنظيم الذكاء الاصطناعي

230
عبدالله خالد شروني

عبدالله خالد شروني

مستشار قانوني

• في ظل التسارع غير المسبوق لتقنيات الذكاء الاصطناعي وتغلغلها في مختلف مناحي الحياة، بات التساؤل حول كيفية تنظيم هذا المجال مسألة ملحة. فبين المخاوف من الاستخدامات غير الأخلاقية أو الخطيرة، والفرص الهائلة التي يوفرها لتطوير المجتمعات والاقتصادات، يقف العالم عند مفترق طرق: إما الانزلاق نحو فوضى رقمية يصعب احتواؤها، أو التوجه نحو حوكمة ذكية توازن بين الابتكار والمسؤولية.

يهدف هذا المقال إلى استعراض أبرز التوجهات الدولية لتنظيم الذكاء الاصطناعي، وتحليل الفجوات القائمة، واقتراح أطر تنظيمية فعالة تواكب طبيعة هذه التكنولوجيا المتطورة.

تباينت التشريعات المنظمة للبيانات والذكاء الاصطناعي بين أنظمة إلزامية تفرض غرامات مالية كبيرة، وأخرى استرشادية تهدف بالأساس إلى الحفاظ على المبادئ والسلوكيات المجتمعية بما يتلاءم مع مختلف فئات المجتمع. وفي هذا المقال، سنسلط الضوء على أبرز هذه التشريعات، وما تضمنته من مفاهيم جديدة تسعى إلى تنظيم استخدامات الذكاء الاصطناعي. ويُعد تنظيم البيانات من أبرز أولويات المشرعين والمنظمين المختصين بالمجال في مختلف دول العالم، ولا سيما في دول الاتحاد الأوروبي، ومن أبرز التشريعات والتي تم نشرها في الجريدة الرسمية للاتحاد الأوربي تحت اسم اللائحة العامة لحماية البيانات الشخصية The General Data Protection Regulation (GDPR) بتاريخ 26 أبريل 2016، والتي تُعد من أهم التشريعات المتعلقة بحماية البيانات، إذ تضع إطارًا قانونيًا بشأن حماية الأشخاص الطبيعيين فيما يتعلق بمعالجة البيانات الشخصية.

ومع التطور التقني المتسارع وظهور تقنيات الذكاء الاصطناعي ودخوله في مختلف المجالات، برزت تحديات جديدة تتعلق بقدرته على توليد وتزوير المحتوى، لا سيما من خلال ما يُعرف بتقنية «التزييف العميق» (Deep Fake). هذا الواقع المستجد كشف عن فراغ تشريعي يستوجب المعالجة، الأمر الذي دفع بعض الدول إلى اتخاذ خطوات تنظيمية مبكرة.

فقد كانت الولايات المتحدة الأمريكية من أوائل الدول التي بادرت إلى وضع إطار توجيهي، وذلك بإصدار «ميثاق حقوق الذكاء الاصطناعي» (Blueprint for an AI Bill of Rights) في أكتوبر 2022، وهو ميثاق غير ملزم يهدف إلى ترسيخ خمسة مبادئ توجيهية لتطبيقها ضمن السياسات والممارسات المرتبطة بتقنيات الذكاء الاصطناعي. ومن أبرز هذه المبادئ: حماية الأفراد من التمييز الخوارزمي بمنع استخدام الخوارزميات كأداة للتمييز، وضمان الخصوصية من خلال توفير حماية صارمة ضد ممارسات إساءة استخدام البيانات، والحفاظ على أمن واستقرار الأنظمة، وضمان عدم استبدال القرار البشري بشكل كامل بالأنظمة الآلية، بالإضافة إلى تعزيز مبادئ الشفافية والمساءلة.

وفي خطوة أكثر إلزامًا، برزت جمهورية الصين الشعبية كأحد أوائل الدول التي أصدرت لوائح تنظيمية مُلزمة لمواجهة مخاطر التزييف العميق. حيث فرضت على مطوري أنظمة التوليد الاصطناعي التزامًا بوضع إشعارات واضحة تُبين أن المحتوى قد تم توليده باستخدام الذكاء الاصطناعي. كما نصّت مسودة اللوائح على عقوبات مشددة في حال المخالفات الخطيرة تشمل غرامات مالية قد تصل إلى 50 مليون يوان أو 5% من دخل العام الماضي على الكيانات المخالفة، بالإضافة إلى عقوبات شخصية قد تطال المسؤولين التنفيذيين في هذه الكيانات، تصل إلى مليون يوان صيني.

ومع الطفرة التقنية الكبيرة وظهور أنظمة ومحركات بحث تعتمد بالكامل على تقنيات الذكاء الاصطناعي، مثل «شات جي بي تي» (ChatGPT) من شركة OpenAI و»جيميني» (Gemini) من شركة Google، اشتدّت المنافسة بين كبرى الشركات التقنية لتقديم أكثر مساعد ذكاء اصطناعي موثوق وقابل للاعتماد. وفي ظل هذا التسارع، تحرك الاتحاد الأوروبي لاتخاذ خطوة تشريعية حاسمة بإصدار أحد أهم التشريعات الإلزامية في هذا المجال، وهو «قانون الاتحاد الأوروبي للذكاء الاصطناعي»، الذي نُشر بتاريخ 12 يوليو 2024، ومن المتوقع دخوله حيز التنفيذ في أغسطس 2026.

وقد ركّز القانون الأوروبي على جملة من المبادئ الأساسية، من أبرزها: تقييم المخاطر، والتصدي لتقنية التزييف العميق (Deep Fake)، وفرض الإشراف البشري الإلزامي على أنظمة الذكاء الاصطناعي للحدّ من ظاهرة «هلوسة الذكاء الاصطناعي» (AI Hallucination)، بالإضافة إلى ترسيخ المبادئ الأخلاقية في تطوير واستخدام هذه التقنيات. كما نص التشريع على انه في حال عدم الامتثال لحظر ممارسات الذكاء الاصطناعي المشار إليها في المادة (5) يُعرض المخالف لغرامات إدارية تصل إلى 35 مليون يورو، أو إذا كان المخالف كيانًا تجاريًا، تصل إلى 7٪ من إجمالي حجم مبيعاته السنوية العالمية للسنة المالية السابقة، أيهما أعلى.

وفي ضوء التوسع المتزايد لاستخدامات الذكاء الاصطناعي في مختلف المجالات المهنية والتعليمية وغيرها، برزت الحاجة إلى وضع أطر حوكمة فعالة لهذه التكنولوجيا. واستجابة لذلك، أصدرت «منظمة الامتثال والأخلاقيات المفتوحة» (Open       Compliance and Ethics Group – OCEG)، وهي منظمة أمريكية متخصصة في مجال الحوكمة، دليلاً شاملاً بعنوان «الدليل الأساسي لحوكمة الذكاء الاصطناعي» (The Essential Guide to AI Governance)، حيث يهدف هذا الدليل إلى أن يكون مصدرًا أساسيًا لقادة الأعمال، ومديري المخاطر، ومسؤولي الامتثال، وأعضاء مجالس الإدارة الذين يواجهون تحديات اعتماد الذكاء الاصطناعي داخل مؤسساتهم. ويقدّم إطارًا شاملاً لفهم القضايا الرئيسية المتعلقة بحوكمة الذكاء الاصطناعي، وإدارة المخاطر، والامتثال ومعالجتها.

وعلى الصعيد المحلي، تُعد المملكة العربية السعودية من الدول العربية الرائدة في الاهتمام بمجال الذكاء الاصطناعي والبيانات، حيث صدر بتاريخ 2019/08/30م الأمر الملكي رقم (أ/471) بإنشاء الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) Saudi Data & AI Authority (SDAIA)، ومن أبرز أهدافها حوكمة البيانات والذكاء الاصطناعي. وتوالت بعد ذلك التشريعات ذات الصلة، حيث صدر نظام حماية البيانات الشخصية بموجب المرسوم الملكي رقم (م/19) في مارس 2023م، ثم صدرت “مبادئ أخلاقيات الذكاء الاصطناعي» في سبتمبر 2023، ومبادئ الذكاء الاصطناعي التوليدي للعموم وللجهات الحكومية» في يناير 2024.

وقد جاءت غالبية هذه التشريعات لمواجهة المشاكل الناتجة عن استخدام الذكاء الاصطناعي ومنها: – 

التحييز وعدم المساواة (Bias and Inequality):

حيث يشير تحيّز الذكاء الاصطناعي، ويُعرف أيضًا باسم تحيّز التعلم الآلي أو تحيّز الخوارزميات، إلى الأنظمة التي تُنتج نتائج متحيّزة تعكس التحيزات البشرية داخل المجتمع وتُكرّسها، بما في ذلك أوجه عدم المساواة الاجتماعية، سواء التاريخية أو الراهنة. يمكن أن ينشأ التحيّز من بيانات التدريب الأولية، أو من الخوارزمية نفسها، أو من التنبؤات الناتجة عنها ومن الأمثلة المنشورة على موقع IBMوالمتعلقة بالتحيز: – 

• التحيز في الرعاية الصحية: حيث انه يمكن أن تؤدي البيانات الممثلة تمثيلاً ناقصا للنساء أو مجموعات الأقليات إلى تحريف خوارزميات الذكاء الاصطناعي التنبؤية. على سبيل المثال، وُجد أن أنظمة التشخيص بمساعدة الحاسوب (CAD) تعطي نتائج أقل دقة للمرضى الأمريكيين من أصول افريقية مقارنةً بالمرضى البيض.

• التحيز في أنظمة تتبع مقدمي الطلبات- يمكن أن تؤدي المشكلات المتعلقة بخوارزميات معالجة اللغة الطبيعية إلى نتائج متحيزة داخل أنظمة تتبع مقدمي الطلبات. على سبيل المثال، توقفت Amazon عن استخدام خوارزمية التوظيف بعد أن وجدت أنها تفضل المتقدمين بناء على كلمات مثل «executed» أو «captured»، والتي كانت أكثر شيوعًا في سير الذاتية للرجال.

• التحيز في الإعلان عبر الإنترنت: يمكن أن تؤدي التحيزات في خوارزميات الإعلانات بمحركات البحث إلى تعزيز التحيز الجنساني في أدوار الوظائف، حيث كشفت أبحاث مستقلة في جامعة Carnegie Mellon University في بيتسبرغ أن نظام Google للإعلانات عبر الإنترنت يعرض وظائف ذات رواتب عالية للذكور أكثر من النساء.

• وفي اختبار لتوليد الصور بالذكاء الاصطناعي، طلبت بلومبيرغ توليد أكثر من 5,000 صورة باستخدام الذكاء الاصطناعي، ووجدت أن: «العالم وفقًا لنموذج Stable Diffusion تُديره شخصيات بيضاء من الذكور في مناصب رفيعة. النساء نادرًا ما يظهرن كطبيبات أو محاميات أو قاضيات، بينما يُصوَّر الرجال ذوو البشرة الداكنة كمجرمين، والنساء ذوات البشرة الداكنة كعاملات في مطاعم الوجبات السريعة.»

الهلوسة (hallucination): – 

ويمكن تعريفها على انها نتائج غير صحيحة أو مضللة تنتجها نماذج الذكاء الاصطناعي. وفيما يتعلق بالهلوسة فقد قام أحد المحاميين التابع لاحد شركات المحاماة الكبرى في ولاية نيويورك حيث قام بصياغة مذكرتين قانونيتين تحتوي على سوابق قضائية ذات وقائع ملفقة ، مما ادخل الشركة في حرج كبير ، ودفعوا إن أحد شركاء الشركة، استخدم برنامج «شات جي بي تي» للبحث عن سوابق قانونية تدعم موقفهم، لكنه لم يتحقق من دقة تلك المعلومات قبل إضافتها إلى المذكرات المقدمة للمحكمة، وتبين لاحقا أن تلك الإشارات كانت عبارة عن «هلوسات»، أي اقتباسات خاطئة، صادرة عن نظام الذكاء الاصطناعي.

ومن الأمثلة الأخرى، قدم محامي إحدى شركات الحفريات بالولايات المتحدة الامريكية مذكرة لدعم طلب إعادة النظر في قرار رفض إحالة القضية إلى محكمة أخرى لنظرها، مستندًا إلى سابقة قضائية وهمية لا وجود لها!، لم يتمكن القاضي من العثور عليها. وباستيضاح المحامي، أقر بخطأ الاقتباس وسحبه واعتذر عنه. لاحقًا، تبين وجود اقتباسات وهمية أخرى في مذكراته.  وفي جلسة أمام المحكمة، اعترف المحامي باستخدام برامج الذكاء الاصطناعي لصياغة المذكرات القانونية دون التحقق من صحة المراجع، وأكد عدم علمه بقدرة هذه البرامج على توليد اقتباسات قانونية غير صحيحة (Hallucinated Citations)، مشيرًا إلى عدم وجود سوء نية.

رأت المحكمة أن المحامي خالف القاعدة (Rule 11) من قواعد الإجراءات المدنية الفدرالية، التي تنص على أن تقديم أي مذكرة قانونية إلى المحكمة يجب أن يكون بناءً على (بحث وتحقيق معقول وفقًا للظروف). وأكدت مسؤوليته الشخصية عن التحقق من صحة المراجع القانونية، وعدم إعفائه لمجرد حسن النية أو الاعتماد على تقنية حديثة، شملت العقوبات غرامة مالية بقيمة 15,000 دولار، وإحالة القضية لرئيس المحكمة لاتخاذ إجراءات تأديبية اخري، وإلزام المحامي بإخطار موكله رسميا بالحكم خلال 7 أيام.

كما شهدنا في الأيام الماضية، تعرض المساعد المدعوم بالذكاء الاصطناعي «غروك (Grok AI)» التابع لمنصة X لعدة مشكلات تمثلت في تقديم ردود شابها قدر من الهلوسة والانحياز، مما أثار موجة من التساؤلات حول مدى إمكانية الاعتماد الكامل على تقنيات الذكاء الاصطناعي دون تدخل بشري مباشر. حيث اضطرت الشركة الى إيقاف بعض خصائصه مؤقتا عن مخرجاته والسيطرة على سلوكه غير المتوقع.

واخيراً فإن بين فوضى الهلوسة الرقمية وانحياز الخوارزميات، وبين الحوكمة الذكية والتشريعات الصارمة، يقف مستقبل الذكاء الاصطناعي على المحك. إن تطويع هذه التقنية الهائلة لخدمة الإنسان يتطلب توازناً دقيقاً بين الابتكار والمسؤولية، وبين الحرية والتنظيم. فإما أن نبني مستقبلًا تحكمه الشفافية والمساءلة، أو نترك المجال لفوضى رقمية تتجاوز السيطرة.

 

شارك المقال

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *