محاولات أوروبية وأميركية لكبح جماح الذكاء الاصطناعي في ظل تطوره المتسارع | تكنولوجيا

اجتاح الذكاء الاصطناعي مجالات الحياة العصرية كلها، بدءًا من المكانس الكهربائية “الذكية”، وصولًا إلى المركبات ذاتية القيادة، والتقنيات المتطورة في تشخيص الأمراض.
وبينما يُعدّه مروّجوه أنه يُحدث ثورة في حياة البشر، يؤكّد من ينتقده أن هذه التقنية تنطوي على خطر، من أن تتولّى الآلات مهمة اتخاذ قرارات مصيرية في الحياة.
ويبرز هنا قلق من جانب الهيئات المنظمة في أوروبا وأميركا الشمالية. ويُرجَّح أن يقر الاتحاد الأوروبي العام المقبل قانون “أرتيفشل إنتلجنس أكت” (Artificial Intelligence Act)، الذي يهدف إلى كبح جماح عصر الخوارزميات.
ونشرت الولايات المتحدة حديثًا خطة لشرعنة حقوق مرتبطة بالذكاء الاصطناعي، في الوقت الذي تدرس فيه كندا احتمال اللجوء إلى قانون في المجال نفسه.
وغالبًا ما يتم التلميح إلى استخدام الصين البيانات الحيوية، بالإضافة إلى تقنية التعرف على الوجه، وغير ذلك من التقنيات الرامية إلى بناء نظام تحكم قوي.
وتشير غري هسيلباك، وهي باحثة دنماركية تقدّم مشورة للاتحاد الأوروبي في شأن التقنية المثيرة للجدل، إلى أن الغرب يخاطر في إنشاء “بُنى أساسية شمولية”.
وتقول لوكالة فرانس برس “أرى أن هذه الخطوة تمثّل تهديدًا كبيرًا أيًا تكن الفوائد”. لكن قبل المباشرة بالتحرك، تواجه الهيئات الناظمة مهمة شاقة، تتمثّل في تحديد المفهوم الدقيق للذكاء الاصطناعي.
“خطوة حمقاء”
وقال المشارك في إعداد شرعة الحقوق الخاصة بالذكاء الاصطناعي سوريش فينكاتاسوبرامانيان، إن محاولة تحديد مفهوم الذكاء الاصطناعي “خطوة حمقاء”.
وأشار في تغريدة عبر تويتر إلى أن أي تقنية تؤثر في حقوق الناس، ينبغي لها أن تكون ضمن نطاق مشروع القانون.
إلا أن الاتحاد الأوروبي -الذي يضم 27 بلدًا- يأخذ المسار الأكثر تعقيدًا في محاولة لتحديد هذا المجال الواسع.
وتذكر مسودة مشروع القانون الخاص به المقاربات التي يُشار إليها على أنها تمثّل الذكاء الاصطناعي، ومن ضمنها: أي نظام حاسوب يتضمّن التشغيل الآلي.
لكن المشكلة تنبع من استعمالات مصطلح الذكاء الاصطناعي المتغيّرة. فقد ارتبط ذلك على مدى عقود بمفهوم يقدمه على أنه محاولات لإنشاء آلات تحاكي التفكير البشري. وفي أوائل القرن الحادي والعشرين، جفّ إلى حد كبير التمويل المتعلّق بهذا البحث.
وترافق بروز شركات “سيليكون فالي” العملاقة مع تجدّد في مصطلح الذكاء الاصطناعي شعارًا جذابًا لبرامج هذه الشركات وخوارزمياتها. وأتاح هذا التشغيل للشركات استهداف المستخدمين بالإعلانات والمحتوى، ما ساعدها على جني مئات المليارات من الدولارات.
وتشير ميريديث ويتكر، وهي موظفة سابقة في “غوغل”(Google) ومشاركة في تأسيس معهد “أرتيفشل إنتلجنس ناو” التابع لجامعة نيويورك، في حديث إلى وكالة فرانس برس، إلى أن “الذكاء الاصطناعي كان وسيلة للشركات كي تستفيد بصورة أكبر من بيانات المراقبة، وتخفي ما كان يجري”.
وخلص كل من الاتحاد الأوروبي والولايات المتحدة إلى أن أي تعريف للذكاء الاصطناعي ينبغي له أن يكون شاملًا قدر الإمكان، لكن انطلاقًا من هذه النقطة، اتخذت كل من القوّتين الغربيتين مسارًا مختلفًا عن الأخرى.
يأتي مشروع قانون الاتحاد الأوروبي المتعلق بالذكاء الاصطناعي في أكثر من مئة صفحة. ومن بين أكثر المقترحات اللافتة فيه؛ حظر كامل لبعض التقنيات “عالية الخطورة”؛ مثل: أدوات المراقبة البيومترية المستخدمة في الصين. ويقترح المشروع كذلك الحد بشكل كبير من استخدام أدوات الذكاء الاصطناعي، من المسؤولين عن ملف الهجرة والشرطة والقضاة.
وتلفت هسيلباك إلى أن بعض التقنيات “كانت تحمل إشكالية كبيرة جدًا فيما يتعلق بالحقوق الأساسية”.
ومن ناحية ثانية، يشكّل مشروع القانون الأميركي مجموعة مبادئ مختصرة صِيغت بلغة طموحة، مع نصائح من بينها -على سبيل المثال- ما يندرج تحت فكرة “ضرورة أن تكون محمية من الأنظمة غير الآمنة أو غير الفعالة”. صدر مشروع القانون الذي يستند إلى القوانين المعمول بها حاليًا، عن البيت الأبيض.
ويعتقد الخبراء أنه من غير المحتمل وجود قانون خاص بالذكاء الاصطناعي في الولايات المتحدة قبل عام 2024 على الأقل، لأن الكونغرس وصل إلى طريق مسدود في هذا الشأن.
تنظيم مفرط
وتتعدّد الآراء في شأن مزايا كل مقاربة خاصة بكلا الجانبين. يقول غاري ماركوس من جامعة نيويورك لوكالة فرانس برس، إن “موضوع الذكاء الاصطناعي بحاجة ماسة إلى قانون” ينظّمه.
ويشير إلى أن “النماذج اللغوية الكبيرة”، بينها الذكاء الاصطناعي المسؤول عن “روبوتات” المحادثة وأدوات الترجمة وبرامج النصوص التنبؤية، قد تُستخدم لنشر معلومات مضللة.
وتبدي ويتكر شكوكًا في قيمة القوانين الرامية إلى التصدّي للذكاء الاصطناعي بدلًا من مكافحة “نماذج المراقبة” التي تقوم عليها. وتقول “إذا لم يعالج القانون الموضوع بشكل جوهري، فأعتقد أن الأمر سيمثّل معالجة موقتة، كأن نضع ضمادة على جرح في الجسم”.
من جهة ثانية، رحّب خبراء آخرون بالمقاربة الأميركية. ويشير الباحث شون ماكغريغور الذي يتولى تسجيل الأعطال التقنية لدى قاعدة بيانات “أرتيفشل إنتلجنس إنسيدنت”، إلى أن الذكاء الاصطناعي كان هدفًا أفضل للهيئات الناظمة من مفهوم الخصوصية، الذي ينطوي على مفاهيم مبهمة أكبر.
ويحذّر من احتمال التوصل إلى قوانين تفرط في تنظيم الذكاء الاصطناعي. ويقول لوكالة فرانس برس “إن السلطات الحالية يمكنها تنظيم موضوع الذكاء الاصطناعي”، معدّدًا أمثلة بينها: لجنة التجارة الفدرالية الأميركية، ووزارة الإسكان والتنمية الحضرية.
أما النقطة التي يتفق عليها الخبراء فهي الحاجة إلى تبديد الترويج المفرط للذكاء الاصطناعي والغموض المحيط به. ويرى مكغريغور أن الأمر “ليس سحريًا”، مشبّهًا الذكاء الاصطناعي ببرنامج “مايكروسوفت إكسل” المعقّد جدًا.