وصف المدون

اليوم

infomigrants - فيينا:
توظيف التكنولوجيا والذكاء الاصطناعي في وضع سياسات تخدم مصالح الدول؟ هذا ما يسعى الاتحاد الأوروبي إلى تحقيقه للحد من محاولات الهجرة إلى القارة العجوز، وتعزيز الحصن الأوروبي. وتعمل حاليا معاهد بحثية على تطوير تطبيق "itflows" لتوقع موجات الهجرة المحتملة، ما يثير حفيظة الخبراء والجهات الحقوقية من إمكانية سوء استخدام هذه النتائج بشكل ينتهك حقوق طالبي اللجوء، ويطرح تساؤلات حول الثقة بالذكاء الاصطناعي في المجال الإنساني.

أرشيف/النمسا تختبر طائرات بدون طيار لمراقبة حدود المجر وسلوفينيا. الصورة: Picture Alliance

استباق موجات الهجرة إلى أوروبا حتى قبل حدوثها، يعتبرها الاتحاد الأوروبي من التحديات الرئيسية التي تواجهه، حسب الوصف الرسمي لتطبيق يعمل على تطويره تحت اسم "Itflows"، يهدف من خلاله إلى جمع بيانات وتحليلها من أجل تطوير أدوات تساعده على "إدارة الهجرة" ضمن شقين، الأول يتمثل بحركات الهجرة، أي توقّع الدول المصدّرة للمهاجرين والطرق التي سيسلكونها، والثاني يتعلق باستقبال واندماج اللاجئين في الدول الأوروبية.

من المفترض أن يصبح التطبيق قابلا للاستخدام بحلول العام 2023، ويندرج تحت المشروع الأوروبي "Horizon 2020
"، وخصصت المفوضية الأوروبية مبلغ 5 ملايين يورو لتطبيق "Itflows"، الذي تعمل على تطويره معاهد بحثية وشركة "Terracom" الخاصة.

هل يمكن الوثوق بالذكاء الاصطناعي في المجالات الإنسانية؟
يعتبر الاتحاد الأوروبي أن سياسات الهجرة الحالية "تفتقر إلى البصيرة"، حسب تعبيره، رغم البيانات المتاحة التي تجمعها مختلف المنظمات والجهات الوطنية والدولية في مجال الهجرة، والإشكالية تكمن في عدم وجود قاعدة بيانات مشتركة وأدوات من شأنها أن توحد الجهود في مجال التنبؤ بموجات الهجرة.

"يُعد التنبؤ الموثوق بـ(قدوم) المهاجرين أمرا حاسما لتحسين تخصيص الموارد على الحدود، ومن وجهة نظر إنسانية، لتجربة المهاجرين أنفسهم"، حسبما جاء في شرح الأهداف من التطبيق. لكن إلى أي مدى يمكن الوثوق في الذكاء الاصطناعي، لا سيما في المجالات الإنسانية؟

الدكتور ربيع أمهز، مسؤول قسم المعلوماتية في جامعة "ECAM" ستراسبورغ وباحث في مجال الذكاء الاصطناعي الموثوق، لا يخف تخوّفه من النتائج التي يمكن أن تصدر عن هذا البرنامج أو النظام كتوصيف دقيق، موضحا خلال حديثه مع مهاجرنيوز أن الثقة العامة في مجال الذكاء الاصطناعي "كبيرة وتزداد"، لكن "في الأمور المرتبطة بالتغيرات الجيوسياسية أو البيئية أو حركات النزوح أو في العلوم الاجتماعية عموما، لا يزال الذكاء الاصطناعي بعيدا عن تقدير الواقع لأن التفكير الإنساني والمجتمعات معقّدة ومتغيّرة، لذلك يلجأ إلى التقديرات الاحتمالية واستخدام النسب وبذلك يبقى القرار النهائي هو للمهندس أو الباحث بتحديد القرار النهائي".

اليوم مثلا، "تتوصل بعض البرامج أو الخوارزميات إلى إعطاء المستخدم النتيجة النهائية (أي التقدير المتوقع في حالة ما) لكن دون أن يكون البرنامج قادرا على شرح الطريقة التي اعتمد عليها للتوصل إلى تلك النتيجة، مثلما يفعل باحث في علم الاجتماع. أي أنه لا توجد إمكانية للنقاش مع البرنامج بعد التوصل إلى النتيجة النهائية".

كيف يمكننا ضمان المساءلة عندما تكون القرارات والإجراءات مؤتمتة بالكامل؟
ولا تزال معظم البرامج الفعالة في مجال الذكاء الاصطناعي تفتقر إلى الشفافية، بحسب أمهز، إذ لا تزال هناك دراسات بحثية لتفسير عملها وآليتها، "فتعطي مثل هذه البرامج التوقعات بناء على خوارزمية معينة ومعلومات أدخلت إليها في تمرينها الأول، لكنها لا تزال غير قادرة على توضيح سبب النتيجة النهائية. ولا ننسى أن هذه البرامج تحتاج لكم كبير من المعلومات، وفيما يتعلق بالنزوح تحديدا، ذلك غير منطقي لأن هناك عوامل كثيرة متشابهة ومتراكمة وذات خصائص متنوعة".

مثلا، إذا افترضنا أن البرنامج يعتبر أن بلداً ما آمن، لنقل سوريا على سبيل المثال، وهناك شخص هارب من مؤسسة أو نظام أو جماعة ما، أي أنه يواجه خطرا معينا بناء على حالة فردية، بالتالي، قد يعتبره البرنامج هنا غير معرض للخطر، بالاعتماد على المعلومات العامة المدخلة إليه.

وكانت المديرة العامة لمنظمة "يونيسكو" التابعة للأمم المتحدة أودري أوزلاي، تناولت موضوع استخدام الذكاء الاصطناعي في حياتنا اليومية واستخدامه لرسم السياسات المستقبلية، وطرحت أسئلة أخلاقية جاء فيها "كيف يمكننا التأكد من أن الخوارزميات لا تنتهك حقوق الإنسان الأساسية من الخصوصية وسرية البيانات إلى حرية الاختيار وحرية الضمير؟ كيف يمكننا ضمان عدم تكرار الصور النمطية الاجتماعية والثقافية في برامج الذكاء الاصطناعي، لا سيما عندما يتعلق الأمر بالتمييز بين الجنسين؟ كيف يمكننا ضمان المساءلة عندما تكون القرارات والإجراءات مؤتمتة بالكامل؟ كيف يمكننا ضمان تطوير الذكاء الاصطناعي بطريقة شفافة بحيث يكون للمواطنين العالميين الذين تتأثر حياتهم به رأي في تطويره؟".

مخاوف من سوء الاستخدام
يمكن القول إن الذكاء الاصطناعي سلاح ذو حدين، "مثل القنبلة الذرية" حسب وصف أمهز "يمكن استخدامه بطريقة تساعد على فهم النزوح لكن يمكن أيضا استخدامه بطريقة سلبية من قبل حكومات ليبرالية أو اليمين المتطرف على سبيل المثال، الذي من الممكن في حالة امتلاكه لمثل هذه التوقعات أن يتخذ إجراءات من جعلها أن تنتهك حقوق طالبي اللجوء".

تتخوف منظمات غير حكومية من أن تستخدم نتائج تلك التوقعات بطريقة تسيء إلى اللاجئين وتزيد من تحصين الحدود.

تشير مبادرة "تيكنوبوليس"، التي تنشط فيها جمعيات عدة للتنبيه من ممارسات الدول، إلى أن شروط تمويل مشروع "هوريزون 2020" الذي يعتبر برنامج الذكاء الاصطناعي الجديد جزءا منه، أن تظل التقنيات المطورة في الاستخدام المدني ولا يمكن استخدامها لأغراض عسكرية. لكن "في الواقع، لا يزال التمييز بين الاستخدام المدني والعسكري بعيدا عن التحديد الواضح".

ويوضح الباحث والخبير ستيفن جراهام أن التقنيات التي تكون على أساس عسكري "غالبا ما يتم إدخالها في مجال الأمن، لا سيما على الحدود حيث يتم تجريم الهجرة"، مضيفا "يمكننا أيضا اعتبار المراقبة وتقنية اكتشاف الأشخاص والقمع على الحدود تجسيدا للعسكرة الأوروبية على الحدود".

تقارير داخلية مثيرة للقلق
وحتى على المستوى الداخلي ضمن فريق عمل تطوير البرنامج، كشفت تقارير داخلية للجنة الأخلاقيات في مشروع "Itflows" عن "الآثار المحتملة على حقوق الإنسان" في مجال الهجرة.

منظمة "ديسكلوس" غير الحكومية نشرت التقارير المذكورة الصادرة بين كانون الثاني/يناير وحزيران/يونيو 2021، وقالت إن النتائج "مقلقة"، إذ من جملة الأمور التي تكشفها الوثيقة الأولى، المؤلفة من 225 صفحة، هناك تحذيرات من أنه "يمكن استخدام المعلومات التي توفرها الخوارزمية، في حالة إساءة استخدامها، من أجل وصم الأشخاص أو ممارسة التمييز ضدهم أو مضايقتهم أو ترهيبهم، ولا سيما المستضعفون مثل المهاجرين واللاجئين وطالبي اللجوء".

وتوصلت اللجنة في تقريرها الثاني إلى أنه "يمكن للدول الأعضاء استخدام البيانات المقدمة لإنشاء أحياء للمهاجرين"، أي عزلهم عن المجتمع. ونبّهت من خطر ازدياد "التعرف المادي على المهاجرين والتمييز على أساس العرق أو الجنس أو الدين أو التوجه الجنسي أو الإعاقة أو العمر".

وتحذر أيضا من تصاعد "خطاب الكراهية" الذي يمكن أن يؤدي إلى نشر محتمل لتنبؤات البرنامج في المناطق المتوقع أن ينزح إليها الأشخاص.

رغم أن هذه النقطة الأخيرة تناولتها الحملة الترويجية للبرنامج، لكن حسب الرواية الرسمية، هذه التوقعات تهدف إلى حماية المهاجرين من الحوادث العنصرية التي من الممكن أن تواجههم في المجتمعات المضيفة.

يعتقد ألكساندر كييروم المحلل في المجلس الدنماركي للاجئين وعضو مجلس الإشراف، أن هناك "خطرا كبيرا يتمثل في أن المعلومات ستنتهي في أيدي الدول أو الحكومات التي ستستخدمها لتثبيت المزيد من الأسلاك الشائكة على طول الحدود"، لكن منسقة البرنامج كريستينا بلاسي كاساغران أكدت لمنظمة "ديسكلوس"، أنه "لن يتم إساءة استخدام البرنامج". ووفقا لها، فإن البرنامج سيساهم حتى في "تسهيل دخول المهاجرين [إلى الاتحاد الأوروبي] من خلال السماح بتخصيص أفضل للموارد المستخدمة في الاستقبال".

"فرونتكس" وتقنيات المراقبة على الحدود
الأمر الذي يعزز من شكوك الجهات الحقوقية بإمكانية استخدام هذه النتائج لتحصين الحدود الخارجية للاتحاد الأوروبي، هو الدعم الذي توفره وكالة حرس الحدود الأوروبية "فرونتكس" للبرنامج. إذ كشفت الوثائق الداخلية عن مشاركة الوكالة في البرنامج عبر توفير بيانات تجمعها من خلال أنشطتها على الحدود المختلفة لدول الاتحاد الأوروبي.

يأتي التعاون مع وكالة "فرونتكس" رغم الشبهات المثارة حول ممارساتها في صد المهاجرين على الحدود، والتقارير العديدة التي تتهم العناصر الأوروبيين من استخدام العنف ضد المهاجرين أثناء محاولتهم عبور بحر إيجه من تركيا إلى اليونان.

لكن الفرع الإيطالي للصليب الأحمر، والمشارك في تطوير هذا البرنامج، دافع عن مشاركة "فرونتكس" مشيرا إلى أن "اتفاقية المنحة التي تحكم تنفيذ مشروع Itflows لا تحدد فرونتكس كمستخدم للأداة، ولكن ببساطة كمصدر للبيانات المفتوحة".

لكن وكالة "فرونتكس" لطالما أبدت اهتماما كبيرا في تطوير أنظمة مراقبة جديدة على طريق البلقان مثلا (اليونان، مقدونيا الشمالية، كرواتيا...)، وتستثمر في مجال البيانات الحيوية أيضا، بما في ذلك بصمات الأصابع ثلاثية الأبعاد فضلا عن تقنية التعرف على قزحية العين وتحديد الوجه، من أجل إدخالها ضمن نظام قاعدة البيانات البيومترية في الاتحاد الأوروبي. ووفقا لبحث أجرته منظمة الخصوصية الدولية، تزود شركات خاصة "فرونتكس" والوكالات الحدودية الأخرى، بأقمار صناعية قادرة على تتبع الإشارات من هواتف الأقمار الصناعية وأجهزة البث الأخرى، بهدف تتبع حركة المهاجرين المتوجهين إلى أوروبا والتصدي لهم.
ليست هناك تعليقات
إرسال تعليق

شكراً لك على مشاركة رأيك.. لنكتمل بالمعرفة

Back to top button