Navigation

علوم

الآلة والأخلاق.. تحديات الذكاء الاصطناعي

تُوَفر التقنيات الرَقمية المُترابطة فُرَصَاً كبيرة لِقطاع الاقتصاد والمُجتمع، لكنها تُثير مشاكل أخلاقية في نفس الوقت، كما هو الحال مع تكنولوجيا التَعَرُّف على الوجوه مثلاً. من جانبها، تواجه سويسرا - التي تُعتَبَر إحدى الدول الرائدة في مجال الذكاء الاصطناعي مثل هذه التحديات أيضاً.

هذا المحتوى تم نشره يوم 27 أغسطس 2021 - 08:55 يوليو,

فقدان الوظائف بِسَبَب الأتمتة (أو التشغيل الآلي)، نشوء ما يُسمّى بـ فقاعة المرشح [أوFilter Bubble باللغة الإنكليزية، والمُستَحدَمة حالياً على الإنترنت لتحديد التفضيلات الشخصية]، وحماية البيانات، والتَعَرُّف على الوجوه، ومقاطع الفيديو المُزيفة (باستخدام تقنية "ديبفيك")، والأمن السيبراني وإساءة استخدام تقنيات الذكاء الاصطناعي: لا شك بأن الرَقمنة أتَت بعددٍ غير مَسبوق تاريخياً من التحديات الأخلاقية الجديدة.

لكن ماذا لو وَقَعَ الذكاءُ الاصطناعي في الأيدي الخطأ؟ إنه شيءٌ لا يستطيع المَرءُ تخيله حتى. وعلى سبيل المثال، لا تزال دول العالم مُنقَسِمة حول ضرورة فَرض قواعد صارمة لتنظيم استخدام ما يُسمّى بـ ‘الروبوتات القاتلة’. وكانت النتائج بهذا الشأن مُخَيبة للآمال إلى حدٍ كبير بعد محادثات استمرت أسبوعاً كاملاً في مقرّ الأمم المتحدة بجنيف في ربيع هذا العام.

ورغم عَدَم وجود أسلحة فتّاكة مُستقلّة بالكامل حتى الآن، إلّا أنَّ النُشطاء يتوقّعون استخدام هذا الجيل من الأسلحة في معارك ميدانية في غضون السنوات القليلة القادمة، نظراً للتقدّم التقني السريع في هذا المجال، والإنتشار الواسع للذكاء الإصطناعي وأنواع أخرى من التقنيات فائقة التطور.

تُعتَبَر سويسرا واحدة من الدول الرائدة في مجال تطوير الذكاء الاصطناعي. ويمكن تعريف الذكاء الاصطناعي بأنه قدرة الآلات والحواسيب الرقميّة على القيام بِمَهام مُعينة تُحاكي تلك التي تقوم بها الكائنات الذكيّة؛ كالقُدرة على التفكير أو التَعَلُم من التجارب السابقة وغيرها من العمليات الأُخرى التي تتطلب مُمارسات ذهنية. وتعتمد عملية التَعَلُّم على مُعالجة كميات كبيرة من البيانات التي يتم جَمعَها.

تقوم العديد من الشركات الناشئة في سويسرا بتطوير مثل هذه الأنظمة التكيفية الذكية - سواء كانت في شكل روبوتات أو تطبيقات أو مُساعد رقمي شخصي - والتي من شأنها أن تُسَهِل حياتنا بِفَضل البيانات الضخمة. لكنها في ذلك تجد نفسها باستمرار في مواجهة المُعضِلة الأساسية المُتمثلة بالقضايا الأخلاقية. فأين يتعين على هذه الشركات وَضع خط أحمر مع الحفاظ على هدفها المتمثل ببيع تقنياتها؟

هذه المشكلة تتضح بشكل خاص في التفاعل بين البَحث والتطبيق الملموس. وعلى سبيل المثال، تشارك الجامعات السويسرية أيضاً في مشاريع يمولها الجيش الأمريكي، من كاميرات المراقبة الجوية إلى طائرات الاستطلاع المُسَيَّرة التي يتم التحكم فيها بشكل مُستقل.

الموقف السويسري

تريد سويسرا أن تقوم بدور الريادة في صياغة مستقبل المعايير الأخلاقية المتعلقة بالذكاء الاصطناعي. لكنها تفشل في التعاون مع الدول الأخرى حتى فيما يخص التطبيقات البسيطة.

هذا الأمر حدث مع تطبيق تَتَبُّع الاتصال السويسري "SwissCovid"، الذي يهدف إلى تَتَبُّع واحتواء عدوى فيروس كورونا؛ حيث يدور الخلاف هنا حول وجوب تَخزين البيانات مركزياً [على خادم خارجي واحد] أم على جهاز الهاتف المحمول فقط (مثل الحَل السويسري).

إذن، من أين يمكن لسويسرا أن تبدأ في محاولتها لِلَعب الدور الرائد الذي تطْمَح إليه؟ الشهادة السويسرية للثقة الرقمية (Swiss Digital Trust Label)، التي تهدف إلى تعزيز ثِقة المُستخدمين بالتقنيات الجديدة هي محاولة بهذا الاتجاه. والفكرة من وراءِ ذلك هي إتاحة وفرة من المعلومات للمُستخدمين حول الخدمات الرقمية، وخَلْق الشفافية وضمان احترام القيم الأخلاقية.

"في الوقت نفسه، تهدف العلامة التجارية إلى المساعدة في ضمان أن يصبح السلوك الأخلاقي والمسؤول ميزة تنافسية للشركات" أيضاً، كما تقول نينيان بيفّيغَن مديرة المبادرة الرقمية السويسرية التي تقف وراء علامة Swiss Digital Trust Label."

هناك إجماع واسع على الحاجة إلى وَضع القواعد وتعيين الحدود الأخلاقية بوضوح. تَحقيقاً لهذه الغاية، أنشأت الحكومة السويسرية الفريق العامل المُشترك بين الإدرارات المعني بالذكاء الاصطناعي. وفي نهاية نوفمبر 2020، اعتمدت الحكومة المبادئ التوجيهية للذكاء الاصطناعي التي طورها الفريق تحت قيادة الإدارة الفدرالية للاقتصاد والتعليم البحث العلمي. وتوفر هذه الإرشادات إطاراً توجيهياً للإدارة الفدرالية.

"من المهم بالنسبة لسويسرا استخدام الإمكانيات التي تنشأ عن الاحتمالات الجديدة للذكاء الاصطناعي"، كما جاء في تقرير الفريق العامل المُشترك بين الإدارات المعنية بالذكاء الاصطناعي. تحقيقاً لهذه الغاية، من المهم ضمان أفضل الشروط الإطارية المُمكنة التي تتيح لسويسرا تطوير مكانتها كواحدة من مواقع الابتكار الرائدة في العالم في مجالات البَحث وتطوير وتطبيق الذكاء الاصطناعي. في الوقت نفسه، من المهم أيضاً مُعالجة المَخاطر المُرتبطة باستخدام الذكاء الاصطناعي واتخاذ الإجراءات في الوقت المناسب".

في أغسطس 2021، قررت الحكومة الفدرالية إنشاء "شبكة كفاءات في مجال الذكاء الاصطناعيرابط خارجي"، وأوضحت أنه سيتم البدء في إقامتها على الفور، على أن تكون جاهزة للبدء في العمل في ربيع عام 2022. ومن المقرر أن تكون الشبكة بمثابة نقطة اتصال لكل ما يتعلق بالتشبيك الداخلي والخارجي للإدارة الفدرالية بالإضافة إلى المسائل ذات الطابع العام في مجال الذكاء الاصطناعي.

مفاهيم أخلاقية مُختلفة

تدعو العديد من الأطراف إلى اعتماد معيار مُلزِم عالمياً. وعلى سبيل المثال، يعالج البرلمان الأوروبي بشكل مُكَثَف مسألة الفُرصَ والمخاطر الناجِمة عن الذكاء الاصطناعي. وفي عام 2018، قدمت مجموعة خبراء أنشأتها المفوضية الأوروبية مسودة لمبادئ توجيهية أخلاقية بإمكانها أن تميّز الذكاء الاصطناعي الجدير بالثقة. ولكن لا توجد استراتيجية عالمية مَتفق عليها لتحديد المبادئ المشتركة حتى الآن.

بشكل عام، توجد هناك بالفعل العديد من البيانات والمبادئ التوجيهية. لكن تحليلاً منهجياً لـ 84 وثيقة ذات صلة أجراه مختبر الأخلاق والسياسة الصحية في المعهد التقني الفدرالي العالي بزيورخ، أظهر خلوها من أي مبدأ أخلاقي مُشترك.

نظراً للاختلافات الكبيرة بين القِيَم الأخلاقية الأساسية التي تَنطَبق في الدول المُختلفة، فمن غير المؤكد تماماً ما إذا كان بالإمكان تحقيق تنظيم موَحَد للذكاء الاصطناعي في السياق الدولي. على أية حال، جاء ذِكر أكثر من خمس قيم أساسية في أكثر من نصف البيانات هي الشفافية، والعدالة والإنصاف، ومنع الضرر، والمسؤولية، وحماية البيانات والخصوصية.

يبدو أن هذه المناقشة محتدمة أيضًا بين عمالقة التكنولوجيا مثل غوغل. فقد أقدمت المجموعة مؤخرًا على فصل اثنين من خبراء الأخلاقيات لديها بعد خلاف. وهو قرار يدعو إلى التساؤل عما إذا كان احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي يندرج حقا ضمن الأولويات القصوى للشركات التكنولوجية الكبرى أم لا.

وفي المعهد التقني الفدرالي العالي في زيورخ، يريد مركزٌ جديدٌ للذكاء الاصطناعي الآن التركيز على القيم الأخلاقية الأوروبية على الأقل. وسوف يعمل هذا المركز على تجميع كافة بحوث المعهد العالي في مجال بالذكاء الاصطناعي. وكما قال ألكسندر إيليتش، المدير الإدراي للمركز في مقابلة مع swissinfo.ch، يجب أن يكون الانسان في صميم اهتمام هذه البحوث.

"الشخص الذي يُصمّم شيئاً جديداً يتحمل مسؤولية مُعيّنة أيضاً. لذا من المُهم بالنسبة لنا أن نساعد في تشكيل حوار بهذا الخصوص وأن نُدمج قيمنا الأوروبية في تطوير تطبيقات الذكاء الاصطناعي"، كما يقول.

ربما تكون الحجة الرئيسية لصالح استخدام الذكاء الاصطناعي هي قدرته على تبسيط حياتنا. ويتم هذا بشكل رئيسي من خلال أنظمته التي تساعدنا في توفير الوقت. وفي أفضل السيناريوهات، يمكن أن ينقذ الذكاء الاصطناعي الأرواح؛ على سبيل المثال عند الاستعانة بطائرة إنقاذ بدون طيار بإمكانها الدخول إلى منطق ضيقة جداً يصعب على طائرات الانقاذ العادية الوصول إليها.

بالإضافة إلى ذلك، يُقَدِّر مركز الأبحاث التابع للبرلمان الأوروبي أن بإمكان الذكاء الاصطناعي ان يُساهم بنسبة 1,5 - 4% في تقليل انبعاثات غازات الاحتباس الحراري العالمية بحلول عام 2030. وحسب تقدير أولي، تقارب هذه الكمية جميع الانبعاثات الغازية الناتجة عن الحركة الجوية.

"إن التحديات التي تواجه تحويل النُظُم في مجالات إمدادات الطاقة والتغذية والسكن والتنقل كبيرة"، كما جاء في تقرير الفريق العامل المُشترك بين الإدرارات المعني بالذكاء الاصطناعي.التابع للحكومة السويسرية. وبرأي الفريق، فإن الذكاء الإصطناعي باعتباره تقنية مُتقدمة "سوف يلعب دوراً مهماُ في مواجهة هذه التحديات".

وكما بات واضحاً خلال هذه السنة، أدى تفشي فيروس كوفيد -19 إلى اعتماد العديد من الخدمات على التقنية الرقمية بين عشية وضحاها تقريباً. وقد أدى ذلك إلى زيادة استخدام تطبيقات الذكاء الاصطناعي في الحياة اليومية، كما في استعمال الروبوتات المتحركة لتطهير الغُرَف في المباني العامة مثل المدارس والمستشفيات.

الخوف من فقدان الوظائف

لكن الذكاء الاصطناعي يتعرض إلى الكثير من الإنتقادات ايضاً. وكان عالم الفيزياء الفلكية الشهير ستيفن هوكينغ قد قال ذات مرة: "الذكاء الاصطناعي هو إما أفضل شيء أو أسوأ شيء يمكن أن يحدث للبشرية على الإطلاق". وعلى سبيل المثال، يخشى منتقدو ما يسمى بـ "الروبوتات القاتلة" من أن الذكاء الاصطناعي والروبوتات قد لا يُعَرِّض الوظائف للخطر فحسب، ولكن الناس أيضاً.

هذه الشكوك تجد أرضية خصبة داخل المجتمعات ايضاً، حيث يجد قطّاع الصناعة نفسه وسط ثورة بالفعل. فالبيانات الضخمة، والذكاء الاصطناعي، وإنترنت الأشياء، والطابعات ثلاثية الأبعاد وما إلى ذلك، تُغير المَهام المطلوبة من الموظفين، كما أزاد الاعتماد على الآلة في تنفيذ الأعمال البسيطة.

لهذا السبب، من المُتَوَقَّع أن يؤدي استخدام الذكاء الاصطناعي في مكان العمل إلى تقليص عدد الوظائف عاجلاً وليس آجلاً. وكما تُظهِر الأبحاث، يمكن للأنظمة الآلية حالياً إنجاز أكثر من نصف الأعمال التي يقوم به البَشَر بِشَكل أسرَع وأكثر كفاءة.

نتيجة ذلك، يقترح الباحث السويسري زافييه أوبيرسون فَرض ضرائب على الروبوتات في حال تأديتها لوظيفة يقوم بها الانسان في العادة. وبرأيه، ينبغي استثمار الإيرادات المُتأتية من هذه الضريبة في تمويل نظام الضمان الاجتماعي وتدريب العاطلين عن العمل.

على الجانب الآخر، تزداد الشكوك باستمرار بشأن تطبيقات الذكاء الاصطناعي في صفوف المُستهلكين. ولكن، ووفقاً لبعض الدراسات، فإن جلَّ اهتمام هؤلاء ليس بإمكانية قضاء أو سيطرة الذكاء الاصطناعي على البشرية، ولكن بأمن وسلامة بياناتهم الشخصية. لهذا السبب يتعرض المُصنعون لضغوط متزايدة لجعل تقنياتهم شفافة للمستخدمين.

الخبير ألكساندر إيليتش يقدم مثالاً على ذلك من خلال أهداف مركز الذكاء الاصطناعي الذي يديره: "نحن نريد أن نوضح ما يُمكن أن يُحققه الذكاء الاصطناعي في الواقع من خلال التحاور مع عامة الناس. هناك العديد من الأمثلة المَلموسة على ذلك. أن ما يحدث في مجالات الطب والصحة الرقمية بالذات وثيق الصلة بالجميع ويسهل فهمه ويُحدث العديد من التغييرات الإيجابية. لكننا نريد أن نُبين أيضاً أن الذكاء الاصطناعي يساعد الأشخاص ولا يحل محلهم.

مشاركة

اكتب تعليقا

بفضل حساب خاص بك على SWI، تتاح لك إمكانية المساهمة بالتعليق والمشاركة في الحوار على موقعنا.

. تفضل بالدخول أو بالتسجيل هنا.