Navigation

الآلة والأخلاق.. تحديات الذكاء الاصطناعي

ما الذي يحدث عندما تتخلى غوغل عن "أخلاقياتها"؟

جيف دين، المشارك في تأسيس مشروع " Google Brain " وموظف كبير في فريق الذكاء الاصطناعي يقدم الذكاء الاصطناعي بشركة غوغل للاستخدام للاستخدام الاجتماعي في أكتوبر 2018. Keystone / Elijah Nouvelage
هذا المحتوى تم نشره يوم 27 مارس 2021 - 11:00 يوليو,

قال باحثون في سويسرا يعملون في هذا القطاع إن عمالقة التكنولوجيا مثل غوغل ليسوا على دراية كاملة بقوة أدوات الذكاء الإصطناعي التي يقومون ببلورتها وابتكارها. ويثير طرد خبيرة رفيعة المستوى في المجال الأخلاقي مؤخرا من شركة غوغل تساؤلات حول ما إذا كان احترام القواعد الأخلاقية المحيطة بالذكاء الاصطناعي يندرج حقا ضمن أولويات عمالقة التكنولوجيا أم لا.

"الخوارزميات التي نعمل عليها هي مسألة تتعلق بالمصلحة العامة، وليست لأغراض شخصية"، هذا ما قاله المهدي المحمدي، الموظّف الوحيد في مشروع " Google Brain" في أوروبا، والذي يعمل ضمن فريق أخلاقيات الذكاء الاصطناعي عبر حسابه على تويتررابط خارجي حول الفصل المتسرّع لمديرته تيمنت غيبرو من وظيفتها في ديسمبر 2020. والهدف من مشروع " Google Brain" هو تكرار عمل الدماغ البشري الطبيعي باستخدام أنظمة التعلّم العميق.

وتعتبر غيبرو من أبرع الباحثين في مجال أخلاقيات الذكاء الإصطناعي. وفي مقالرابط خارجي كتبته مع زملاء آخرين لها، حذّرت من المخاطر الأخلاقية للنماذج اللغوية الكبيرة التي تشكل أساس عمل محرّك بحث غوغل وأعماله. وأشارت هذه الخبيرة إلى أن هذه النماذج تحلل كميات هائلة من النصوص على الإنترنت، ومعظمها قادم من العالم الغربي. وينطوي هذا التحيّز الجغرافي، من بين أمور أخرى، على خطر أن تنتقل اللغة العنصرية والمتحيّزة جنسيا والمسيئة من الويب إلى بيانات غوغل، وهكذا يُعاد انتاجها بواسطة نظام الذكاء الاصطناعي. وكان رد فعل غوغل هو توجيه طلب إلى غيبرو بسحب دراستها. وعندما رفضت ذلك، فصلوها من العمل.

محتويات خارجية

كذلك اكتشف باحثون آخرون أيضا التطوّر غير المنضبط لأنظمة الذكاء الاصطناعي وأبرزوا مخاطر ذلك. ويقول ألكسندر كالوسيس، أستاذ التنقيب في البيانات والتعلّم الآلي في جامعة العلوم التطبيقية الواقعة غرب سويسرا إن هناك "فيل في الغرفة": "الذكاء الاصطناعي موجود في كل مكان ويتطوّر بوتيرة سريعة، ومع ذلك غالبا ما يكون مطوّرو أدوات الذكاء الأصطناعي والنماذج غير مدركين حقا كيف ستتصرف هذه الأدوات عندما يتم استخدامها في اعدادات العالم الواقعي المعقّدة"، كما يحذّر بأن "إدراك العواقب يأتي متأخرا، هذا إذا حدث فعلا".

محتويات خارجية

وتقول آنا جوبين، الباحثة في معهد هومبولت للإنترنت والمجتمع في برلين وخبيرة في أخلاقيات التكنولوجيا الجديدة: "إذا تعاملوا مع متخصصة معترف بها في مجال أخلاقيات الذكاء الاصطناعي بهذه الطريقة، فكيف يمكن لغوغل أن تأمل في أن تصبح أكثر أخلاقية؟".

"غسيل- الاخلاقيات"

كانت غيبرو رمزًا لجيل جديد من القيادات النسائية ومن السود في عالم التكنولوجيا، حيث يهيمن الرجال البيض على قوتها العاملة. وجنبا إلى جنب مع زميلتها مارغريت ميشال، التي تم فصلها هي الأخرى من الشركة في شهر فبراير، قامت غيبرو بتكوين فريق متعدد الثقافات للبحث وتعزيز البعد الأخلاقي المتكامل في أنظمة الذكاء الاصطناعي داخل شركة غوغل.

علاقة غوغل المثيرة للجدل بالاخلاق

بعد تحديد مبادئها الأخلاقية التوجيهية في مجال الذكاء الاصطناعي، قررت غوغل في عام 2019 إكمال هيكل الحوكمة الداخلي الخاص بها من خلال إنشاء مجموعة مستقلة للإشراف على تطوير أنظمة الذكاء الاصطناعي في الشركة، وهو المجلس الاستشاري الخارجي للتكنولوجيا المتقدمة (ATEAC).

"ستنظر هذه المجموعة في بعض التحديات الأكثر تعقيدًا التي تواجه غوغل، والتي تنشأ بموجب مبادئ الذكاء الاصطناعي، مثل التعرف على الوجه والإنصاف في التعلم الآلي، وتقديم وجهات نظر متنوعة لإثراء عملنا. ونتطلع إلى المشاركة مع أعضاء ATEAC فيما يتعلق بهذه القضايا المهمة ،" كتب كينت ووكر، نائب الرئيس الأول للشؤون العالمية في الشركة، في مدونة غوغل.

على الرغم من هذه التصريحات، تم إغلاق المجموعة بعد أقل من أسبوعين من إطلاقها بسبب الضجة التي أحدثها التعيين المثير للجدل لعضوين في مجلس الإدارة، أحدهما كان يُعتبر محافظًا ومناهضا للمثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسانية'' ، والاستقالة اللاحقة لعضو آخر.

End of insertion

لكن جوبين تقول إنه ما لم يتم التعامل مع المشكلة بشكل صحيح، وتمكين مثل هذه الفرق من التصرف وفقًا لنتائج أبحاثهم ، يمكن أن يتحوّل  الذكاء الاصطناعي الأخلاقي إلى "قوة غير أخلاقية"، عبارة عن علامة تجميلية بحتة لإخفاء التعطش للأعمال التجارية التي هي في الواقع في صراع مفتوح مع المبادئ الأخلاقية.

كما هو الحال مع "الغسيل الأخضر"، حيث تروج الشركات للسياسات البيئية ولكن لا تتصرف وفقًا لها، يمكن للمرء أن يتحدث عن "غسيل الأخلاقيات" - أي ، سد النوافذ التي يتسرّب منها النقد الأخلاقي، توضح جوبين: "كمن يقول: نحن أخلاقيون، لذا توقفوا عن مضايقتنا".

ويتساءل بوراك أمير، كبير الموظفين ومهندس برمجيات عمل في مقر شركة غوغل بزيورخ لمدة 13 عامًا ، عن الغرض من وراء أبحاث الشركة الأخلاقية بعد إقالة غيبرو.

"لماذا لدينا قسم للأخلاقيات إذا كان بإمكانك كتابة كلمات لطيفة فقط؟" يتساءل المهندس. "إذا كان الهدف هو نشر بحث لطيف وإظهار حسن النية فقط، فلا داعي للقول إنه يتم لزيادة المعرفة. نحن بحاجة إلى مزيد من الشفافية."

وقد أعرب العديد من العلماء والباحثين عن تضامنهم مع غيبرو، بما في ذلك بعض الذين يعيشون ويعملون في سويسرا. وللتذكير يقع أكبر مركز أبحاث لشركة غوغل خارج الولايات المتحدة في زيورخ.

ويركز هذا المركز، من بين أمور أخرى، على التعلم الآلي والذكاء الاصطناعي. أمير هو واحد من أكثر من 2600 من موظفي الشركة الذين وقّعوا عريضة لدعم  غيبرو وشككوا في نهج الشركة تجاه أخلاقيات الذكاء الاصطناعيرابط خارجي.

محتويات خارجية

"الطربوش لا يصنع الراهب"

نفت شركة غوغل كونها قامت "بإقصاء" غيبرو، في ردّ تلقته  SWI swissinfo.ch بعد طلبها توضيح من الشركة في زيورخ، وأحالنا مكتب الاتصالات التابع لها إلى البيانات الرسمية التي أدلى بها مسبقًا المسؤولون التنفيذيون في  الشركة.  أحد هذه التصريحاترابط خارجي كان من قبل جيف دين، رئيس قسم الذكاء الاصطناعي، الذي قال إن البحث الذي وقّعت عليه غيبرو لم يستوفِ معايير النشر، وأن الشركة لم تطردها، لكنها قبلت استقالتها (التي تقول غيبرو إنها لم تقدمها أبدًا. ).

محتويات خارجية

بالنسبة لروبرتا فيشلي، الباحثة في جامعة سانت غالن، والتي وقعت أيضًا على العريضة التي تدعم غيبرو، تقول إن صورة شركة غوغل في مجتمع الأخلاقيات والذكاء الاصطناعي قد تأثرت سلبا منذ طردت باحثة الأخلاقيات. وتعتقد فيشلي أن تضارب المصالح أمر لا مفر منه عند إجراء بحث يطرح تساؤلات حول الممارسات الحالية داخل الشركة، لذلك كان هناك بعض المخاطر التي ينطوي عليها منذ البداية.

وتضيف الباحثة: "من الناحية النظرية، تحب ترغب الشركات في وجود باحثين نقديين. ولكن من الناحية العملية، يؤدي ذلك عن غير قصد إلى تضارب المصالح إذا بدأ الباحثون في انتقاد صاحب العمل".

تلاحظ فيشلي أن الباحثين الذين يسعون إلى القيام بعمل رائد في أخلاقيات الذكاء الاصطناعي غالبًا ما لا يكون لديهم الكثير من الخيارات، وينتهي بهم الأمر في الشركات الخاصة لأن هذا هو المكان الذي تتركز فيه معظم الموارد. "لذا فهم يحاولون فهم آليات معينة بشكل أفضل وتغيير الأشياء من الداخل، وهو أمر لا تٌحمد عقباه دائما".

واصل عملاق الويب القيام بأعمال تجارية على ما يبدو دون عائق بعد طرد غيبرو، لكن رمال ما قد تحركت. فقد شكلت مجموعة من موظفي الشركة في الولايات المتحدة في يناير أول نقابة في التاريخ داخل شركة تكنولوجية كبيرة متعددة الجنسيات، وهي نقابة عمال الأبجديةرابط خارجي. بعد ذلك، شكل موظفو غوغل حول العالم تحالفًا نقابيًا عالميًا في 10 دول، بما في ذلك المملكة المتحدة وسويسرا.

"فيل في الغرفة"

لكن تأثير غوغل وما يسمى بمجموعة (GAFA) اختصارا للأحرف الأولى من أسماء شركات غوغل وآمازون وفيسبوك وآبل يمتد إلى ما هو أبعد من حدود مكاتب الشركات. إن ما يفعله هؤلاء العمالقة في مجال التكنولوجيا وما يخططون له يفرض أيضًا جدول أعمال البحث الأكاديمي العالمي.

يقول ألكسندر كالوسيس من جامعة العلوم التطبيقية في غرب سويسرا: "من الصعب العثور على بحث في المؤسسات الأكاديمية والبحثية الكبيرة لا ترتبط، أو ربما ليس مموّلا من قبل شركات التكنولوجيا الكبرى."

بالنظر إلى هذا التأثير، يجد أنه من الأهمية بمكان أن يكون لديك أصوات مستقلة "خارجة عن المألوف" تسلط الضوء على مخاطر الاستغلال غير المنضبط للبيانات من قبل عمالقة التكنولوجيا.

ويضيف الباحث السويسري: "هذه هي المشكلة الكبرى في مجتمعنا. يمكن أن تكون المناقشات حول الأخلاق في بعض الأحيان مصدر إلهاء" عن هذه السيطرة المفروضة من قبل شركات التكنولوجيا الكبرى.

هل يمكن أن يكون البحث مستقلاً كما ينبغي من أجل التشكيك بموضوعية في مخاطر النشر على نطاق واسع لتقنيات الذكاء الاصطناعي؟ ليس حقاً ، على ما يبدو. تتجاوز المشكلة حدود غوغل، وتتعلق بجميع الشركات في السوق التي توظّف أنظمة الذكاء الاصطناعي بدون قواعد وحدود. بالنسبة لنا، هذا يعني أن التكنولوجيا تملي ما هو مقبول أخلاقيا وما هو غير مقبول وهذا الأمر يشكّل حياتنا ويصيغ عقليتنا.

(نقله من الانجليزية وعالجه: عبد الحفيظ العبدلي)

مقالات مُدرجة في هذا المحتوى

اكتب تعليقا

مشاركة

اكتب تعليقا

بفضل حساب خاص بك على SWI، تتاح لك إمكانية المساهمة بالتعليق والمشاركة في الحوار على موقعنا.

. تفضل بالدخول أو بالتسجيل هنا.