أزمة داخل Google DeepMind: العاملون يرفضون توظيف الذكاء الاصطناعي في الحروب

أزمة داخل Google DeepMind: العاملون يرفضون توظيف الذكاء الاصطناعي في الحروب

شهدت مكاتب شركة Google DeepMind في المملكة المتحدة تصويتًا من قبل الموظفين لصالح تشكيل نقابة عمالية، في خطوة تهدف إلى التأثير على سياسات الشركة المتعلقة باستخدام تقنيات الذكاء الاصطناعي، خاصة فيما يتعلق بالتطبيقات العسكرية.

ووفقًا لتقارير عمالية، جاءت نتيجة التصويت بأغلبية كبيرة داخل نقابة Workers Union of Communication (CWU)، حيث أيد نحو 98% من الأعضاء العاملين في DeepMind قرار التمثيل النقابي المشترك مع نقابة Unite the Union، ما يعكس مستوى واسعًا من الدعم الداخلي للمبادرة.

مطالب الموظفين: رفض الاستخدام العسكري للذكاء الاصطناعي

طالب عدد من موظفي DeepMind إدارة الشركة بإعادة النظر في استخدام نماذج الذكاء الاصطناعي الخاصة بها، مع التركيز على منع توظيف هذه التقنيات في أي تطبيقات عسكرية أو أمنية.

وأشار أحد الموظفين، في تصريح منسوب له عبر نقابة CWU، إلى مخاوف داخلية من أن بعض نماذج الذكاء الاصطناعي قد تُستخدم بشكل غير مباشر في عمليات عسكرية أو أمنية، مضيفًا أن هناك قلقًا متزايدًا داخل فرق العمل بشأن “احتمال مساهمة التكنولوجيا في انتهاكات للقانون الدولي”، وفق تعبيره.

كما أوضح العاملون أن الهدف من التحرك النقابي هو ضمان وجود إطار رقابي واضح يحدد استخدامات التكنولوجيا ويمنع توظيفها في سياقات مثيرة للجدل.

دور النقابات: CWU وUnite في تمثيل الموظفين

طلب موظفو DeepMind رسميًا الاعتراف بكل من نقابة CWU ونقابة Unite the Union كممثلين قانونيين لهم داخل الشركة، في محاولة لتعزيز قدرتهم على التأثير في قرارات العمل والسياسات التقنية.

وتُعد هذه الخطوة جزءًا من موجة متنامية داخل شركات التكنولوجيا الكبرى، حيث يسعى العاملون إلى الحصول على صوت أكبر في القرارات المرتبطة باستخدام الذكاء الاصطناعي وتوجيهه نحو تطبيقات محددة.

ويأتي هذا التطور في وقت تشهد فيه صناعة التكنولوجيا العالمية نقاشًا واسعًا حول أخلاقيات تطوير الذكاء الاصطناعي وحدود استخدامه.

جدل حول استخدام الذكاء الاصطناعي في الأغراض العسكرية

أثارت هذه التحركات النقابية جدلًا أوسع حول العلاقة بين شركات التكنولوجيا الكبرى والجهات العسكرية، خاصة مع تزايد استخدام تقنيات الذكاء الاصطناعي في مجالات الدفاع والتحليل الأمني.

ويرى بعض العاملين في القطاع أن توسع استخدام هذه التقنيات في المجالات العسكرية قد يخلق تحديات أخلاقية معقدة، خصوصًا فيما يتعلق بالمسؤولية عن القرارات التي تعتمد على الخوارزميات.

في المقابل، تشير شركات التكنولوجيا عادة إلى أن تقنياتها تُطور لأغراض عامة، وأن أي استخدامات محددة تعتمد على الجهات التي تشتري أو تطبق هذه التقنيات.

انقسام داخلي داخل قطاع الذكاء الاصطناعي

تعكس التطورات داخل DeepMind حالة أوسع من الانقسام داخل قطاع الذكاء الاصطناعي، حيث تتزايد الدعوات من موظفين وخبراء لوضع قيود واضحة على استخدام هذه التقنيات في المجالات الحساسة.

ويبرز هذا الانقسام بين اتجاهين رئيسيين:

  • اتجاه يدعو إلى تطوير الذكاء الاصطناعي بشكل مفتوح مع ضوابط تنظيمية
  • واتجاه آخر يطالب بفرض قيود صارمة على استخدامه في السياقات العسكرية أو الأمنية

ويُتوقع أن يستمر هذا الجدل مع توسع الاعتماد العالمي على تقنيات الذكاء الاصطناعي في قطاعات حيوية.

 مستقبل العلاقة بين التقنية والأخلاق

تعكس خطوة موظفي Google DeepMind تحولًا مهمًا في طبيعة العلاقة بين العاملين في قطاع التكنولوجيا وشركاتهم، حيث لم يعد النقاش مقتصرًا على بيئة العمل فقط، بل امتد ليشمل تأثير التكنولوجيا على القضايا العالمية.

ومع تصاعد دور الذكاء الاصطناعي في مختلف المجالات، يظل السؤال الأساسي مطروحًا حول كيفية تحقيق التوازن بين الابتكار التقني والمسؤولية الأخلاقية، دون الإضرار بسمعة الشركات أو استقرارها التشغيلي.

وفي ظل هذا المشهد المتغير، يبدو أن النقابات العمالية ستلعب دورًا متزايدًا في تشكيل مستقبل سياسات الذكاء الاصطناعي داخل كبرى شركات التكنولوجيا العالمية.

Exit mobile version