المدة : 8 minute read

قالت كارينا كورتيز، كبيرة مسؤولي الأفراد في شركة Cornerstone OnDemand، وهي شركة تقدم برمجيات تطوير الأفراد القائمة على السحابة وشركة تكنولوجيا التعلم ومقرها في سانتا مونيكا، كاليفورنيا، إن هناك بالفعل بعض الفوائد والتطبيقات الواضحة الناشئة عن إدخال الذكاء الاصطناعي في الموارد البشرية. على سبيل المثال، وقال كورتيز إن هناك العديد من الفرص لتوفير الوقت وزيادة الكفاءة. "من خلال أتمتة بعض أعمالنا باستخدام الذكاء الاصطناعي، يمكننا الاستمرار في التركيز على استراتيجية الصورة الكبيرة والتخطيط المستقبلي." وقالت شخصيًا: "لقد استخدمت الذكاء الاصطناعي مؤخرًا لصياغة وصف وظيفي لدور تم إنشاؤه حديثًا بالإضافة إلى تلخيص موضوعات من جلسات التعليقات التي أجريتها". بالإضافة إلى ذلك، أشارت إلى أن "الذكاء الاصطناعي يمكن أن يساعد المؤسسات على تحديد الفجوات في المهارات وتقديم توصيات تعليمية مخصصة للمساعدة في سد تلك الفجوات بالإضافة إلى تحديد الوظائف المؤقتة أو المشاريع الخاصة لاكتساب المزيد من الخبرة".

ولكن إلى جانب الفوائد تأتي بعض المخاطر المحتملة، وخاصة المخاطر الأخلاقية.

يجب أن يكون قادة الموارد البشرية على دراية بالعديد من الاعتبارات الأخلاقية عند اعتماد تقنيات الذكاء الاصطناعي مثل ChatGPT، بما في ذلك التحيز الخوارزمي، والمساءلة الخوارزمية، وكيفية ضمان العدالة والشفافية في عمليات الموارد البشرية المعتمدة على الذكاء الاصطناعي.

الاعتبارات الأخلاقية الرئيسية

جاك بيركويتز هو كبير مسؤولي البيانات في ADP، وهي شركة تقدم خدمات الرواتب والموارد البشرية والضرائب ومقرها في روزلاند، نيوجيرسي. منذ عام 2019، قال بيركويتز، ركزت ADP على ضمان نشر تكنولوجيا الذكاء الاصطناعي الخاصة بها بشكل أخلاقي لصالح العملاء والموظفين. وقال إن الشفافية والمساءلة لهما أهمية قصوى، مضيفًا أنه يجب أن يكون للموظفين الحق في معرفة مكان وكيفية استخدام التكنولوجيا، والسماح لهم بإلغاء الاشتراك، والقدرة على طرح الأسئلة. يتحمل قسم الموارد البشرية والبائعين مسؤولية مشتركة للحفاظ على هذه المعايير الأخلاقية وضمان الامتثال القانوني.

وقالت دانييل كرين، كبيرة مسؤولي الأفراد في OneStream، وهي منصة مالية ذكية مقرها في مدينة روتشستر بولاية ميشيغان: "يجب علينا أن نفكر بعناية في المصادر التي يسترد منها الذكاء الاصطناعي المعلومات، للتأكد من أنها دقيقة وموثوقة وغير متحيزة". وقالت: "في ظل الثغرات الأمنية، يعد التعاون الوثيق مع تكنولوجيا المعلومات أمرًا ضروريًا لضمان بنية تحتية قوية وآمنة.

يعد التحيز أيضًا مصدر قلق، ومن المحتمل أن يكون متخصصو الموارد البشرية على دراية بالحالات التي أدى فيها الذكاء الاصطناعي إلى التحيز. وينطبق هذا بشكل خاص إذا كانوا يعملون في مدينة نيويورك، التي سنت مؤخرًا قانونًا يلزم أصحاب العمل بالتدقيق بحثًا عن التحيز وإبلاغ المرشحين للوظائف عند استخدام أدوات الذكاء الاصطناعي هذه. وقال كورتيز إن عملية التوظيف ليست فقط هي التي تخضع للتحيز. وقالت: "بالنسبة للموارد البشرية، تتعلق الاعتبارات الأخلاقية الرئيسية بالتأكد من أن الذكاء الاصطناعي لا يقدم تحيزًا في أي من عملياتنا - بدءًا من التوظيف، وحتى الترقية، ودفع المساواة وكل شيء بينهما".

جريج فيكري هو مدير ممارسة HCM في شركة ISG العالمية لأبحاث التكنولوجيا والاستشارات، ومقرها في ستامفورد، كونيتيكت. وقال فيكري إن حلول الذكاء الاصطناعي ستلتقط أي تحيز في البيانات التي يتم تدريبهم منها. وقد يؤدي ذلك إلى التمييز في القرارات المتعلقة بالموارد البشرية.

وقال كورتيز: "من المهم أن نتذكر أنه لمجرد أننا نستخدم أداة الذكاء الاصطناعي، فإن هذا لا يمنع استخدام التدخل البشري والمراجعة". "قد تعكس أدوات الذكاء الاصطناعي مخرجات تحتوي على بيانات قديمة أو محدودة. يجب على المؤسسات أن تفترض أن قدرًا معينًا من البيانات غير دقيقة و/أو متحيزة و/أو غير كاملة، مما يتطلب ضوابط للتخفيف من المخاطر."

ما هو الدور الذي يجب أن يلعبه قادة الموارد البشرية؟

وقال كورتيز: "يجب أن يشارك قادة الموارد البشرية بنشاط في تقييم واختيار أنظمة الذكاء الاصطناعي، وتحليل عوامل مثل التحيز الخوارزمي وتأثيره المحتمل على DE&I [التنوع والإنصاف والشمول] وجهود العدالة". "يجب على هؤلاء القادة تنفيذ آليات لرصد التحيز الخوارزمي، ومراجعة وتحسين عمليات الموارد البشرية المعتمدة على الذكاء الاصطناعي بشكل منتظم. وأخيرًا، يجب على قادة الموارد البشرية الدعوة إلى البحث والتطوير المستمر في أخلاقيات الذكاء الاصطناعي، والبقاء على اطلاع بالممارسات والمعايير الناشئة لتحسين التنفيذ الأخلاقي المستمر لأخلاقيات الذكاء الاصطناعي. قالت: تقنيات الذكاء الاصطناعي.

 

التعليم والتعاون

وقال فيكري إن قادة الموارد البشرية يجب عليهم:

تثقيف أنفسهم والآخرين حول الاعتبارات الأخلاقية المرتبطة باعتماد الذكاء الاصطناعي.
المشاركة بنشاط في اختيار وتقييم تقنيات الذكاء الاصطناعي، بما في ذلك تقييم البائعين لالتزامهم بالعدالة والشفافية والمساءلة.
تعاون مع الفرق القانونية وفرق الامتثال لوضع سياسات وإرشادات واضحة حول اعتماد الذكاء الاصطناعي، بما في ذلك قواعد ولوائح خصوصية البيانات.
تدريب الموظفين على أخلاقيات الذكاء الاصطناعي، وإنشاء قنوات للإبلاغ عن المخاوف الأخلاقية وتشجيع الحوار المفتوح حول الاعتبارات الأخلاقية.
يمكن للموارد البشرية أيضًا أن تلعب دورًا في تسهيل التعاون بين المجالات الرئيسية للشركة لمعالجة ومراقبة التحديات الأخلاقية للذكاء الاصطناعي.

قال تيم ديسي، الذي درس الذكاء الاصطناعي وتعلم العلوم منذ الثمانينات، بما في ذلك 30 عامًا في الجامعة: "لقد وصلنا إلى عصر حيث يجب أن يصبح الانقسام بين أقسام تكنولوجيا المعلومات والمديرين والموارد البشرية غير واضح عندما يتعلق الأمر بتحسين قيمة الذكاء الاصطناعي". معهد ماساتشوستس للتكنولوجيا كمطور وقائد. وهو مؤلف كتاب مصانع الحكمة: الذكاء الاصطناعي والألعاب وتعليم العامل الحديث (Rejuvenate Publishing, 2023). وقال ديسي: "إن تطوير السياسات على مستوى المنظمة بشأن الاستخدام المناسب للذكاء الاصطناعي سيتطلب التعاون مع المتخصصين في مجال الأعمال والشؤون القانونية والعملاء والموظفين والموارد البشرية". "نظرًا لأن الذكاء الاصطناعي يتحرك بسرعة كبيرة ومن المرجح أن تحتاج أي قرارات سياسية أولية إلى مراجعة مع اكتساب الخبرة، فيجب أن يكون هناك مجموعة دائمة تعمل على تجميع الخبرات في هذا الشأن وتكييف السياسات والمعايير على أساس منتظم."

نظرًا لأن تأثيرات الذكاء الاصطناعي منتشرة جدًا، فقد اقترح داسي أيضًا فكرة "العلاج الإنتاجية"، وهي عملية من شأنها أن تتضمن "تقديم المشورة الحرفية لكل موظف حول كيفية استخدام الذكاء الاصطناعي في وظيفته المحددة ولشخصيته المحددة وعمليات العمل المثلى". ".

سياسات

ويجب أيضًا وضع السياسات لتوجيه استخدام الذكاء الاصطناعي. وقال كورتيز إن بعض اعتبارات السياسة قد تشمل "الموافقة على أدوات الذكاء الاصطناعي، والتعاقد، والوصول والمصادقة، ومدخلات البيانات، والمخرجات، ومراقبة الأدوات، ووضع العلامات، والامتثال، وما إلى ذلك". بالإضافة إلى ذلك، أضاف كرين: "يجب على المؤسسات أيضًا تطوير سياسات "الاستخدام الآمن" وتوفير التدريب على الذكاء الاصطناعي لتعزيز الاستخدام المسؤول والأخلاقي لهذه التقنيات".

أشار بيركوفيتش إلى أن متخصصي الموارد البشرية لديهم مكونان رئيسيان - القادة والموظفون على المستوى التنفيذي - وأقر بأن هذا قد يضعهم في بعض الأحيان في صراع. وشجع قادة الموارد البشرية على أن يكونوا استباقيين في قيادة المحادثات حول الذكاء الاصطناعي والأخلاقيات في مؤسساتهم، معترفًا بأن البعض قد يكون متخوفًا، لكنه أشار إلى أن هذه المناقشات مهمة.

التدريب والتطوير

وقال فيكري إن التدريب والتطوير أمران مهمان دائمًا، ولكن بشكل خاص عندما يتم تقديم تقنية جديدة. ونصح فيكري قائلاً: "يجب على المنظمات تقديم برامج تدريبية تتناول على وجه التحديد الآثار الأخلاقية لاعتماد الذكاء الاصطناعي". وقال إن ذلك "يمكن أن يساعد المتخصصين في الموارد البشرية والموظفين على تحديد وتخفيف المخاطر الأخلاقية المرتبطة بأنظمة الذكاء الاصطناعي".

بالإضافة إلى ذلك، اقترح فيكري أنه من المهم لمحترفي الموارد البشرية أن يفهموا مفاهيم الذكاء الاصطناعي وقدراته وقيوده. "إن الإلمام بمحو الأمية في مجال الذكاء الاصطناعي سيساعد قسم الموارد البشرية على اتخاذ قرارات مستنيرة والتغلب على التحديات الأخلاقية بشكل فعال."

نظرًا للآثار واسعة النطاق للذكاء الاصطناعي على كل من التأثير الإيجابي وإدخال المخاطر، قد يكون من المستحيل ومن غير الحكمة بالتأكيد إخراج البشر من العمليات المتأثرة بالذكاء الاصطناعي. وكما أشار ديسي، لا توجد طريقة للتغلب على احتمال التحيز الذي يمكن أن يقدمه الذكاء الاصطناعي في مجموعة واسعة من العمليات. وقال: "من المفترض أن يكون لدى الذكاء الاصطناعي تحيزات - بالمعنى الرياضي - لأن وظيفته هي التقاط الأنماط". "المفتاح هو تقليل التحيزات غير المرغوب فيها وفقًا للحساسيات الإنسانية والقانونية والتنظيمية."

لين جرينسينج-بوفال كاتب مستقل في تشيبيوا فولز، ويسكونسن.