أهلاً بك في منتدى انكور التطويري

شرفتنا بحضورك لمنتدى انكور التطويري، المجتمع العربي للمحتوى المفيد والحصري حيث ستجد لدينا ما تحتاج لتزيد من معرفتك وخبراتك والمساحة الآمنة لنشر معرفتك ومشاركتها مع الاعضاء والزوار

أخلاقيات الذكاء الاصطناعي: ما هي ولماذا هي مهمة

Admin

مدير شركة انكور التطويرية
طاقم الإدارة
ادارة انكور
بسم الله الرحمن الرحيم

كنا قد نشرنا في مجلة انكور مقالًا يرشد نحو دورة لموقع freecodecamp عن أخلاقيات الذكاء الاصطناعي والتعلم الآلي. ولشدة أهمية هذا الموضوع قررت ان اتوسع قليلًا في طرحه وليكون بديلًا نصيًا عن الدورة المشار اليها في المقال السابق. ولأن التطور دائما يجلب معه ما هو إيجابي وسلبي وشاهدنا هذا على مراحل عدة منذ الثورة الصناعية، فمن المهم ان نتحدث عن التقنيات والتطور الشائع في زمننا الحاضر وهو الذكاء الاصطناعي.

مع تزايد أهمية الذكاء الاصطناعي للمجتمع، حدد الخبراء في هذا المجال الحاجة إلى حدود أخلاقية عندما يتعلق الأمر بإنشاء أدوات جديدة للذكاء الاصطناعي وتنفيذها. على الرغم من عدم وجود هيئة إدارية واسعة النطاق حاليًا لكتابة هذه القواعد وتنفيذها، فقد تبنت العديد من شركات التكنولوجيا نسختها الخاصة من أخلاقيات الذكاء الاصطناعي أو مدونة قواعد سلوك الذكاء الاصطناعي.
أخلاقيات الذكاء الاصطناعي

أخلاقيات الذكاء الاصطناعي هي المبادئ الأخلاقية التي تستخدمها الشركات لتوجيه التطوير والاستخدام المسؤول والعادل للذكاء الاصطناعي. في هذه المقالة، سنستكشف ماهية الأخلاقيات في الذكاء الاصطناعي، وسبب أهميتها، وبعض التحديات والفوائد المترتبة على تطوير مدونة قواعد سلوك الذكاء الاصطناعي.​

ما هي أخلاقيات الذكاء الاصطناعي؟​

أخلاقيات الذكاء الاصطناعي هي مجموعة المبادئ التوجيهية التي يستخدمها أصحاب المصلحة (من المهندسين إلى المسؤولين الحكوميين) لضمان تطوير تكنولوجيا الذكاء الاصطناعي واستخدامها بشكل مسؤول. وهذا يعني اتباع نهج آمن ومأمون وإنساني وصديق للبيئة في التعامل مع الذكاء الاصطناعي.

يمكن أن تتضمن مدونة أخلاقيات الذكاء الاصطناعي القوية تجنب التحيز، وضمان خصوصية المستخدمين وبياناتهم، وتخفيف المخاطر البيئية. تعد قواعد الأخلاقيات في الشركات والأطر التنظيمية التي تقودها الحكومة طريقتين رئيسيتين يمكن من خلالها تنفيذ أخلاقيات الذكاء الاصطناعي. ومن خلال تغطية قضايا الذكاء الاصطناعي الأخلاقية العالمية والوطنية، ووضع الأساس السياسي للذكاء الاصطناعي الأخلاقي في الشركات، يساعد كلا النهجين في تنظيم تكنولوجيا الذكاء الاصطناعي.

وعلى نطاق أوسع، تطورت المناقشات حول أخلاقيات الذكاء الاصطناعي من كونها تتمحور حول البحث الأكاديمي والمنظمات غير الربحية. واليوم، قامت شركات التكنولوجيا الكبرى مثل آي بي إم، وجوجل، وميتا بتجميع فرق لمعالجة القضايا الأخلاقية التي تنشأ عن جمع كميات هائلة من البيانات. وفي الوقت نفسه، بدأت الهيئات الحكومية والمؤسسات الحكومية الدولية في وضع اللوائح والسياسات الأخلاقية بناءً على البحث الأكاديمي.​

أصحاب المصلحة في أخلاقيات الذكاء الاصطناعي​

إن تطوير المبادئ الأخلاقية للاستخدام المسؤول للذكاء الاصطناعي وتطويره يتطلب من الجهات الفاعلة في الصناعة العمل معًا. ويجب على أصحاب المصلحة دراسة كيفية تداخل القضايا الاجتماعية والاقتصادية والسياسية مع الذكاء الاصطناعي، وتحديد كيف يمكن للآلات والبشر أن يتعايشوا بانسجام.

ويلعب كل من هذه الجهات الفاعلة دورًا مهمًا في ضمان قدر أقل من التحيز والمخاطر لتقنيات الذكاء الاصطناعي.​
  • الأكاديميون: يتحمل الباحثون والأساتذة مسؤولية تطوير الإحصائيات والأبحاث والأفكار القائمة على النظرية والتي يمكن أن تدعم الحكومات والشركات والمنظمات غير الربحية.​
  • الحكومة: يمكن للوكالات واللجان داخل الحكومة المساعدة في تسهيل أخلاقيات الذكاء الاصطناعي في الدولة. ومن الأمثلة الجيدة على ذلك تقرير الاستعداد لمستقبل الذكاء الاصطناعي الذي وضعه المجلس الوطني للعلوم والتكنولوجيا (NSTC) في عام 2016، والذي يحدد الخطوط العريضة للذكاء الاصطناعي وعلاقته بالتوعية العامة والتنظيم والحوكمة والاقتصاد والأمن.​
  • الكيانات الحكومية الدولية: تتولى كيانات مثل الأمم المتحدة والبنك الدولي مسؤولية رفع مستوى الوعي وصياغة الاتفاقيات المتعلقة بأخلاقيات الذكاء الاصطناعي على مستوى العالم. على سبيل المثال، اعتمدت الدول الأعضاء في اليونسكو البالغ عددها 193 دولة أول اتفاق عالمي على الإطلاق بشأن أخلاقيات الذكاء الاصطناعي في نوفمبر 2021 لتعزيز حقوق الإنسان وكرامته.​
  • المنظمات غير الربحية: تساعد المنظمات غير الربحية مثل Black in AI وQueer in AI المجموعات المتنوعة على الحصول على تمثيل في تكنولوجيا الذكاء الاصطناعي. أنشأ معهد مستقبل الحياة 23 مبدأ توجيهيًا أصبحت الآن مبادئ Asilomar AI، والتي تحدد المخاطر والتحديات والنتائج المحددة لتقنيات الذكاء الاصطناعي.​
  • الشركات الخاصة: المسؤولون التنفيذيون في جوجل، وميتا، وشركات التكنولوجيا الأخرى، بالإضافة إلى الخدمات المصرفية والاستشارات والرعاية الصحية وغيرها من الصناعات داخل القطاع الخاص التي تستخدم تكنولوجيا الذكاء الاصطناعي، مسؤولون عن إنشاء فرق الأخلاقيات وقواعد السلوك. وهذا غالبا ما يخلق معيارا للشركات لتحذو حذوها.​

لماذا تعتبر أخلاقيات الذكاء الاصطناعي مهمة؟​

تعد أخلاقيات الذكاء الاصطناعي مهمة لأن تكنولوجيا الذكاء الاصطناعي تهدف إلى تعزيز الذكاء البشري أو استبداله، ولكن عندما يتم تصميم التكنولوجيا لمحاكاة الحياة البشرية، فإن نفس المشكلات التي يمكن أن تؤثر على الحكم البشري يمكن أن تتسرب إلى التكنولوجيا. يمكن أن يكون لمشاريع الذكاء الاصطناعي المبنية على بيانات متحيزة أو غير دقيقة عواقب ضارة، خاصة بالنسبة للمجموعات والأفراد المهمشين أو غير الممثلين. علاوة على ذلك، إذا تم بناء خوارزميات الذكاء الاصطناعي ونماذج التعلم الآلي على عجل، فقد يصبح من الصعب على المهندسين ومديري المنتجات تصحيح التحيزات المستفادة. من الأسهل دمج قواعد الأخلاق أثناء عملية التطوير للتخفيف من أي مخاطر مستقبلية.​

أمثلة على أخلاقيات الذكاء الاصطناعي​

قد يكون من الأسهل توضيح أخلاقيات الذكاء الاصطناعي بأمثلة من الحياة الواقعية. في ديسمبر 2022، استخدم تطبيق Lensa AI الذكاء الاصطناعي لإنشاء صور شخصية رائعة ذات مظهر كرتوني من الصور العادية للأشخاص. من وجهة نظر أخلاقية، انتقد بعض الأشخاص التطبيق لعدم منح الائتمان أو المال الكافي للفنانين الذين ابتكروا الفن الرقمي الأصلي الذي تم تدريب الذكاء الاصطناعي عليه [1]. وفقًا لصحيفة واشنطن بوست، تم تدريب لينسا على مليارات الصور التي تم الحصول عليها من الإنترنت دون موافقتها [2].

مثال آخر هو نموذج الذكاء الاصطناعي ChatGPT، والذي يمكّن المستخدمين من التفاعل معه عن طريق طرح الأسئلة. يقوم ChatGPT بالبحث في الإنترنت عن البيانات والإجابات مثلًا قصيدة أو كود Python أو اقتراح. إحدى المعضلات الأخلاقية هي أن الناس يستخدمون ChatGPT للفوز بمسابقات البرمجة أو كتابة المقالات او للاجابة على امتحاناتهم في الجامعات بدل ان يقوموأ بها بناء على دراستهم وجهدهم. كما أنه يثير أسئلة مماثلة لسؤال Lensa، ولكن مع النص بدلاً من الصور.

هذان مجرد مثالين شائعين لأخلاقيات الذكاء الاصطناعي. مع نمو الذكاء الاصطناعي في السنوات الأخيرة، مما أثر على كل الصناعات تقريبًا وكان له تأثير إيجابي كبير على صناعات مثل الرعاية الصحية، أصبح موضوع أخلاقيات الذكاء الاصطناعي أكثر بروزًا. كيف نضمن الذكاء الاصطناعي الخالي من التحيز؟ ما الذي يمكن فعله للتخفيف من المخاطر في المستقبل؟ هناك العديد من الحلول المحتملة، ولكن يجب على أصحاب المصلحة التصرف بمسؤولية وبشكل تعاوني من أجل تحقيق نتائج إيجابية في جميع أنحاء العالم.​

التحديات الأخلاقية للذكاء الاصطناعي​

هناك الكثير من تحديات الحياة الواقعية التي يمكن أن تساعد في توضيح أخلاقيات الذكاء الاصطناعي. هنا ليست سوى عدد قليل.​

الذكاء الاصطناعي والتحيز​

إذا لم يجمع الذكاء الاصطناعي البيانات التي تمثل السكان بدقة، فقد تكون قراراتهم عرضة للتحيز. في عام 2018، تعرضت أمازون لانتقادات بسبب أداة التوظيف التي تعتمد على الذكاء الاصطناعي والتي خفضت تصنيف السير الذاتية التي تظهر فيها "نساء" (مثل "جمعية الأعمال الدولية النسائية") [3]. في جوهرها، ميزت أداة الذكاء الاصطناعي ضد المرأة وتسببت في مخاطر قانونية لعملاق التكنولوجيا.

الذكاء الاصطناعي والخصوصية​

كما ذكرنا سابقًا في مثال Lensa AI، يعتمد الذكاء الاصطناعي على البيانات المأخوذة من عمليات البحث على الإنترنت، وصور وتعليقات وسائل التواصل الاجتماعي، وعمليات الشراء عبر الإنترنت، والمزيد. وفي حين أن هذا يساعد على تخصيص تجربة العميل، إلا أن هناك أسئلة حول النقص الواضح في الموافقة الحقيقية لهذه الشركات للوصول إلى معلوماتنا الشخصية.

الذكاء الاصطناعي والبيئة​

بعض نماذج الذكاء الاصطناعي كبيرة وتتطلب كميات كبيرة من الطاقة للتدريب على البيانات. وبينما تُجرى الأبحاث لابتكار طرق للذكاء الاصطناعي الموفر للطاقة، فمن الممكن القيام بالمزيد لدمج المخاوف الأخلاقية البيئية في السياسات المرتبطة بالذكاء الاصطناعي.

كيفية إنشاء المزيد من الذكاء الاصطناعي الأخلاقي​

ويتطلب إنشاء ذكاء اصطناعي أكثر أخلاقية إلقاء نظرة فاحصة على الآثار الأخلاقية المترتبة على السياسات والتعليم والتكنولوجيا. ويمكن للأطر التنظيمية أن تضمن أن التكنولوجيات تعود بالنفع على المجتمع بدلا من الإضرار به. على الصعيد العالمي، بدأت الحكومات في فرض سياسات تتعلق بالذكاء الاصطناعي الأخلاقي، بما في ذلك كيفية تعامل الشركات مع القضايا القانونية في حالة ظهور تحيز أو ضرر آخر.

يجب على أي شخص يواجه الذكاء الاصطناعي أن يفهم المخاطر والتأثير السلبي المحتمل للذكاء الاصطناعي غير الأخلاقي أو المزيف. إن إنشاء ونشر الموارد التي يمكن الوصول إليها يمكن أن يخفف من هذه الأنواع من المخاطر.

قد يبدو استخدام التكنولوجيا للكشف عن السلوك غير الأخلاقي في أشكال أخرى من التكنولوجيا أمرًا غير بديهي، ولكن يمكن استخدام أدوات الذكاء الاصطناعي لتحديد ما إذا كان الفيديو أو الصوت أو النص (خطاب الكراهية على فيسبوك، على سبيل المثال) مزيفًا أم لا. يمكن لهذه الأدوات اكتشاف مصادر البيانات غير الأخلاقية والتحيز بشكل أفضل وأكثر كفاءة من البشر.​

 

✔ نبذة عنا

منتدى انكور التطويري لدعم وتطوير المواقع والمنتديات والمحتوى العربي. نسعى للارتقاء في المحتوى العربي وتقديم الخدمات المتنوعة لأصحاب المواقع والمنتديات بأحدث الامكانيات والشروحات مجانًا.
عودة
أعلى