▪︎ مجلس نيوز
تعتبر الفترة ما بين عام 1940م – 1950م بداية الخطوات الأولى للذكاء الاصطناعي، و في عام م١٩٥٦ عقد مؤتمرDartmouth الذي ظهر فيه لأول مرة مصطلح الذكاء الاصطناعي وذلك على يد Johan Maccarthy. ويمكننا تعريف الذكاء الاصطناعي بأنه: وسيلة لإعداد الحاسوب أو الروبوت، للتحكم فيه بواسطة برنامج يفكر بذكاء بنفس الطريقة التي يفكر بها البشر الأذكياء. فعلم الذكاء الاصطناعي هو أحد علوم الحاسب الآلي الحديثة التى تبحث عن أساليب متطورة لبرمجته للقيام بأعمال واستنتاجات تشابه في أضيق الحدود الأساليب التي تنسب لذكاء الإنسان؛ فالهدف من الذكاء الاصطناعي فهم العمليات الذهنية الشائكة التي يقوم بها العقل البشري أثناء التفكير ومن ثم ترجمة هذه العمليات الذهنية إلى ما يوازيها من عمليات حسابية تزيد من قدرة الحاسب على حل العمليات الشائكة.
التمييز العنصري في أنماط الخوارزميات: -وهذا هو موضوعنا-
بدايةً ما المقصود بتنميط البيانات؟
يقصد بها إنشاء ملفات تعريف البيانات وهي العملية التي تساعد في تقييم تكامل البيانات من خلال تقديم تحليل كامل لخصائصها الإحصائية، مثل عدد الأخطاء وعدد التحذير والنسبة المئوية المكررة والحد الأدنى والحد الأقصى للقيمة، مما يتيح فحص البيانات التفصيلي، يوفر هذا تقييمًا تفصيليًا لجودة البيانات، ويقدم تنميط البيانات رؤى حاسمة في المعلومات التي يمكن للمؤسسة الاستفادة منها لصالحها في صنع القرار والتحليل. تستخدم أدوات تحديد ملامح البيانات الخوارزميات التحليلية للمساعدة في فحص البيانات لتحديد مدى صلاحيتها، تلعب هذه الأدوات دورًا حيويًا في مساعدة الشركات على تبسيط استراتيجية البيانات الخاصة بها مع مبادئها وأهدافها.
هناك حكمة قديمة من الخيال العلمي، تقول:
“The future is already here, it’s just not evenly distributed.”
المستقبل هو الآن هنا، لكنه لم يوزع بطريقة متساوية، والمقصود بهذا الكلام هو أن الأثرياء يحصلون على الأدوات المتطورة أولًا لتصل إلى الفقراء في النهاية، لكن في الواقع فيما يخص موضوعنا فهو العكس تمامًا، فالأدوات الأكثر ثأرية وتطفلًا وتركز على المراقبة تكون متاحة للفقراء والمجتمعات الكادحة أولًا، ثم إذا نجحت بعد تجربتها في هذه المجتمعات، تنتقل بعد ذلك حينها إلى المجتمعات الأخرى. إننا نعاقب الفقراء ونقدس الأثرياء هكذا نتصرف كمجتمع بغض النظر عن اختلاف الفترات الزمنية، لكن في عصرنا الحالي علم البيانات يجعل هذا آليًا. وموضوع الخصوصية هو حديث الشارع الرقمي في هذه الأيام، فهناك خوارزميات رقمية تهيمن على عالمنا الشبكي وتؤدي أدوارًا بدءًا باقتراحات الشراء وانتهاء بتحليل المكالمات وصور الويب لأغراض التجسس وغيرها. في عالم الانترنت قد تجدك الخوارزمية في لحظة ضعف، وتحاول أن تحثك في لحظة ضعفك أيًا كانت نقطة ضعفك، فتجيد الآلات معرفة كل شخص على حدة؛ تأخذ هذه الخوارزميات كمدخلات ما يعجبك وما تعلق عليه وتشاركه، بعبارة أخرى المحتوى الذي تتفاعل معه. فالهدف من الخوارزميات هو تحقيق أقصى قدر من المشاركة من خلال معرفة ما يحبه الأشخاص وترتيبه في أعلى صفحاتهم، تعتمد منصات التواصل الاجتماعي بشكل كبير على سلوك الأشخاص لاتخاذ قرار بشأن المحتوى الذي يراه. ولشرح الموضوع وتبسيطه يمكن برمجة الحواسيب بطريقتين:
الطريقة الأولى: برمجة الحواسيب بماذا تفعل وذلك عن طريق إدخال الأوامر عليها بكل بساطة.
الطريقة الثانية: وهي الرائجة الآن، عبارة عن تلقيم الحاسوب بكميات كبيرة من البيانات، ثم يقوم الحاسوب بتصنيفها عبر استيعاب هذه البيانات بداخله، يمكننا القول لم تصبح هذه الطريقة رائجة إلا في الفترة الأخيرة بسبب عدم توفر كميات من البيانات إلى أن انتشرت الهواتف الذكية فساعدت بتجميع البيانات من خلال المليارات من مستخدمي الإنترنت هذه الأيام، وأصبحت شركات مثل: قوقل، وفيسبوك تمتلك كميات هائلة من البيانات.
عند التفكير في الذكاء الاصطناعي يكون هذا التفكير تقدميًا، لكن الذكاء الاصطناعي يقوم على البيانات والبيانات تعكس تاريخنا. لذا، فإن الماضي يعيش في الخوارزميات لذلك تظهر لنا هذه البيانات التفاوت الموجود في عالمنا. هل هذه التكنولوجيا معرضة للتحيز بشكل كبير؟ ما معنى العيش في مجتمع حيث يتحكم الذكاء الاصطناعي بشكل متزايد بالحريات التي لدينا؟ وماذا يعني التحيز ضد الناس؟ وهل قد تكون هذه الخوارزميات مدمرة ومؤذية؟ تساؤلات كثيرة تتبادر في ذهننا عند رؤية التطور السريع الذي نحن فيه، هل نحن المُسيطر عليه أم المُسَيطِر؟
يتعرض الناس لضرر الخوارزميات وهم على غير دراية ولا يوجد لهذا نظام أو محاسبة! فإيجابيات الخوارزميات الكثيرة تجعلنا كبشر نتغاضى عن أضرارها على المدى البعيد، ومن المُقلق رؤية هذا الإيمان الأعمى حيالها، فهل الآلة لا تخطئ أبدا؟ لا، لذلك علينا أن نعي مدى خطورتها ومراقبتها باستمرار تجنبًا للتحيز. لدينا خوارزميات كثيرة في العالم ويزداد نفوذها ويتم الترويج لها على أنها حقيقة مجردة، وأكثر ما يُقلِق حيال الذكاء الاصطناعي/ الخوارزميات، هي النفوذ. فقد قالت عنها البروفيسور كاثي اونيل:”أنها تُستخدم كدرع لحماية الممارسات الفاسدة” فهي تستخدم معلومات تاريخية لتوقع المستقبل.
Machine learning = a scoring system that scores the probability of what you’re
about to do.
هل هناك شركات تستحوذ على مستقبل الذكاء الاصطناعي؟
يوجد 9 شركات تبني مستقبل الذكاء الاصطناعي، 6 منها في الولايات المتحدة، و 3 في الصين.
يتم تطوير الذكاء الاصطناعي وفق منهجين مختلفين تمامًا، حيث تملك الصين صلاحية غير محدودة في جمع بيانات مواطنيها، إذا أراد مواطن صيني الحصول على خدمة الانترنت عليهم الخضوع لخدمة التعرف على الوجوه من أجل ذلك، تُستخدم هذه البيانات جميعها لمنحهم الإذن لفعل أشياء أو حرمانهم من القيام بأمور أخرى. بناء أنظمة تتعرف على الشخص تلقائيًا وتصنف جميع الأشخاص هو أسلوب تتبعه الصين، وذلك للمحافظة على الانضباط الاجتماعي. بالمقابل، في الولايات المتحدة لم نرَ وجهة نظر مُفصلة بشأن الذكاء الاصطناعي، ما نراه في الولايات المتحدة أن الذكاء الاصطناعي لا يطور من أجل المصلحة العامة كما هو الحال في الصين؛ بل يتم تطويره لاستخدامه في المجالات التجارية ولكسب الأرباح فهي تتبع ما يقوم المستخدم بتصفحه واقتراح إعلانات تشابه ما كان يبحث عنه. هذه ليست مجرد رؤية حاسوبية، فالذكاء الاصطناعي يؤثر على عمليات صنع القرار الآلية؛ فما ترونه على صفحات التواصل الاجتماعي، وما يظهر خصيصًا لكم من الإعلانات التي تعرض لكم غالبًا ما تحللها الخوارزميات ذات الذكاء الاصطناعي، وبذلك، فإن رؤيتكم للعالم تخضع للذكاء الاصطناعي.
أصبح لدينا اليوم خوارزميات نستطيع ملاحظتها، مثل: المساعدة الصوتية التي تفهم اللغة مثل التي توجد بأجهزة “آبل” والمعروفة بـ”سيري“، ومن الأمور الأخرى الملحوظة فلاتر “سناب شات” التي تتعرف على الوجه ثم تضيف شيئًا عليه، وهناك أيضا خوارزميات لا نراها وهي جزء من صنع القرار، مثل: خوارزميات قد تحدد قبولك في الجامعة من عدمه، ففي الفترة الأخيرة أصبح التقديم للجامعات إلكترونيًا وذلك جزء من مواكبة التطور، السؤال هنا: هل سبق وتبادر في ذهنك كيف يتم تحديد نسب القبول؟ وعلى أي أساس يتم تحديد الجامعة/التخصص الذي يناسب موزونتك/معدلك؟
ومن أمثلة الخوارزميات الأخرى، الموجودة في أنظمة البنوك والتي تحدد إن كنت مؤهل للحصول على قرض أم لا.
تنبأ “يوفال هراري” في كتابه “٢١ درس للقرن الـ٢١” بأن تقوم الخوارزميات والذكاء الاصطناعي بجمع كل معلومة عنك لاتخاذ قرارات نيابة عنك في كل شيء بما فيه أمور مثل: هل تستحق قرضًا من البنك، ميولك الجنسي، من تتزوج ومن تترك، تُنجب أو تمتنع عن الإنجاب، وغيرها من القرارات. الأصح أن الخوارزميات/ الذكاء الاصطناعي لن يقرر نيابة عنك فحسب، ولكنه سيقوم بتعديل حياتك بما يتناسب ويتطابق مع معلومات دقيقة تم تجميعها عنك، وهذا ما يحدث الآن بالفعل، إذا أخذنا مثال نظم الملاحة (GPS) التي ترشدك كيفية الوصول، والتي تتناقض بعض أوامرها بما تَعرف ولكنك رغم ذلك تثق برأيها وتأخذ به.
لكن لا ننكر قدرة الخوارزميات العجيبة، فيوم عن يوم تذهلنا بماذا تستطيع أن تفعل ففي الصور أدناه هي لأشخاص وهميين تم إنتاجها بواسطة الذكاء الاصطناعي وخوارزميات تعلم الآلة،
تم استخدام هذه الخوارزميات في إحدى الجامعات لاختبار مجموعة من المشاركين إن كان بإمكانهم التفريق ما بين صور الأشخاص الحقيقية والوهمية التي تم صنعها بواسطة الذكاء الاصطناعي.
قضايا عن تحيز الخوارزميات:
DIGITAL DISCRIMINATION?
(apple credit card accused of gender bias in algorithms)
في قضية سابقة يتهم أحد مؤسسي “آبل” البطاقة الائتمانية الرقمية الجديدة من الشركة، بالتمييز الجندري، حيث قال أحد المبادرين التقنيين أن الخوارزميات المستخدمة متحيزة جنسيًا.
حيث كما هو موضح في الصورة أعلاه، حصل على حد ائتماني يوازي ١٠ مرات ما حصلت عليه زوجته، مع أنهما لا يملكان حسابات منفصلة أو ممتلكات منفصلة. السؤال هنا: هل الشركات تعرف كيفية عمل خوارزمياتها؟ لا، بل هي تعرف ما تحاول خوارزمياتها فعله، ولكن لا تعرف بشكل دقيق كيف تؤدي خوارزمياتها عملها، وهذه من أكثر الأسئلة المثيرة للاهتمام في عصرنا الحالي، كيف نحقق العدالة في نظام لا نعرف كيف تعمل الخوارزميات فيه؟
وفي قضية أخرى لاقت صيت لتحيز الخوارزميات، قرر بعض مهندسي “أمازون” أنهم سيستخدمون الذكاء الاصطناعي لمراجعة السير الذاتية للتوظيف، ولكن الشرطة ألغت أداة التوظيف بالذكاء الاصطناعي بعد أن اكتشفت أن البرنامج متحيز ضد النساء، فقد رفض هذا النموذج جميع السير الذاتية للنساء وكل من أورد جامعة نسائية في سيرته الذاتية، ونتيجة لذلك كان عدد النساء اللواتي يشغلن مناصب تقنية نافذة في “أمازون” قليل جدًا، كما لا يوجد الكثير من النساء في مناصب تقنية نافذة في أي مكان.
Less than %14 of A.I. researchers are women.
وفي قضية أخرى عن التحيز العنصري:
منظم التأمين في “نيويورك” سيبدأ تحقيقًا في مجموعة “يونايتد هيلث” بعد أن كشفت الدراسة بأن خوارزمية “يونايتد هيلث” أعطت الأولوية في الرعاية الصحية للمرضى الأصحاء بيض البشرة على المرضى السود من الأكثر وهنًا، وهذه إحدى الأمثلة عن التمييز العنصري في الخوارزميات أو تكنولوجيا الذكاء الاصطناعي. كانت الآلة تحاكي ببساطة حالة العالم كما هو، ولا تتخذ الآلات قرارات أخلاقية، بل تتخذ الآلات قرارات قائمة على حسابات رياضية، فإذا استخدمنا نماذج تعلم الآلات محاكاة العالم كما هو اليوم، فمن الواضح أننا لن نحقق أي تقدم اجتماعي.
هل سوف نتطرق للخوارزميات وماذا تستطيع أن تفعل دون أن نذكر قضية “فيسبوك” الشهيرة؟ استحاله.
في عام 2010م قرر “فيسبوك” إجراء تجربة على 61 مليون شخص حيث وضعت رسالة على منصتها تظهر لمرة واحدة ساعدت في حملة الانتخابات آنذاك، ومفادها:
بلمسة خفيفة جدًا، استطاع “فيسبوك” أن يؤثر على نتيجة انتخابات متقاربة دون أن يلاحظ أحد وبكل سهولة دفع “فيسبوك” 300ألف شخص إلى التوجه إلى صناديق الاقتراع والتصويت. وفي عام 2016م خلال الانتخابات الأمريكية ظهرت من جديد إشاعات حول علاقة “فيسبوك” بالحملة الانتخابية للرئيس الأمريكي السابق”دونالد ترامب” حيث تم رفع أصابع الاتهام تجاه الشركة، قالت صحيفة “نيويورك تايمز” الأمريكية وصحيفة “الأوبزرفر” البريطانية إن شركة “كمبردج أناليتيكا” جمعت معلومات خاصة عن أكثر من ٥٠ مليون مستخدم لموقع “فيسبوك” من خلال تطوير تقنيات لدعم الحملة الانتخابية للرئيس السابق “دونالد ترامب” في عام 2016م . في النهاية، تستطيع الخوارزميات تغيير نتيجة انتخابات رئاسية وإلى الآن يتم التشكيك في قوتها.