▪︎ مجلس نيوز
قامت Microsoft بتسريح فريق الأخلاقيات والمجتمع بالكامل داخل منظمة الذكاء الاصطناعي كجزء من تسريح العمال في الآونة الأخيرة التي أثرت على 10000 موظف في جميع أنحاء الشركة ، منهاج تعلم.
قال الموظفون الحاليون والسابقون إن هذه الخطوة تترك Microsoft بدون فريق مخصص لضمان ارتباط مبادئ الذكاء الاصطناعي الخاصة بها ارتباطًا وثيقًا بتصميم المنتج في الوقت الذي تتولى فيه الشركة مسؤولية إتاحة أدوات الذكاء الاصطناعي للعموم.
لا تزال Microsoft تحتفظ بملف مكتب منظمة العفو الدولية المسؤولة، المكلف بوضع القواعد والمبادئ التي تحكم مبادرات الشركة للذكاء الاصطناعي. وتقول الشركة إن استثماراتها الإجمالية في العمل المسؤول آخذ في الازدياد على الرغم من عمليات التسريح الأخيرة للعمال.
وقالت الشركة في بيان: “تلتزم Microsoft بتطوير منتجات وخبرات الذكاء الاصطناعي بشكل آمن ومسؤول ، وتقوم بذلك من خلال الاستثمار في الأشخاص والعمليات والشراكات التي تعطي الأولوية لذلك”. “على مدى السنوات الست الماضية ، قمنا بزيادة عدد الأشخاص عبر فرق منتجاتنا وداخل مكتب الذكاء الاصطناعي المسؤول ، والذين ، جنبًا إلى جنب معنا جميعًا في Microsoft ، مسؤولون عن ضمان وضع مبادئ الذكاء الاصطناعي الخاصة بنا موضع التنفيذ. […] نحن نقدر العمل الرائد الذي قامت به الأخلاق والمجتمع لمساعدتنا في رحلتنا المستمرة والمسؤولة في مجال الذكاء الاصطناعي “.
لكن الموظفين قالوا إن فريق الأخلاقيات والمجتمع لعب دورًا مهمًا في ضمان انعكاس مبادئ الذكاء الاصطناعي المسؤولة للشركة في الواقع في تصميم المنتجات التي يتم شحنها.
“كانت مهمتنا … إنشاء قواعد في المناطق التي لم تكن موجودة فيها.”
يقول موظف سابق: “كان الناس ينظرون إلى المبادئ الصادرة عن مكتب الذكاء الاصطناعي المسؤول ويقولون ،” لا أعرف كيف ينطبق ذلك “. “كانت مهمتنا أن نظهر لهم وأن نضع قواعد في المناطق التي لم تكن موجودة فيها.”
في السنوات الأخيرة ، صمم الفريق لعبة لعب الأدوار تسمى Judgment Call ساعدت المصممين على تصور الأضرار المحتملة التي قد تنجم عن الذكاء الاصطناعي ومناقشتها أثناء تطوير المنتج. لقد كان جزءًا من أكبر “مجموعة أدوات الابتكار المسؤول“التي نشرها الفريق علنًا.
في الآونة الأخيرة ، كان الفريق يعمل على تحديد المخاطر التي يشكلها اعتماد Microsoft لتقنية OpenAI عبر مجموعة منتجاتها.
كان فريق الأخلاقيات والمجتمع في أكبر حالاته في عام 2020 ، عندما كان لديه ما يقرب من 30 موظفًا بما في ذلك المهندسين والمصممين والفلاسفة. في أكتوبر ، تم قطع الفريق إلى ما يقرب من سبعة أشخاص كجزء من إعادة التنظيم.
في اجتماع مع الفريق بعد إعادة التنظيم ، أخبر جون مونتغمري ، نائب رئيس شركة الذكاء الاصطناعي ، الموظفين أن قادة الشركة أوعزوا لهم بالتحرك بسرعة. “الضغط من [CTO] كيفن [Scott] و [CEO] ساتيا [Nadella] إنه مرتفع جدًا جدًا لأخذ أحدث طرازات OpenAI وتلك التي تليها ونقلها إلى أيدي العملاء بسرعة عالية جدًا “، وفقًا لما ورد في تسجيل صوتي للاجتماع حصل عليه منهاج.
قال مونتغمري إنه بسبب هذا الضغط ، كان سيتم نقل جزء كبير من الفريق إلى مناطق أخرى من المنظمة.
تراجعت بعض أعضاء الفريق. قال أحد الموظفين في المكالمة: “سأكون جريئًا بما يكفي لأطلب منك إعادة النظر في هذا القرار”. “بينما أفهم أن هناك مشكلات في العمل قيد التنفيذ … ما كان هذا الفريق دائمًا ما يشعر بقلق عميق بشأن كيفية تأثيرنا على المجتمع والآثار السلبية التي نتعرض لها. وهي مهمة “.
رفض مونتغمري. “هل يمكنني إعادة النظر؟ قال “لا أعتقد أنني سأفعل”. لأن الضغوط ظلت كما هي للأسف. ليس لديك وجهة النظر التي لدي ، وربما يمكنك أن تكون ممتنًا لذلك. هناك الكثير من الأشياء التي يتم طحنها في النقانق “.
وردا على الأسئلة ، قال مونتغمري إن الفريق لن يتم استبعاده.
قال: “ليس الأمر أنها تختفي – إنها تتطور”. “إنها تتطور نحو وضع المزيد من الطاقة داخل فرق المنتجات الفردية التي تبني الخدمات والبرامج ، مما يعني أن المحور المركزي الذي كان يقوم ببعض الأعمال هو نقل قدراته ومسؤولياته.”
تم نقل معظم أعضاء الفريق إلى مكان آخر داخل Microsoft. بعد ذلك ، قال أعضاء فريق الأخلاقيات والمجتمع المتبقون إن الطاقم الصغير جعل من الصعب تنفيذ خططهم الطموحة.
يقول أحد الموظفين إن هذه الخطوة تترك فجوة أساسية في التصميم الشامل لمنتجات الذكاء الاصطناعي
بعد حوالي خمسة أشهر ، في السادس من مارس ، طُلب من الموظفين الباقين الانضمام إلى مكالمة Zoom في الساعة 11:30 صباحًا بتوقيت المحيط الهادئ للاستماع إلى “تحديث مهم للأعمال” من مونتغمري. خلال الاجتماع ، قيل لهم أن فريقهم قد تم القضاء عليه بعد كل شيء.
يقول أحد الموظفين إن هذه الخطوة تترك فجوة أساسية في تجربة المستخدم والتصميم الشامل لمنتجات الذكاء الاصطناعي. وأوضحوا: “أسوأ شيء هو أننا عرّضنا الشركة للمخاطر والبشر للمخاطرة في القيام بذلك”.
يسلط الصراع الضوء على التوتر المستمر لعمالقة التكنولوجيا الذين ينشئون أقسامًا مخصصة لجعل منتجاتهم أكثر مسؤولية اجتماعيًا. في أفضل حالاتهم ، يساعدون فرق المنتج على توقع إساءة الاستخدام المحتملة للتكنولوجيا وإصلاح أي مشاكل قبل الشحن.
لكن لديهم أيضًا مهمة قول “لا” أو “الإبطاء” داخل المؤسسات التي غالبًا لا ترغب في سماع ذلك – أو توضيح المخاطر التي قد تؤدي إلى مشاكل قانونية للشركة إذا ظهرت في الاكتشاف القانوني. ويختفي الاحتكاك الناتج أحيانًا في الرأي العام.
في عام 2020 ، جوجل أطلق الباحث الأخلاقي في مجال الذكاء الاصطناعي Timnit Gebru بعد أن نشرت مقالًا ينتقد نماذج اللغة الكبيرة التي ستنتشر بعد ذلك بعامين. نتج عن الضجة الناتجة رحيل العديد من كبار القادة داخل القسم، وقلل من مصداقية الشركة فيما يتعلق بقضايا الذكاء الاصطناعي المسؤولة.
أصبحت Microsoft تركز على شحن أدوات الذكاء الاصطناعي بسرعة أكبر من منافسيها
قال أعضاء فريق الأخلاق والمجتمع إنهم حاولوا بشكل عام أن يكونوا داعمين لتطوير المنتج. لكنهم قالوا إنه مع تركيز Microsoft على شحن أدوات الذكاء الاصطناعي بسرعة أكبر من منافسيها ، أصبحت قيادة الشركة أقل اهتمامًا بنوع التفكير طويل المدى الذي تخصص فيه الفريق.
إنها ديناميكية تتطلب تدقيقًا دقيقًا. من ناحية أخرى ، قد يكون لدى Microsoft الآن فرصة لمرة واحدة في كل جيل لاكتساب قوة دفع كبيرة ضد Google في البحث ، وبرامج الإنتاجية ، والحوسبة السحابية ، وغيرها من المجالات التي يتنافس فيها العمالقة. عندما أعادت إطلاق Bing مع الذكاء الاصطناعي ، أخبرت الشركة المستثمرين بذلك كل 1 في المائة من حصة السوق التي يمكن أن تنتزعها من Google في البحث ستؤدي إلى 2 مليار دولار من العائدات السنوية.
يفسر هذا الاحتمال سبب امتلاك Microsoft حتى الآن استثمرت 11 مليار دولار في OpenAI، وتتسابق حاليًا لدمج تكنولوجيا الشركة الناشئة في كل ركن من أركان إمبراطوريتها. يبدو أنها حققت بعض النجاح المبكر: قالت الشركة الأسبوع الماضي إن Bing لديها الآن 100 مليون مستخدم نشط يوميًا ، ثلثهم جديد منذ إعادة تشغيل محرك البحث باستخدام تقنية OpenAI.
من ناحية أخرى ، يتفق جميع المشاركين في تطوير الذكاء الاصطناعي على أن التكنولوجيا تشكل مخاطر قوية وربما وجودية ، معروفة وغير معروفة. لقد بذل عمالقة التكنولوجيا جهدًا للإشارة إلى أنهم يأخذون هذه المخاطر على محمل الجد – مايكروسوفت وحدها فعلت ذلك ثلاث مجموعات مختلفة العمل على الموضوع حتى بعد القضاء على فريق الأخلاق والمجتمع. ولكن بالنظر إلى المخاطر ، فإن أي تخفيضات في الفرق التي تركز على العمل المسؤول تبدو جديرة بالملاحظة.
جاء التخلص من فريق الأخلاقيات والمجتمع في الوقت الذي قام فيه الموظفون المتبقون في المجموعة بتدريب تركيزهم على أكبر تحدٍ يواجههم حتى الآن: توقع ما سيحدث عندما تطرح Microsoft أدوات مدعومة من OpenAI لجمهور عالمي.
في العام الماضي ، كتب الفريق مذكرة توضح بالتفصيل مخاطر العلامة التجارية المرتبطة بـ منشئ صور بنج، والذي يستخدم نظام OpenAI’s DALL-E لإنشاء الصور بناءً على المطالبات النصية. أداة الصورة تم إطلاقه في عدد قليل من البلدان في أكتوبر، مما يجعلها واحدة من أولى عمليات التعاون العامة لشركة Microsoft مع OpenAI.
بينما أثبتت تقنية تحويل النص إلى صورة أنها تحظى بشعبية كبيرة ، توقع باحثو Microsoft بشكل صحيح أنها قد تهدد أيضًا سبل عيش الفنانين من خلال السماح لأي شخص بنسخ أسلوبهم بسهولة.
كتب الباحثون في “أثناء اختبار Bing Image Creator ، تم اكتشاف أنه من خلال موجه بسيط يتضمن فقط اسم الفنان والوسيط (الرسم أو الطباعة أو التصوير الفوتوغرافي أو النحت) ، كان من المستحيل تقريبًا التمييز بين الصور التي تم إنشاؤها وبين الأعمال الأصلية” المذكرة.
“خطر تلف العلامة التجارية … حقيقي وكبير بما يكفي لتتطلب تصحيحًا.”
وأضافوا: “إن خطر الإضرار بالعلامة التجارية ، سواء بالنسبة للفنان أو أصحاب المصلحة الماليين ، أو العلاقات العامة السلبية لشركة Microsoft الناتجة عن شكاوى الفنانين وردود الفعل السلبية العامة أمر حقيقي وكبير بما يكفي للمطالبة بالتعويض قبل الإضرار بعلامة Microsoft التجارية.”
بالإضافة إلى ذلك ، قامت OpenAI في العام الماضي بتحديث شروط الخدمة لمنح المستخدمين “حقوق الملكية الكاملة للصور التي تنشئها باستخدام DALL-E.” تركت هذه الخطوة قلق فريق الأخلاقيات والمجتمع في Microsoft.
وكتبوا في المذكرة: “إذا قام مُنشئ صور الذكاء الاصطناعي بتكرار صور الأعمال رياضياً ، فمن المشكوك فيه أخلاقياً أن يقترح أن الشخص الذي أرسل المطالبة لديه حقوق ملكية كاملة للصورة الناتجة”.
أنشأ باحثو Microsoft قائمة بإستراتيجيات التخفيف ، بما في ذلك منع مستخدمي Bing Image Creator من استخدام أسماء الفنانين الأحياء كمطالبات وإنشاء سوق لبيع عمل الفنان الذي سيظهر إذا بحث شخص ما عن اسمه.
يقول الموظفون أنه لم يتم تنفيذ أي من هذه الإستراتيجيات ، وتم إطلاق Bing Image Creator في بلدان الاختبار على أي حال.
تقول Microsoft إن الأداة تم تعديلها قبل الإطلاق لمعالجة المخاوف التي أثيرت في الوثيقة ، وطالبت فريق الذكاء الاصطناعي المسؤول لديها بعمل إضافي.
لكن الأسئلة القانونية حول التكنولوجيا لا تزال دون حل. في فبراير 2023 ، رفعت Getty Images دعوى قضائية ضد Stability AI ، صانعي مولد الفن بالذكاء الاصطناعي Stable Diffusion. اتهم جيتي شركة AI الناشئة باستخدام أكثر من 12 مليون صورة بشكل غير صحيح لتدريب نظامها.
وعكست الاتهامات المخاوف التي أثارها خبراء أخلاقيات الذكاء الاصطناعي في مايكروسوفت. كتب الموظفون العام الماضي: “من المحتمل أن يكون عدد قليل من الفنانين قد وافق على السماح باستخدام أعمالهم كبيانات تدريبية ، ومن المرجح أن الكثيرين لا يزالون غير مدركين كيف تسمح التكنولوجيا التوليدية بإنتاج أشكال مختلفة من الصور عبر الإنترنت لعملهم في ثوانٍ”.