▪︎ مجلس نيوز
في مناقشة حول التهديدات التي تشكلها أنظمة الذكاء الاصطناعي ، أكد سام ألتمان ، الرئيس التنفيذي والمؤسس المشارك لشركة OpenAI ، أن الشركة لا تقوم حاليًا بتدريب GPT-5 ، الوريث المفترض لنموذج اللغة AI الخاص بها GPT-4 ، صدر في مارس.
يتحدث في حدث في معهد ماساتشوستس للتكنولوجيا، سُئل ألتمان عن رسالة مفتوحة تم تداولها مؤخرًا بين عالم التكنولوجيا تطلب من مختبرات مثل OpenAI إيقاف تطوير أنظمة الذكاء الاصطناعي “أقوى من GPT-4”. سلط الخطاب الضوء على المخاوف المتعلقة بسلامة الأنظمة المستقبلية ولكنه كان كذلك انتقد من قبل الكثيرين في الصناعة ، بما في ذلك عدد من الموقعين. يختلف الخبراء حول طبيعة التهديد الذي يشكله الذكاء الاصطناعي (هل هو وجودي أم أكثر دنيوية؟) وكذلك كيف يمكن للصناعة أن تشرع في “إيقاف” التنمية في المقام الأول.
في معهد ماساتشوستس للتكنولوجيا ، قال ألتمان إن الرسالة “تفتقد إلى معظم الفروق التقنية حول المكان الذي نحتاج فيه إلى التوقف المؤقت” وأشار إلى أن إصدارًا سابقًا زعم أن OpenAI يقوم حاليًا بتدريب GPT-5. قال ألتمان: “نحن لسنا ولن نفعل ذلك لبعض الوقت”. “ومن هذا المنطلق ، كان الأمر سخيفًا نوعًا ما.”
ومع ذلك ، لمجرد أن OpenAI لا يعمل على GPT-5 لا يعني أنه لا يوسع قدرات GPT-4 – أو ، كما كان ألتمان حريصًا على التأكيد ، فإنه يأخذ بعين الاعتبار الآثار الأمنية لمثل هذا العمل. قال: “نحن نقوم بأشياء أخرى بالإضافة إلى GPT-4 التي أعتقد أنها تحتوي على كل أنواع قضايا السلامة التي من المهم معالجتها والتي تم استبعادها تمامًا من الرسالة”.
يمكنك مشاهدة فيديو الصرف أدناه:
تعليقات Altman مثيرة للاهتمام – ولكن ليس بالضرورة بسبب ما تكشفه عن خطط OpenAI المستقبلية. بدلاً من ذلك ، سلطوا الضوء على تحدٍ كبير في النقاش حول أمان الذكاء الاصطناعي: صعوبة قياس وتتبع التقدم. قد يقول ألتمان أن OpenAI لا يقوم حاليًا بتدريب GPT-5 ، لكن هذا ليس بيانًا ذا مغزى بشكل خاص.
يمكن أن يُعزى بعض الالتباس إلى ما أسميه مغالطة أرقام الإصدارات: الفكرة القائلة بأن التحديثات التقنية المرقمة تعكس تحسينات محددة وخطية في القدرة. إنه مفهوم خاطئ تم تربيته في عالم التكنولوجيا الاستهلاكية لسنوات ، حيث تطمح الأرقام المخصصة للهواتف الجديدة أو أنظمة التشغيل إلى صرامة التحكم في الإصدار ولكنها في الحقيقة مجرد أدوات تسويقية. “حسنًا ، بالطبع iPhone 35 أفضل من iPhone 34” ، كما يقول منطق هذا النظام. “الرقم أكبر في الواقع ، الهاتف أفضل.”
بسبب التداخل بين عوالم تكنولوجيا المستهلك والذكاء الاصطناعي ، يتم الآن تطبيق هذا المنطق نفسه غالبًا على أنظمة مثل نماذج لغة OpenAI. هذا لا ينطبق فقط على نوع المتجولين الذين ينشرون مواضيع زائدية سلاسل Twitter ويتوقعون أن الذكاء الاصطناعي الفائق سيكون هنا في غضون سنوات. لأن الأرقام تتزايد باستمرار ولكن أيضا من المعلقين الأكثر اطلاعا وتطورا. نظرًا لأن الكثير من الادعاءات حول الذكاء الخارق للذكاء الاصطناعي لا يمكن دحضها أساسًا ، فإن هؤلاء الأفراد يعتمدون على خطاب مماثل لتوضيح وجهة نظرهم. يرسمون رسومًا بيانية غامضة ذات محاور تسمى “التقدم” و “الوقت” ، ويرسمون خطًا يتجه لأعلى وإلى اليمين ، ويقدمون هذا كدليل دون تمحيص.
هذا لا يعني استبعاد المخاوف بشأن أمان الذكاء الاصطناعي أو تجاهل حقيقة أن هذه الأنظمة تتحسن بسرعة وليست تحت سيطرتنا بالكامل. لكن القول بأن هناك حججًا جيدة وحججًا سيئة ، ومجرد أننا قدمنا رقمًا لشيء ما – سواء كان ذلك الهاتف الجديد أو مفهوم الذكاء – لا يعني أننا نمتلك المقياس الكامل له.
بدلاً من ذلك ، أعتقد أن التركيز في هذه المناقشات يجب أن ينصب على القدرات: على العروض التوضيحية لما يمكن أن تفعله هذه الأنظمة وما لا تستطيع فعله والتنبؤ بكيفية تغير ذلك بمرور الوقت.
هذا هو السبب في أن تأكيد Altman بأن شركة OpenAI لا تقوم حاليًا بتطوير GPT-5 لن يكون بمثابة أي عزاء للأشخاص القلقين بشأن أمان الذكاء الاصطناعي. لا تزال الشركة تعمل على توسيع إمكانات GPT-4 (من خلال توصيلها بالإنترنت ، على سبيل المثال) ، ويقوم آخرون في الصناعة ببناء أدوات طموحة مماثلة ، مما يسمح لأنظمة الذكاء الاصطناعي بالعمل نيابة عن المستخدمين. هناك أيضًا جميع أنواع العمل التي يتم القيام بها بلا شك لتحسين GPT-4 ، وقد تقوم OpenAI بإصدار GPT-4.5 (كما فعلت في GPT-3.5) أولاً – طريقة أخرى يمكن أن تضلل أرقام الإصدارات بها.
حتى لو كانت حكومات العالم بطريقة ما قادرة على فرض حظر على جديد تطورات الذكاء الاصطناعي ، من الواضح أن المجتمع لديه يده الكاملة بالأنظمة المتاحة حاليًا. بالتأكيد ، GPT-5 لم يأت بعد ، ولكن هل يهم عندما لا يزال GPT-4 غير مفهوم تمامًا؟