▪︎ مجلس نيوز
أصبح البروفيسور في جامعة تورنتو ، جيفري هينتون ، الذي يُطلق عليه غالبًا “” لأبحاثه الرائدة حول الشبكات العصبية ، مراقبًا غير رسمي للصناعة. لقد توقف عن العمل في Google هذا الربيع لينتقد بحرية المجال الذي ساعد في ريادته. لقد رأى الارتفاع الأخير في أنظمة الذكاء الاصطناعي التوليدية مثل وعلامات على تسارع غير منضبط وخطير في التنمية. في هذه الأثناء ، يبدو أن Google كانت تتخلى عن ضبط النفس السابق حيث كانت تطارد المنافسين بمنتجات مثلها.
في مؤتمر الاصطدام هذا الأسبوع في تورونتو ، وسع هينتون مخاوفه. بينما كانت الشركات تروج للذكاء الاصطناعي كحل لكل شيء من إبرام عقد إيجار إلى شحن البضائع ، كان هينتون يدق ناقوس الخطر. إنه غير مقتنع بأن الذكاء الاصطناعي الجيد سيخرج منتصرًا على التنوع السيئ ، ويعتقد أن التبني الأخلاقي للذكاء الاصطناعي قد يكون له تكلفة باهظة.
تهديد للبشرية
أكد هينتون أن الذكاء الاصطناعي جيد مثل الأشخاص الذين صنعوه ، وأن التكنولوجيا السيئة لا يزال بإمكانها الفوز. وأوضح: “لست مقتنعًا بأن الذكاء الاصطناعي الجيد الذي يحاول إيقاف الأمور السيئة يمكنني التحكم فيه”. قد يكون من الصعب إيقاف المجمع الصناعي العسكري عن الإنتاج ، على سبيل المثال ، كما يقول – فقد “تحب” الشركات والجيوش الحروب حيث يكون الضحايا عبارة عن آلات يمكن استبدالها بسهولة. وبينما يعتقد هينتون أن النماذج اللغوية الكبيرة (الذكاء الاصطناعي المدربة التي تنتج نصًا شبيهًا بالبشر) يمكن أن تؤدي إلى زيادات هائلة في الإنتاجية ، إلا أنه يشعر بالقلق من أن الطبقة الحاكمة قد تستغل هذا ببساطة لإثراء نفسها ، مما يؤدي إلى توسيع فجوة الثروة الكبيرة بالفعل. قال هينتون إن ذلك “سيجعل الأغنياء أكثر ثراءً والفقير أكثر فقراً”.
كرر هينتون أيضًا وجهة نظره التي حظيت بتغطية إعلامية كبيرة بأن الذكاء الاصطناعي يمكن أن يحققه للبشرية. إذا أصبح الذكاء الاصطناعي أكثر ذكاءً من البشر ، فليس هناك ما يضمن بقاء الناس في موقع المسؤولية. قال هينتون: “نحن في ورطة” إذا قررت منظمة العفو الدولية أن السيطرة ضرورية لتحقيق أهدافها. بالنسبة له ، التهديدات “ليست مجرد خيال علمي”. يجب أن تؤخذ على محمل الجد. إنه قلق من أن المجتمع لن يكبح جماح الروبوتات القاتلة إلا بعد أن تتاح له الفرصة لمعرفة “مدى فظاعتها”.
وأضاف هينتون أن هناك الكثير من المشاكل القائمة. يجادل بأن هذه المشكلات لا تزال قائمة ، حيث يمكن أن تؤدي بيانات تدريب الذكاء الاصطناعي المنحرفة إلى نتائج غير عادلة. الخوارزميات بالمثل تخلق