▪︎ مجلس نيوز
ان رسالة مفتوحة وقّع قادة التكنولوجيا وباحثون بارزون في مجال الذكاء الاصطناعي ، دعا مختبرات وشركات الذكاء الاصطناعي إلى “إيقاف مؤقت” لعملهم على الفور. يتفق الموقعون مثل Steve Wozniak و Elon Musk على أن المخاطر تتطلب ستة أشهر على الأقل من الاستراحة من إنتاج التكنولوجيا التي تتجاوز GPT-4 للاستمتاع بأنظمة الذكاء الاصطناعي الحالية ، والسماح للناس بالتكيف والتأكد من أنها تفيد الجميع. تضيف الرسالة أن العناية والتدبر ضروريان لضمان سلامة أنظمة الذكاء الاصطناعي – لكن يتم تجاهلها.
تأتي الإشارة إلى GPT-4 ، وهو نموذج من OpenAI يمكنه الرد بالنص على الرسائل المكتوبة أو المرئية ، في الوقت الذي تتسابق فيه الشركات لبناء أنظمة دردشة معقدة تستخدم التكنولوجيا. أكدت Microsoft ، على سبيل المثال ، مؤخرًا أن محرك بحث Bing الذي تم تجديده قد تم تشغيله بواسطة طراز GPT-4 لأكثر من سبعة أسابيع ، بينما أطلقت Google مؤخرًا نظام Bard ، وهو نظام ذكاء اصطناعي خاص بها مدعوم من LaMDA. انتشر القلق بشأن الذكاء الاصطناعي منذ فترة طويلة ، لكن السباق الواضح لنشر تقنية الذكاء الاصطناعي الأكثر تقدمًا أولاً أثار مخاوف أكثر إلحاحًا.
“لسوء الحظ ، لا يحدث هذا المستوى من التخطيط والإدارة ، على الرغم من أن الأشهر الأخيرة شهدت أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد – ولا حتى مبتكريها – فهمها أو توقع أو تحكم بشكل موثوق “.
تم نشر الرسالة المعنية من قبل معهد مستقبل الحياة (FLI) ، وهي منظمة مكرسة لتقليل مخاطر وسوء استخدام التكنولوجيا الجديدة. تبرع Musk سابقًا بمبلغ 10 ملايين دولار لشركة FLI لاستخدامها في دراسات حول أمان الذكاء الاصطناعي. بالإضافة إليه ووزنياك ، يشمل الموقعون عددًا كبيرًا من قادة الذكاء الاصطناعي العالميين ، مثل رئيس مركز الذكاء الاصطناعي والسياسة الرقمية مارك روتنبرغ ، والفيزيائي في معهد ماساتشوستس للتكنولوجيا ورئيس معهد مستقبل الحياة ماكس تيجمارك ، والمؤلف يوفال نوح هراري. شارك هراري أيضًا في كتابة افتتاحية في نيويورك تايمز تحذير الأسبوع الماضي من مخاطر الذكاء الاصطناعي ، جنبًا إلى جنب مع مؤسسي مركز التكنولوجيا الإنسانية وزملائهم الموقعين ، تريستان هاريس وآزا راسكين.
تبدو هذه المكالمة وكأنها الخطوة التالية من نوع مسح 2022 من بين أكثر من 700 باحث في مجال التعلم الآلي ، ذكر نصف المشاركين تقريبًا أن هناك فرصة بنسبة 10 بالمائة “لنتيجة سيئة للغاية” من الذكاء الاصطناعي ، بما في ذلك الانقراض البشري. عندما سُئلوا عن السلامة في أبحاث الذكاء الاصطناعي ، قال 68 بالمائة من الباحثين إنه ينبغي القيام بالمزيد أو أكثر من ذلك بكثير.
نرحب بأي شخص يشارك مخاوف بشأن سرعة وسلامة إنتاج الذكاء الاصطناعي لإضافة اسمه إلى الحرف. ومع ذلك ، لا يتم بالضرورة التحقق من الأسماء الجديدة ، لذا من المحتمل أن تكون أي إضافات ملحوظة بعد النشر الأولي مزيفة.
ظهر هذا المقال في الأصل على Engadget على https://www.engadget.com/tech-leaders-and-ai-experts-demand-a-six-month-pause-on-out-of-control-ai-experiments-114553864 .html؟ src = rss