▪︎ مجلس نيوز
ربما تمول إدارة بايدن أبحاث الذكاء الاصطناعي ، لكنها تأمل أيضًا في إبقاء الشركات مسؤولة عن سلوكها. نائب الرئيس كامالا هاريس وقد التقى الرؤساء التنفيذيون لشركة Alphabet (الشركة الأم لشركة Google) و Microsoft و OpenAI و Anthropic في محاولة للحصول على مزيد من الضمانات للذكاء الاصطناعي. يقول هاريس في بيان إن الشركات الخاصة تتحمل “مسؤولية أخلاقية ومعنوية وقانونية” لجعل منتجات الذكاء الاصطناعي الخاصة بها آمنة ومأمونة. وتضيف أنه لا يزال يتعين عليهم احترام القوانين الحالية.
يرى نائب الرئيس أن تقنيات الذكاء الاصطناعي التوليدية مثل Bard و Bing Chat و ChatGPT لديها القدرة على مساعدة البلد وإلحاق الضرر به. يمكن أن يعالج بعض “أكبر التحديات” ، لكن يمكن استخدامه أيضًا لانتهاك الحقوق ، وخلق عدم الثقة وإضعاف “الإيمان بالديمقراطية” ، وفقًا لما قاله هاريس. وأشارت إلى التحقيقات في التدخل الروسي خلال الانتخابات الرئاسية لعام 2016 كدليل على أن الدول المعادية ستستخدم التكنولوجيا لتقويض العمليات الديمقراطية.
التفاصيل الدقيقة للمناقشات غير متوفرة حتى كتابة هذه السطور. لكن، بلومبرجالمطالبات حددت الدعوات لحضور الاجتماع مناقشات حول مخاطر تطوير الذكاء الاصطناعي والجهود المبذولة للحد من تلك المخاطر والطرق الأخرى التي يمكن للحكومة أن تتعاون بها مع القطاع الخاص لتبني الذكاء الاصطناعي بأمان.
لقد كان الذكاء الاصطناعي التوليدي مفيدًا في الحصول على إجابات بحث تفصيلية ، وإنتاج الأعمال الفنية وحتى كتابة الرسائل للباحثين عن عمل. ومع ذلك ، تظل الدقة مشكلة ، وهناك مخاوف بشأن الغش وانتهاكات حقوق النشر والتشغيل الآلي للوظائف. قالت آي بي إم هذا الأسبوع أنها ستفعل وقفة التوظيف للأدوار يمكن استبداله في النهاية بالذكاء الاصطناعي. كان هناك قلق كافٍ بشأن مخاطر الذكاء الاصطناعي لدرجة أن قادة الصناعة والخبراء دعاوا إلى توقف لمدة ستة أشهر في التجارب لمعالجة القضايا الأخلاقية.
مسؤولو بايدن لا ينتظرون الشركات للتحرك. تطلب الإدارة الوطنية للاتصالات والمعلومات إبداء تعليقات عامة حول القواعد المحتملة لتطوير الذكاء الاصطناعي. ومع ذلك ، فإن اجتماع هاريس يرسل رسالة غير دقيقة مفادها أن منشئو الذكاء الاصطناعي يواجهون حملة إذا لم يتصرفوا بمسؤولية.
ظهر هذا المقال في الأصل على Engadget على https://www.engadget.com/vice-president-harris-tells-tech-ceos-they-have-a-moral-responsibility-to-safeguard-ai-211049047.html؟src = آر إس إس