ميتا تقيل فريق Responsible AI للتركيز على "الذكاء الاصطناعى التوليدى"
كشف تقرير حديث عن أن شركة Meta قامت بتفكيك فريق Responsible AI (RAI) الخاص بها، حيث تضع المزيد من مواردها في الذكاء الاصطناعي التوليدي، حيث نشرت The Informationاليوم نقلًا عن منشور داخلي شاهدته.
وفقًا للتقرير، سينتقل معظم أعضاء RAI إلى فريق منتجات الذكاء الاصطناعي التوليدي للشركة، بينما سيعمل الآخرون على البنية التحتية للذكاء الاصطناعي الخاصة بـ Meta، تقول الشركة بانتظام إنها ترغب في تطوير الذكاء الاصطناعي بشكل مسؤول، ولديها صفحة مخصصة لهذا الوعد، حيث تسرد الشركة "ركائز الذكاء الاصطناعي المسؤول"، بما في ذلك المساءلة والشفافية والسلامة والخصوصية والمزيد.
وينقل تقرير المعلومات عن جون كارفيل، الذي يمثل شركة ميتا، قوله إن الشركة "ستواصل تحديد الأولويات والاستثمار في تطوير الذكاء الاصطناعي الآمن والمسؤول"، وأضاف أنه على الرغم من أن الشركة تقوم بتقسيم الفريق، فإن هؤلاء الأعضاء "سيستمرون في دعم الجهود ذات الصلة عبر ميتا بشأن تطوير واستخدام الذكاء الاصطناعي المسؤول".
وقد شهد الفريق بالفعل عملية إعادة هيكلة في وقت سابق من هذا العام، والتي كتب موقع Business Insider تضمنت عمليات تسريح للعمال مما ترك RAI "هيكلًا للفريق"، ومضى هذا التقرير ليقول إن فريق RAI، الذي كان موجودًا منذ عام 2019، كان يتمتع بقدر قليل من الاستقلالية وأن مبادراته يجب أن تمر بمفاوضات مطولة مع أصحاب المصلحة قبل أن يتم تنفيذها.
تم إنشاء RAI لتحديد المشكلات المتعلقة بأساليب التدريب على الذكاء الاصطناعي، بما في ذلك ما إذا كانت نماذج الشركة قد تم تدريبها بمعلومات متنوعة بشكل مناسب، مع التركيز على منع أشياء مثل مشكلات الاعتدال على منصاتها.
وأدت الأنظمة الآلية على منصات Meta الاجتماعية إلى مشاكل مثل مشكلة ترجمة Facebook التي تسببت في اعتقال كاذب، وإنشاء ملصقات WhatsApp AI التي تؤدي إلى صور متحيزة عند تقديم مطالبات معينة، وخوارزميات Instagram التي تساعد الأشخاص في العثور على مواد الاعتداء الجنسي على الأطفال.