OpenAI تشكل فريقا متخصصا لإدارة مخاطر الذكاء الاصطناعى الخارق
تقوم شركة OpenAI بتشكيل فريق متخصص لإدارة مخاطر الذكاء الاصطناعي الفائق الذكاء، والذكاء الخارق هو نموذج افتراضي للذكاء الاصطناعى وهو أكثر ذكاءً حتى من أكثر البشر موهبة وذكاء، ويتفوق في مجالات متعددة من الخبرة بدلًا من مجال واحد مثل بعض نماذج الجيل السابق.
وتعتقد شركة OpenAI أن مثل هذا النموذج يمكن أن يصل قبل نهاية العقد، وقالت المنظمة غير الربحية: "سيكون الذكاء الخارق أكثر التقنيات التي اخترعتها البشرية تأثيرًا على الإطلاق، ويمكن أن تساعدنا في حل العديد من المشكلات الأكثر أهمية في العالم، لكن القوة الهائلة للذكاء الخارق يمكن أن تكون أيضًا خطيرة للغاية، ويمكن أن تؤدي إلى إضعاف البشرية أو حتى انقراض البشر.
وسيشارك في قيادة الفريق الجديد كبير العلماء في OpenAI إيليا سوتسكيفر وجان لايك، رئيس قسم المواءمة في مختبر الأبحاث.
بالإضافة إلى ذلك، قالت شركة OpenAI إنها ستخصص 20% من قوتها الحاسوبية المضمونة حاليًا للمبادرة، بهدف تطوير باحث محاذاة آلى مثل هذا النظام من شأنه أن يساعد أوبن إيه آي من الناحية النظرية في ضمان أن الذكاء الخارق آمن للاستخدام ومتوافق مع القيم الإنسانية، وفقا لتقرير engadget.
وقالت أوبن إيه آي: "في حين أن هذا هدف طموح بشكل لا يصدق ولا نضمن نجاحه، فإننا متفائلون بأن الجهود المركزة والمتضافرة يمكن أن تحل هذه المشكلة"، "هناك العديد من الأفكار التي أظهرت نتائج واعدة في التجارب الأولية، ولدينا مقاييس مفيدة بشكل متزايد للتقدم، ويمكننا استخدام نماذج اليوم لدراسة العديد من هذه المشكلات بشكل تجريبي، وأضاف المختبر أنه سيشارك خريطة طريق في المستقبل.
يأتي إعلان تشكيل الفريق في الوقت الذي تنظر فيه الحكومات في جميع أنحاء العالم في كيفية تنظيم صناعة الذكاء الاصطناعي الناشئة، في الولايات المتحدة التقى سام التمان، الرئيس التنفيذي لشركة OpenAI، بما لا يقل عن 100 مشرع فيدرالي في الأشهر الأخيرة.
وقال ألتمان إن تنظيم الذكاء الاصطناعي "ضروري"، وأن شركة أوبن إيه آي "حريصة" على العمل مع صانعي السياسات، ولكن يجب أن نشكك في مثل هذه التصريحات، وفي الواقع يوجد جهود مثل فريق Superalignment التابع لـ OpenAI، من خلال تركيز انتباه الجمهور على المخاطر الافتراضية التي قد لا تتحقق أبدًا، وتقوم منظمات مثل OpenAI بتحويل عبء التنظيم إلى الأفق بدلًا من هنا والآن، وهناك قضايا أكثر إلحاحًا تتعلق بالتفاعل بين الذكاء الاصطناعي والعمالة، والمعلومات المضللة وصناع سياسات حقوق النشر بحاجة إلى معالجتها اليوم وليس غدًا.