حذر باحثون من جامعة أكسفورد من أزمة كبيرة قد تواجه أنظمة الذكاء الاصطناعي نتيجة الاعتماد على محتوى مُنتج بواسطة الذكاء الاصطناعي نفسه لتدريب نماذج جديدة.
وتشير الدراسة التي أشرف عليها إيلليا شوميلوف، الباحث في جوجل ديب مايند، إلى أن البيانات المُنتجة قد تؤدي إلى حدوث “عيوب غير قابلة للإصلاح” في النماذج الجديدة، مما يجعلها تبدأ في إصدار معلومات غير منطقية أو بلا معنى.
وأوضحت إميلي وينغر، الأستاذة المساعدة في جامعة ديوك، خلال توضيحها لمشكلة انهيار النماذج، أن الذكاء الاصطناعي يميل إلى التركيز على المحتوى الأكثر توصلاً خلال تدريبه، كمثال على ذلك، فإن النموذج قد ينتهي به الأمر إلى إنشاء صور أكثر للكلاب الشائعة مثل الـ”Golden Retrievers” على حساب الأنواع الأقل شيوعًا.
وأكد الباحثون أن تكرار هذا النوع من التعلم يمكن أن يسبب تدني مستوى النموذج، حيث يصبح عاجزاً عن تقديم محتوى يواكب التنوع الموجود في الواقع.
من جانب آخر، أشار شوميلوف وفريقه إلى ضرورة أن تضع الصناعة أدوات فعالة لتصفية المحتوى المُنتج، إذ يعد التمييز بين البيانات المُنتجة وغيرها إحدى التحديات الكبرى، خاصة في ضوء استخدام الإنترنت كمنصة لتجميع المعلومات.
الأوساط العلمية تدعو الآن إلى ضرورة الفهم العميق لهذه الممارسات لتفادي عواقب محتملة قد تضر بجودة技术يات الذكاء الاصطناعي في المستقبل.