نتائج دراسة حديثة صدمت مطوري الذكاء الاصطناعي التوليدي، حيث كشفت أن نماذج اللغة الكبيرة مثل “ChatGPT” و”Gemini” تواجه مشكلة خطيرة تتعلق بـ “تسميم الذات”.
أشارت ورقة بحثية نُشرت في العدد الأخير من مجلة “Nature” العلمية المرموقة إلى أن استخدام بيانات اصطناعية لتدريب أنظمة الذكاء الاصطناعي التوليدي يمكن أن يؤدي إلى تدهور دقة هذه الأنظمة بشكل كبير. الباحثون من جامعة أكسفورد وجامعات أخرى حذروا من أن تدريب هذه الأنظمة على بيانات تم إنشاؤها بواسطة الذكاء الاصطناعي قد يؤدي إلى “انهيار النموذج”، وهو مصطلح يصف تدهور أداء النماذج بشكل ملحوظ.
في الوقت الذي يرى فيه مطورو التكنولوجيا أن تدريب الذكاء الاصطناعي على كميات هائلة من البيانات سيسمح لهذه الأنظمة بالتفوق على البشر في المستقبل، اكتشف الباحثون أن هذه النماذج تتعرض لمشكلات خطيرة عندما تعتمد على بيانات اصطناعية. بدلاً من تحسين أدائها، يتسبب هذا النوع من التدريب في إنتاج معلومات مشوهة وغير دقيقة.
تعتمد برامج الذكاء الاصطناعي مثل “ChatGPT” على نماذج لغوية ضخمة تم تدريبها على تريليونات من البيانات البشرية المستخرجة من صفحات الويب والمقالات والتعليقات على الإنترنت. ولكن عندما يتم تزويد هذه الأنظمة ببيانات تُنتج بواسطة الذكاء الاصطناعي نفسه، تبدأ النتائج في التدهور وتصبح غير منطقية، مما يؤدي إلى تقديم معلومات بعيدة عن الواقع.
باختصار، تشير النتائج إلى أن استخدام البيانات الاصطناعية لتدريب الذكاء الاصطناعي يمكن أن يؤدي إلى تفشي مشكلة “تسميم الذات”، مما يجعل الأنظمة المعتمدة على هذه البيانات أقل فائدة وأقل دقة.