هوبفيلد، الفائز بجائزة نوبل في الفيزياء، يعبر عن قلقه من عواقب عدم ضبط تطورات الذكاء الاصطناعي بشكل صحيح.
في كلمة بالفيديو، دعا إلى أهمية فهم كيفية عمل أنظمة الذكاء الاصطناعي لتجنب أي كارثة محتملة في المستقبل.
أشار إلى تجربته مع تقنيات خطيرة مثل الهندسة البيولوجية والفيزياء النووية، التي يمكن أن تؤدي إلى نتائج غير مرغوبة.
قال: “التقنيات ليست جيدة أو سيئة بشكل مطلق، بل يمكن أن تسير في اتجاهات متعددة بناءً على الاستخدام”.
عبّر عن قلقه كعالم فيزياء من التقنيات التي يصعب السيطرة عليها، مما يزيد من الحاجة إلى وضع ضوابط مناسبة.
رغم كون الأنظمة الحديثة تبدو “عجائب مطلقة”، إلا أن فهم طريقة عملها لا يزال غير كافٍ، وفقًا لهوبفيلد.
توقع ظهور “قدرات تتجاوز كل ما يمكن تخيله” في المستقبل، مما يستدعي تعزيز الفهم العلمي لهذه الأنظمة.
أعرب عن مخاوفه من تسارع تطوير الذكاء الاصطناعي، الذي قد يتجاوز قدرة العلماء على فهم عواقبه بشكل كامل.
ذكر هوبفيلد مثال “آيس-ناين” الخيالي، الذي كان له عواقب كارثية، مؤكدًا أهمية اتخاذ الحيطة والحذر في هذا المجال.
ختامًا، حذر من أي شيء يدعي أنه “أسرع” أو “أكبر”، مشددًا على ضرورة وضع حدود واضحة على تطورات الذكاء الاصطناعي.
المصدر : صحافة بلادي