OpenAI تحذر من المخاطر المرتبطة بنماذج الذكاء الاصطناعي الجديدة وتطوير أسلحة بيولوجية
أعلنت شركة OpenAI عن تقديم نماذج جديدة تحمل اسم o1، والتي تتمتع بقدرات متطورة في التفكير المنطقي وحل المسائل الرياضية المعقدة، بالإضافة إلى الإجابة عن الأسئلة العلمية.
وفي تقييم داخلي للشركة، تم تصنيف هذه النماذج بمستوى “متوسط” من المخاطر فيما يخص تطوير أسلحة كيميائية وبيولوجية وإشعاعية ونووية، وهو أعلى مستوى من المخاطر الذي تم منحه لنماذج الشركة حتى الآن، مما يعكس زيادة احتمال استخدام الذكاء الاصطناعي في تصنيع الأسلحة البيولوجية.
وفي هذا السياق، أكد الأستاذ البارز في الذكاء الاصطناعي، يوشوا بنجيو، على أهمية اتخاذ إجراءات تشريعية لمواجهة هذه المخاطر. واستشهد بنجيو بمشروع قانون SB 1047، الذي يُناقش في ولاية كاليفورنيا، والذي يلزم المطورين بتقليل المخاطر المرتبطة باستخدام الذكاء الاصطناعي في صنع أسلحة بيولوجية.
وأشار بنجيو إلى أن المخاطر تزداد مع اقتراب الذكاء الاصطناعي من مستوى الذكاء البشري، حيث يمكن أن تُستخدم القدرات الجديدة في التفكير المنطقي والخداع بشكل خطر من قبل الجهات الخبيثة، خاصةً في ظل المنافسة الشديدة بين الشركات التكنولوجية الكبرى.
من جانبها، أوضحت ميرا موراتي، المديرة التقنية في OpenAI، أن الشركة تتعامل بحذر بالغ مع إطلاق نموذج o1 بسبب إمكانياته الاستثنائية. وأضافت أن النموذج خضع لاختبارات شاملة من قبل خبراء من مجالات علمية متنوعة، للتأكد من موثوقيته والإشارة إلى أي ثغرات محتملة.
بينما تبرز هذه التطورات أهمية التفكير الاستراتيجي فيما يخص استخدام تقنيات الذكاء الاصطناعي، يبقى التساؤل حول كيفية موازنة الابتكار مع الأمان العالمي.