OpenAI تحذر من مخاطر سيبرانية متصاعدة مع الجيل الجديد من نماذج الذكاء الاصطناعي

أصدرت شركة OpenAI تحذيرًا شديد اللهجة بشأن المخاطر المتزايدة المرتبطة بالجيل الجديد من نماذج الذكاء الاصطناعي المتقدمة، مؤكدة أنها قد تمتلك قدرات هجومية قادرة على ابتكار ثغرات أمنية فعّالة تستهدف أنظمة شديدة الحماية، وتنفيذ هجمات معقدة ضد شركات أو منشآت صناعية حساسة.

وأوضحت الشركة أن أداء نماذجها في اختبارات الأمن السيبراني شهد قفزة كبيرة، حيث ارتفعت نتائج تحديات أمن “التقاط العلم” من 27% على نموذج GPT-5 في أغسطس 2025 إلى 76% على GPT-5.1-Codex-Max في نوفمبر من العام ذاته، مما يعكس سرعة التطور في قدراتها التقنية.

وتفترض الشركة أن كل إصدار جديد سيصل إلى مستويات “عالية” من قدرات الأمن السيبراني، بما يشمل القدرة على اكتشاف نقاط ضعف غير معروفة سابقًا داخل شبكات محمية جيدًا، أو دعم حملات اختراق معقدة تستهدف البنية التحتية الحيوية.

وأكدت OpenAI أنها تستثمر في تطوير أدوات دفاعية، بينها أنظمة لفحص الشيفرات البرمجية واكتشاف المشكلات وسد الثغرات، إلى جانب أدوات تعتمد على الذكاء الاصطناعي لتعزيز قدرات فرق الأمن الدفاعي التي تعاني من نقص في الموارد مقارنة بالمهاجمين المحترفين.

وتعتمد الشركة على مجموعة من ضوابط الأمان تشمل قيود الوصول، حماية البنية التحتية، مراقبة التدفق المعلوماتي، وأنظمة اكتشاف الأنشطة المشبوهة، التي تقوم بحجب النتائج أو التحويل لنموذج أقل أداءً أو إحالة الطلب لمراجعة بشرية عند اكتشاف أي نشاط خطير.

كما أعلنت OpenAI عن تعاونها مع فرق متخصصة لمحاكاة هجمات فعلية عالية الاحتراف من أجل اختبار نقاط الضعف قبل استغلالها، مؤكدة أن المخاطر الجديدة لا ترتبط بمنتجاتها وحدها، بل بجميع أنظمة الذكاء الاصطناعي المتقدمة.

وقد كشفت الشركة عن أداة Aardvark، التي تُستخدم حاليًا في بيئات اختبارية، وتساعد المطورين وفرق الأمن على اكتشاف الثغرات وإصلاحها، حيث تمكنت من اكتشاف مشكلات أمنية جديدة في مشاريع برمجة مفتوحة المصدر. وتعتزم الشركة توسيع دعمها للمشروعات غير التجارية عبر توفير تغطية مجانية في بعض الحالات.

وأعلنت كذلك عن إنشاء مجلس المخاطر الحدودية الذي يضم نخبة من خبراء الأمن السيبراني، لتحديد الحدود الفاصلة بين القدرات المفيدة للنماذج وإمكانية إساءة استخدامها، على أن يبدأ عمله في الأمن السيبراني ثم يمتد لمجالات أخرى.

وتشير تحذيرات OpenAI إلى أن المخاطر الأمنية المرتبطة بالذكاء الاصطناعي المتقدم تتنامى سريعًا، وأن حماية البنية التحتية الرقمية ستتطلب تعاونًا واسعًا بين الشركات التقنية والجهات الدفاعية، في ظل استمرار تعرض القطاع لهجمات معقدة تستغل القدرات الجديدة للذكاء الاصطناعي.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى