إريك شميت يحذر: الذكاء الاصطناعي قد يتعلم كيفية قتل البشر

أطلق إريك شميت، الرئيس التنفيذي السابق لشركة «جوجل»، تحذيرًا خطيرًا بشأن مخاطر اختراق نماذج الذكاء الاصطناعي، مشيرًا إلى أن هذه الأنظمة قد تتعلم طرقًا تؤدي إلى نتائج كارثية، مثل “كيفية قتل شخص ما”، في حال تمت إزالة الحواجز الوقائية التي تحد من استجابتها.
وقال شميت خلال مشاركته في قمة Sifted في لندن، إن هناك أدلة تشير إلى إمكانية اختراق النماذج المفتوحة والمغلقة على حد سواء، مما يسمح بإزالة أنظمة الحماية المدمجة فيها. وأوضح أن بعض المخترقين تمكنوا من استخدام تقنيات مثل “الحقن الفوري” و”كسر الحماية” للتحايل على تعليمات الأمان وتشغيل أوامر غير مصرح بها.
وأضاف شميت أن أخطر ما في الأمر هو قدرة هذه النماذج على إعادة توظيف المعرفة المكتسبة خلال التدريب بطرق قد تكون ضارة، مشيرًا إلى أن بعض المستخدمين تمكنوا سابقًا من خداع أنظمة المحادثة الذكية لإنشاء شخصيات افتراضية مثل «DAN» لتجاوز القيود الأخلاقية، ما سمح بإنتاج محتوى خطير أو مخالف.
ورغم التحذيرات، أكد شميت أن الذكاء الاصطناعي لا يزال تقنية “غير مكتملة لكنها واعدة”، موضحًا أن العائد الاقتصادي المتوقع منها ضخم، وأنها قد تمثل “ذكاءً فضائيًا” يساعد البشرية على التقدم، رغم المخاطر الأخلاقية والأمنية المرتبطة بها.
وأشار إلى أن العالم يحتاج إلى نظام عالمي لمنع انتشار الذكاء الاصطناعي الضار، يشبه آليات الرقابة النووية، لضمان عدم وقوع التكنولوجيا في أيدي أطراف معادية أو إرهابية.
وفقًا لـ«بوابة المصرف»، تأتي تصريحات شميت في وقت تتسابق فيه شركات التكنولوجيا العملاقة مثل «جوجل» و«OpenAI» و«مايكروسوفت» لتطوير نماذج ذكاء اصطناعي متقدمة، وسط جدل عالمي حول الحدود الأخلاقية والرقابية لهذه التقنيات، وتأثيرها على الأمن العالمي والاقتصاد الرقمي.





