نداء الوطن - Chatgpt
كشفت تقارير صحفية حديثة، من بينها تحقيق نشره موقع +972 Magazine، أن الجيش الإسرائيلي استخدم أنظمة ذكاء اصطناعي متطورة لتحديد أهدافه خلال العدوان على قطاع غزة. هذه الأنظمة، وعلى رأسها برنامج يُعرف باسم "لافندر" (Lavender)، ساعدت في تسريع عملية اختيار الأشخاص الذين تم تصنيفهم كمقاتلين تابعين لحركة حماس أو تنظيمات أخرى.
وبحسب التحقيقات، اعتمدت الخوارزميات على قواعد بيانات واسعة وتحليلات سلوكية لاختيار الأهداف خلال وقت قياسي، مما زاد من وتيرة الضربات الجوية. وبحسب مصادر مطلعة، فإن الجيش أعطى "ثقة شبه كاملة" للقرارات التي ينتجها الذكاء الاصطناعي، مع رقابة بشرية محدودة.
التقارير أوضحت أن الآلية اعتمدت معايير مثل الموقع الجغرافي، نمط الاتصالات، والارتباطات الاجتماعية لتحديد "الأشخاص المستهدفين". إلا أن الاعتماد الكثيف على الذكاء الاصطناعي، مع هامش خطأ وارد، أدى إلى سقوط أعداد كبيرة من المدنيين، خاصة مع تنفيذ ضربات على منازل وأحياء مأهولة دون تحقق ميداني كافٍ.
حتى الآن، لا توجد أدلة مباشرة على تورط شركات تكنولوجية كبرى مثل ميتا أو مايكروسوفت أو غوغل في تطوير هذه الأدوات العسكرية، لكن من الممكن أن تكون بعض خدمات الحوسبة السحابية والبنى التحتية قد استخدمت بشكل غير مباشر لدعم مشاريع إسرائيلية متقدمة.
استخدام الذكاء الاصطناعي في العمليات العسكرية يطرح أسئلة أخلاقية كبيرة تتعلق بمدى دقة التصنيفات، المسؤولية عن الخطأ، وحماية المدنيين أثناء النزاعات المسلحة. ومع استمرار تطور هذه الأدوات، تتصاعد الدعوات الدولية لوضع معايير قانونية تنظم استخدام الذكاء الاصطناعي في الحروب.