بقلم Karel Vereycken – Nouvelle Solidarité
في انحراف مسيحاني أعمى، مناقض تماماً للقيم الإنسانية لليهودية، يظهر أن الحكومة الإسرائيلية عاجزة عن رؤية جرائم الحرب وأعمال الإبادة التي ترتكبها. يجد الفلسطينيون أنفسهم وكأنهم أمام فرقة إعدام تبيدهم بالقنابل والجوع والعطش والمرض. ثمة مخاطر كبرى تنتج عن الذكاء الاصطناعي، واليوم، تأتي التحذيرات من داخل إسرائيل نفسها ومن فرنسا. وهنا أيضاً، ستكون التعبئة الشعبية أساسية، لأن وول ستريت قد راهن بالفعل كثيراً على الأرباح المستقبلية للذكاء الاصطناعي ولن يتراجع بسهولة.
في مقال موثق نُشر في 15 فبراير على موقع The Conversation، تشرح لور دو روسي-روشغوند، المسؤولة عن المركز الجيوسياسي للتقنيات في المعهد الفرنسي للعلاقات الدولية (IFRI)، وأميلي فاري، المسؤولة عن مختبر أبحاث الدفاع في مركز الدراسات الأمنية (معهد العلوم السياسية – Sciences Po)، أن إسرائيل، باعتمادها الكلي على الذكاء الاصطناعي في عمليات الاغتيال المستهدفة (ضد قادة حماس وحزب الله) وفي نشر الرعب من خلال الدمار الواسع، ستنتهي بقتل آلاف الأشخاص من دون أن تحقق أي انتصار.
أرقام تكشف حجم الكارثة
أواخر نوفمبر 2023، أعلنت السلطات الإسرائيلية أنه خلال أول 35 يوماً من الحرب على غزة، نفذت أكثر من 15 ألف ضربة، أي ثلاثة أضعاف عدد الضربات خلال 51 يوماً من عملية “الجرف الصامد” عام 2014. بعد أيام، كشف موقع التحقيقات الإسرائيلي +972 أن السبب وراء هذا الإيقاع المحموم هو استخدام برنامج حاسوبي معزز بالذكاء الاصطناعي يُدعى “هبسورا” (أي “الإنجيل” بالعبرية)، يعمل كـ”مصنع للأهداف” على مدار الساعة.
ويضاف “هبسورا” إلى عدة برامج أخرى تعمل بالفعل، مثل “الكيميائي” (Alchimist) الذي يسهل الردود العسكرية، و”عمق الحكمة” (Depth of Wisdom) الذي يرسم خرائط للأرض وتحت الأرض في غزة، وأخيراً “مصنع النار” (Fire Factory) الذي يحدد في الوقت الفعلي خطط القصف بالطائرات أو الطائرات المسيرة حسب نوع الهدف. وبفضل هذه التقنيات، أصبحت إسرائيل قادرة على قصف مئات الأهداف يومياً، بحسب الصحفي يوفال أبراهام من +972.
القتل الجماعي كاستراتيجية عسكرية
منذ الانتفاضة الثانية، اتبعت إسرائيل أسلوبين في القوة: الأول “الاغتيالات المستهدفة” لقيادات العدو، والثاني هو “عقيدة الضاحية” التي تشرّع استخدام القوة “غير المتناسبة” ضد مناطق مدنية تُستخدم كنقاط انطلاق للهجمات، بهدف الردع. هذه العقيدة، التي صاغها الجنرال غادي أيزنكوت (عضو المجلس الأمني الحالي)، تلغي التمييز بين الأهداف المدنية والعسكرية، في انتهاك صارخ للقانون الدولي الإنساني.
تقرير الأمم المتحدة: توصيف بالإبادة الجماعية
في 27 مارس بجنيف، وصفت فرانسيسكا ألبانيزي، المقررة الخاصة لحقوق الإنسان في الأراضي الفلسطينية المحتلة، ما يحدث بأنه “أسوأ ما يمكن أن ترتكبه البشرية”، مؤكدة أن “الإبادة عملية تبدأ بنزع إنسانية المجموعة المستهدفة وتنتهي بتدميرها كلياً أو جزئياً”. وأضافت أن الجيش الإسرائيلي “شوّه عمداً حقيقة الحرب”، مؤكدة أن ما يجري “إبادة جماعية”.
سياسة الأرقام… وأثمان بشرية فادحة
كما ذكرت الباحثتان، فإن سياسة تحديد أكبر عدد ممكن من الأهداف، بغض النظر عن أهميتها، تهدف إلى إحداث صدمة في صفوف السكان. ومع “هبسورا”، يعرف الجيش الإسرائيلي تماماً عدد النساء والأطفال والمسنين في أي مبنى قبل قصفه.
قبل 7 أكتوبر، كان مسموحاً بسقوط نحو 12 ضحية مدنية لقتل قائد من حماس، لكن الآن يتم تقبّل مقتل أكثر من 100 مدني لقتل عنصر أقل رتبة، كما حدث في قصف مخيم جباليا في 31 أكتوبر 2023، الذي استهدف أحد المشاركين في هجوم 7 أكتوبر، وأسفر عن 126 قتيلاً وفق منظمة Airwars.
ذكاء اصطناعي يُعمّق المسافة العاطفية
استخدام الذكاء الاصطناعي والطائرات المسيرة كواجهة لاختيار الأهداف آلياً يزيد من المسافة العاطفية بين المنفذين والضحايا، محوّلاً الحرب إلى ما يشبه لعبة فيديو، لكن من دون زر “إعادة التشغيل” لإحياء القتلى.