دولية

الطائرات بدون طيار القاتلة ذات الذكاء الاصطناعي أصبحت حقيقة. الأمم تختلف على الحدود.

يبدو الأمر وكأنه شيء من الخيال العلمي: أسراب من الروبوتات القاتلة التي تطارد الأهداف بمفردها وتكون قادرة على الطيران للقتل دون أي توقيع بشري.

و لكنها يقترب من الواقع في الوقت الذي تحقق فيه الولايات المتحدة والصين وحفنة من الدول الأخرى تقدمًا سريعًا في تطوير ونشر تكنولوجيا جديدة لديها القدرة على إعادة تشكيل طبيعة الحرب من خلال تحويل قرارات الحياة والموت إلى طائرات بدون طيار مستقلة ومجهزة ببرامج الذكاء الاصطناعي.

وهذا الاحتمال يثير قلق العديد من الحكومات الأخرى لدرجة أنها تحاول تركيز الاهتمام عليه من خلال مقترحات في الأمم المتحدة لفرض قواعد ملزمة قانونا على استخدام ما تسميه الجيوش الأسلحة الفتاكة المستقلة.

وقال ألكسندر كمينت، كبير المفاوضين النمساويين بشأن هذه القضية، في مقابلة أجريت معه: “إن هذه في الواقع واحدة من أهم نقاط التحول بالنسبة للإنسانية”. “ما هو دور البشر في استخدام القوة؟ إنها قضية أمنية أساسية للغاية، ومسألة قانونية وقضية أخلاقية.”

ولكن في حين توفر الأمم المتحدة منبراً للحكومات للتعبير عن مخاوفها، فمن غير المرجح أن تسفر هذه العملية عن فرض قيود جوهرية جديدة وملزمة قانوناً. وقد جادلت الولايات المتحدة وروسيا وأستراليا وإسرائيل ودول أخرى بأنه ليست هناك حاجة لقانون دولي جديد في الوقت الحالي، في حين تريد الصين أن تفعل ذلك. يُعرِّف ويقول المدافعون عن الحد من الأسلحة إن أي حدود قانونية ضيقة للغاية بحيث لن يكون لها تأثير عملي يذكر.

وكانت النتيجة ربط المناقشة بعقدة إجرائية مع تضاؤل ​​فرص إحراز تقدم بشأن تفويض ملزم قانوناً في أي وقت قريب.

وقال كونستانتين فورونتسوف، نائب رئيس الوفد الروسي لدى الأمم المتحدة، للدبلوماسيين الذين احتشدوا في غرفة اجتماعات في الطابق السفلي بمقر الأمم المتحدة في نيويورك: «لا نرى أن هذا هو الوقت المناسب حقًا».

جذب الجدل حول مخاطر الذكاء الاصطناعي اهتمامًا جديدًا في الأيام الأخيرة مع المعركة حول السيطرة على شركة OpenAI، التي ربما تكون الشركة الرائدة في مجال الذكاء الاصطناعي في العالم، والتي بدا أن قادتها منقسمون حول ما إذا كانت الشركة تأخذ في الاعتبار بشكل كافٍ مخاطر التكنولوجيا. وفي الأسبوع الماضي، ناقش مسؤولون من الصين والولايات المتحدة قضية ذات صلة: القيود المحتملة على استخدام الذكاء الاصطناعي في القرارات المتعلقة بنشر الأسلحة النووية.

على هذه الخلفية، أصبحت مسألة القيود التي ينبغي فرضها على استخدام الأسلحة الفتاكة ذاتية التشغيل أكثر إلحاحاً، وفي الوقت الحالي وصلت إلى ما إذا كان يكفي أن تتبنى الأمم المتحدة ببساطة مبادئ توجيهية غير ملزمة، وهو الموقف الذي يدعمه مجلس الأمن الدولي. الولايات المتحدة.

“سيكون من الصعب للغاية على وفدنا أن يقبل كلمة “يجب””، قال جوشوا دوروسين أهم الاتفاقيات الدولية موظف في وزارة الخارجية، أخبر المفاوضون الآخرون خلال أ مناظرة في مايو/أيار بشأن لغة القيود المقترحة.

وقد جادل السيد دوروسين وأعضاء الوفد الأمريكي، الذي يضم ممثلاً عن البنتاغون، بأنه بدلاً من وضع قانون دولي جديد، يجب على الأمم المتحدة توضيح أن القوانين الدولية لحقوق الإنسان الحالية تحظر بالفعل على الدول استخدام الأسلحة التي تستهدف المدنيين أو تسبب غير متناسب مقدار الضرر الذي يلحق بهم.

لكن الموقف الذي اتخذته القوى الكبرى لم يؤد إلا إلى زيادة القلق بين الدول الأصغر، التي تقول إنها تشعر بالقلق من أن الأسلحة الفتاكة المستقلة قد تصبح شائعة في ساحة المعركة قبل أن يكون هناك أي اتفاق على قواعد استخدامها.

وقال السفير الباكستاني خليل هاشمي خلال اجتماع في مقر الأمم المتحدة: “لا يبدو أن الرضا عن النفس خيارا بعد الآن”. “إن الفرصة المتاحة للتحرك تتضاءل بسرعة بينما نستعد للاختراق التكنولوجي.”

التقدم السريع في الذكاء الاصطناعي والاستخدام المكثف للطائرات بدون طيار في الصراعات في أوكرانيا لقد اجتمعت منطقة الشرق الأوسط لجعل هذه القضية أكثر إلحاحاً. حتى الآن، تعتمد الطائرات بدون طيار عمومًا على مشغلين بشريين لتنفيذ مهام مميتة، ولكن يجري تطوير برمجيات ستسمح لها قريبًا بالعثور على الأهداف واختيارها بنفسها.

التشويش المكثف على الاتصالات اللاسلكية ونظام تحديد المواقع في أوكرانيا وقد تسارعت فقط هذا التحول، حيث يمكن للطائرات بدون طيار أن تستمر في العمل حتى عندما تكون الاتصالات مقطوعة.

“هذه ليست حبكة رواية بائسة، بل حقيقة تلوح في الأفق”، قال جاستون براون، رئيس وزراء أنتيغوا وبربودا، أخبر مسؤولون في اجتماع للأمم المتحدة مؤخرا.

وقد أوضح مسؤولو البنتاغون أنهم يستعدون لنشر الأسلحة المستقلة على نطاق واسع.

نائبة وزير الدفاع كاثلين هيكس أعلن هذا الصيف أن جيش الولايات المتحدة سوف “ينشر أنظمة مستقلة ذاتية التشغيل على نطاق عدة آلاف” في العامين المقبلين، قائلًا إن الدفع للتنافس مع استثمارات الصين في الأسلحة المتقدمة يستلزم أن تستفيد الولايات المتحدة من منصات صغيرة وذكية ورخيصة وكثيرة.”

إن مفهوم السلاح المستقل ليس جديدا تماما. وقد تم استخدام الألغام الأرضية – التي تنفجر تلقائيًا – منذ عام 1930 حرب اهلية. تمتلك الولايات المتحدة أنظمة صاروخية تعتمد على أجهزة استشعار رادارية للإمساك بالأهداف وضربها بشكل مستقل.

ما يتغير هو إدخال الذكاء الاصطناعي الذي يمكن أن يمنح أنظمة الأسلحة القدرة على اتخاذ القرارات بنفسها بعد تلقي المعلومات ومعالجتها.

لقد تبنت الولايات المتحدة بالفعل سياسات طوعية تضع حدودًا لكيفية استخدام الذكاء الاصطناعي والأسلحة المستقلة الفتاكة، بما في ذلك سياسة البنتاغون التي تمت مراجعتها هذا العام والتي تسمى “الحكم الذاتي في أنظمة الأسلحة“ووزارة الخارجية ذات الصلة”الإعلان السياسي بشأن الاستخدام المسؤول للذكاء الاصطناعي والاستقلالية“، وهو ما حثت عليه الأمم الأخرى لتحتضنها.

إن بيانات السياسة الأمريكية “ستمكن الدول من تسخير الفوائد المحتملة لأنظمة الذكاء الاصطناعي في المجال العسكري مع تشجيع الخطوات التي تتجنب السلوك غير المسؤول والمزعزع للاستقرار والمتهور”. قال بوني دينيس جنكينز، وكيلة وزارة الخارجية.

وتحظر سياسة البنتاغون استخدام أي سلاح جديد مستقل أو حتى تطويره ما لم تتم الموافقة عليه من قبل كبار مسؤولي وزارة الدفاع. يجب تشغيل هذه الأسلحة في أ جغرافية محددة المنطقة لفترات محدودة. وإذا تم التحكم في الأسلحة بواسطة الذكاء الاصطناعي، فيجب على الأفراد العسكريين الاحتفاظ بـ “القدرة لفك الارتباط أو إلغاء تنشيط الأنظمة المنشورة التي تظهر سلوكًا غير مقصود.

وقال جنرالات القوات الجوية في المقابلات، إنه على الأقل في البداية، ستكون هناك حاجة إلى موافقة بشرية قبل اتخاذ إجراء مميت.

لكن فرانك كيندال، وزير القوات الجوية، قال في مقابلة منفصلة إن هذه الآلات ستحتاج في النهاية إلى امتلاك القدرة على القيام بعمل مميت من تلقاء نفسها، مع بقائها تحت الإشراف البشري في كيفية نشرها.

القرارات الفردية مقابل عدم اتخاذ قرارات فردية هي الفرق بين الفوز والخسارة – ولن تخسر,” هو قال. وأضاف: “لا أعتقد أن الأشخاص الذين سنواجههم سيفعلون ذلك، وسيمنحهم ذلك ميزة كبيرة إذا وضعنا هذا القيد على أنفسنا”.“.

قال توماس إكس هامز، ضابط البحرية المتقاعد الذي يعمل الآن زميلاً باحثاً في جامعة الدفاع الوطني التابعة للبنتاغون، في مقابلة وفي مقابلة أجريت معه مؤخراً: مقال نشر من قبل المجلس الأطلسي أنه “من الضروري الأخلاقي أن تقوم الولايات المتحدة والدول الديمقراطية الأخرى” ببناء واستخدام أسلحة ذاتية التشغيل.

وقال إن “الفشل في القيام بذلك في صراع تقليدي كبير سيؤدي إلى سقوط العديد من القتلى، عسكريين ومدنيين على حد سواء، وربما خسارة الصراع”.

يختلف بعض المدافعين عن الحد من الأسلحة والدبلوماسيين، يتجادل أن الأسلحة الفتاكة التي يتحكم فيها الذكاء الاصطناعي والتي لا تسمح للبشر بضربات فردية ستغير طبيعة القتال من خلال القضاء على الدور الأخلاقي المباشر الذي يلعبه البشر في القرارات المتعلقة بقتل الحياة.

يقول هؤلاء النقاد إن أسلحة الذكاء الاصطناعي هذه ستعمل أحيانًا بطرق لا يمكن التنبؤ بها، ومن المحتمل أن ترتكب أخطاء في تحديد الأهداف، مثل السيارات ذاتية القيادة التي تتعرض لحوادث.

قد تؤدي الأسلحة الجديدة أيضًا إلى زيادة احتمال استخدام القوة المميتة في زمن الحرب، نظرًا لأن الجيش الذي يطلقها لن يعرض جنوده للخطر على الفور، أو قد يؤدي إلى تصعيد أسرع“، كما جادل المعارضون.

مجموعات مراقبة الأسلحة مثل اللجنة الدولية للصليب الأحمر ومنظمة أوقفوا الروبوتات القاتلة، إلى جانب الوفود الوطنية بما في ذلك النمسا, الأرجنتين, نيوزيلندا, سويسرا و كوستا ريكا، يملك مقترح مجموعة متنوعة من الحدود.

قد يسعى البعض إلى العالمية المنع الأسلحة المستقلة الفتاكة التي تستهدف البشر بشكل واضح. آحرون سيتطلب بقاء هذه الأسلحة تحت “سيطرة بشرية حقيقية”، ويجب استخدامها في مناطق محدودة لفترات زمنية محددة.

واعترف السيد كمينت، الدبلوماسي النمساوي، في مقابلة أجريت معه بأن الأمم المتحدة واجهت مشكلة في تطبيق المعاهدات القائمة التي تضع حدوداً لكيفية شن الحروب. وأضاف أنه لا تزال هناك حاجة لوضع معيار جديد ملزم قانونا.

وقال: “لمجرد أن شخصاً ما سوف يرتكب جريمة قتل دائماً، فهذا لا يعني أنك لا تحتاج إلى تشريع لحظرها”. “ما لدينا في الوقت الحالي هو أن هذا المجال برمته غير منظم على الإطلاق.”

لكن السيد دوروسين اعترض مرارا وتكرارا على المتطلبات المقترحة التي تعتبرها الولايات المتحدة غامضة للغاية أو غير راغبة في قبولها، مثل الدعوة إلى وضع الأسلحة تحت “سيطرة بشرية ذات معنى”.

الوفد الأمريكي اللغة المفضلة “ضمن سلسلة قيادة بشرية مسؤولة.”

وقال إنه من المهم بالنسبة للولايات المتحدة أن يكون المفاوضون “تجنب غامضة، مصطلحات شاملة.”

السيد فورونتسوف الدبلوماسي الروسي أخذ الكلمة بعد السيد دوروسين خلال إحدى المناقشات وأيد الموقف الذي اتخذته الولايات المتحدة.

وقال السيد فورونتسوف: “نحن نفهم أن الأولوية بالنسبة للعديد من الوفود هي السيطرة البشرية”. “بالنسبة للاتحاد الروسي، الأولويات مختلفة بعض الشيء.”

وقالت الولايات المتحدة والصين وروسيا أيضًا إن الذكاء الاصطناعي والأسلحة المستقلة قد تحقق فوائد من خلال تقليل الخسائر في صفوف المدنيين والأضرار المادية غير الضرورية.

وقال الوفد الأمريكي: “لقد ثبت أن الأسلحة الذكية التي تستخدم أجهزة الكمبيوتر والوظائف المستقلة لنشر القوة بشكل أكثر دقة وكفاءة تقلل من مخاطر إلحاق الضرر بالمدنيين والأعيان المدنية”. جادل.

فاز السيد كمينت في أوائل نوفمبر دعم واسع النطاق لخطة منقحة تطلب من مكتب الأمين العام للأمم المتحدة إعداد تقرير حول الأسلحة الفتاكة المستقلة، لكنها أوضحت أنه احترامًا للقوى الكبرى، ستبقى المداولات التفصيلية حول هذه المسألة مع لجنة الأمم المتحدة في جنيف، حيث يمكن لأي دولة بمفردها يمكن أن يعيق التقدم بشكل فعال أو يجبر على تخفيف اللغة.

وفي الأسبوع الماضي، وافقت اللجنة التي تتخذ من جنيف مقرا لها، بناء على طلب من روسيا وقوى كبرى أخرى، على تسليم نفسها حتى نهاية عام 2025 وقال أحد الدبلوماسيين الذين شاركوا في المناقشة: “يجب أن نواصل دراسة الموضوع”.

وقال السيد كمينت: «إذا انتظرنا طويلاً، فسوف نندم حقاً». “وفي وقت قريب، سوف يصبح رخيصًا، ومتاحًا بسهولة، وسيكون موجودًا في كل مكان. وسوف يتساءل الناس: لماذا لم نتحرك بالسرعة الكافية لمحاولة وضع حدود لها عندما أتيحت لنا الفرصة للقيام بذلك؟

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى