من سيملك الذكاء الاصطناعي سيحكم العالم. سنروض مخاطر الذكاء الاصطناعي قبل ان يتحكم بجيشنا وامننا القومي. في الفين وثلاثين ستكون لنا ريادة العالم بالذكاء الاصطناعي. لكن قبل كل هذا لنعد الى عام الفين وواحد وعشرين. عندما حلقت طائرة مسيرة امريكية في سماء ليبيا. ثم اتخذت قرارا بتدمير هدف دون اي امر بشري لها.
اتخاذ القرار بقتل البشر
حسنا. نحن لا نسرد هذه الحكاية لما حدث خلالها. بل من اجل ان نتذكر هذا التاريخ جيدا. لانه العام الذي بدأت فيه الروبوتات. اتخاذ قرارات بقتل البشر بمعزل عن تلقيها للامر من اي انسان. وهذا الكلام ليس اخبارا من وسيلة هنا او من موقع اخباري هناك. بل تقرير للامم المتحدة وثق اول عام قررت فيه الة ذكية ان تتخذ قراراتها بنفسها بقتل انسان. من ثم تدحرجت كرة استهداف الروبوتات العسكرية للبشر بقرارات منها. حيث استخدمت اسرائيل مسيرات مسيرة بالذكاء الاصطناعي. وقتلت قادة عدة من الفصائل الفلسطينية.
واذربيجان ايضا كانت ترسل مسيراتها لضرب اي هدف ارميني يتحرك على الجبهة. ومؤخرا في اختبار محاكاة للذكاء الاصطناعي لتشغيل طائرة امريكية مسيرة. حيث برزت مخاطر الذكاء الاصطناعي اذ انحرف وطور استراتيجيات غير متوقعة أبداً. حيث قام بمهاجمة اي شخص يتدخل في سيطرته على انجاز مهمته. وفي المحاكاة قتلت المسيرة مشغلها لانه اراد الغاء امر تدمير الهدف.
روبوت يحدد من سيقتل
اما حرب روسيا واوكرانيا اليوم فهي المختبر الحقيقي لروبوتات القتل. بحيث يسيّر الذكاء الاصطناعي المسيرات الجوية والبحرية وخاصة الروسية منها بحثا عن اهداف لضربها من دون ايعاز بشري. وبالتالي فان اليوم الذي تحدد فيه الة من ستقتل في ساحة المعركة قد اتى. اما ما سيحدث في الغد لقريب. وربما يحدث اليوم فهو اكبر بكثير.
ولنا في هذا ما تم كشفه من التجارب المسماة “الفا دوك فايتنج”. التي تجربها وكالة مشاريع البحوث الدفاعية الأميركية المتقدمة داربا. وهدفها جعل طائرة الـ اف ستة عشر والـ اف ثمانية عشر مسيرة بالذكاء الاصطناعي. بحيث يتم اتخاذ قرارات القصف والقتل والمناورة من قبل روبوت دون اي تدخل بشري.
قيادة الطائرات المقاتلة
ولان الامر ليس بعيدا وربما يكون مطبقا بالخفاء. نفذ احد امهر الطيارين الامريكيين بحسب وثائقي محاكاة لمناورة ضد طائرة اف ستة عشر يقودها روبوت. وهذه المناورة تقوم على اشتباك الطيار وجها لوجه مع طائرات من مسافة قريبة. بحيث يحاول الطيار المناورة بالطائرة المقاتلة بحركات بهلوانية والالتفاف على الطائرة الاخرى قبل تدميرها باستخدام اسلحة مثبتة على الطائرة. ما يجعل هذه المناورة جولة ملاكمة في السماء.
ويستغرق التعلم على اساليب دوك فايتنج من ثماني الى عشر سنوات. حتى يتمكن الطيار الحربي من اتقانها. وبالعودة الى المحاكاة التي نفذها احد امهر طياري امريكا فان النتيجة كانت مقتله وتدمير طائرته ثلاث مرات متتالية وبلمح البصر وهذا ما يوضح أهمية التقارير التي تتحدث عن مخاطر الذكاء الاصطناعي. جراء مناورات الطائرة التي يقودها الروبوت بامكانات تتعدى قدرات البشر بكثير. كما ان هذا الروبوت بالطبع يفتقد لاي حس انساني في قمرة القيادة. حتى انه كان يشتبك على الفور من الامام دون ترك فرصة للمناورة. وهو ما يفعله الطيار البشري بهدف تأمين حياته اولا.
لا مشاعر ولا خوف
وفي حال الاشتباك غير المصحوب باوامر الاسقاط. يترك الانسان مجالا بالمناورة للطائرة الاخرى للعودة من حيث اتت. كما ان مصطلح دوك فايتنج ظهر خلال الحرب العالمية الاولى. حيث كان الطيارون يتمركزون بطائراتهم خلف طائرات العدو. بحيث يمكنهم اطلاق النار عليه في حين لا يستطيع العدو الرد.
ولان الروبوت يتخذ قراراته بنفسه. فانه قرر بانه سيقتل من الامام. فالطيار الروبوت لا يأبه للسلامة ولا يحتفظ باي مشاعر بشرية. ولا يخشى الموت حال اشتبك من مسافة الصفر. ورغم ان تطور صناعة الطيران قللت من احتمالية ان يجد الطيار نفسه بحاجة الى خوض مناورات قريبة المدى جراء تحسن مدى الرادارات وتقنية التخفي والصواريخ الموجهة. ما جعل مصطلح دوك فايتنج يترك المجال لمصطلح ايركومباكت مانوفرينج.
تجاهل الإعتبارات الإنسانية
يمكن تخيل مخاطر الذكاء الاصطناعي مثلا عن طريق توقع ما يمكن ان يفعله طيار روبوت بامكانيات اف ستة عشر او اف ثمانية عشر. سواء بالاشتباك القريب او بالقصف من بعيد. كما يمكننا ان نتخيل ماذا قد يفعل روبوت يقود طائرة مقاتلة بمهمة لقصف مركز ارهابيين. في حال رأى انهم على سبيل المثال اتخذوا اطفالا كدروع بشرية. بالطبع سيتخذ قراره بالقتل لان وعيه الاصطناعي وامكانية التعلم لديه تقوم على ضرورة اتخاذ القرارات لصالح العملية دون اي اعتبارات بشرية.
وهي المخاوف ذاتها التي يثيرها تطوير دول كبرى ما يسمى بالروبوتات غير المرئية المصنوعة من مواد شفافة لا تراها العين البشرية. ما يفتح مجال استخدامها للتجسس على قوات العدو او تنفيذ مهام تخريبية او تسليم الاسلحة او المتفجرات.
مخاوف أخلاقية
لكن تبقى أبرز مخاطر الذكاء الاصطناعي هي المخاوف الاخلاقية حيث أن هذه الروبوتات سوف تختفي عن الجميع وتتخذ اوامر القتل والتدمير بنفسها وتنفذها. وما زال من اكبر المخاطر الروبوتات التي طورتها امريكا وروسيا. وهي قادرة على اتخاذ قرار الحرب النووية. اذ انه بامكان هذا النوع من الروبوتات ان تقلص فترة اتخاذ القرار الى دقائق بدلا من ساعات او ايام. وبامكانها اعطاء تقييمات استراتيجية وتكتيكية قبل بدء حرب نووية في المستقبل.
وهنا علينا التذكير ان الروبوتات القاتلة في الحروب حاليا هي انظمة روبوتبة قادرة على تحديد الاهداف وتدميرها دون تدخل انساني. لكنها في معظمها تأخذ الامر الاولي للهجوم بشريا. وبعد هذا يتمتع الروبوت بحرية الاختيار وطريقة التنفيذ.
مخاطر الذكاء الاصطناعي في المستقبل
فيما تختبر حاليا انظمة اخرى لحروب المستقبل القريب يمكنها العمل دون الاحتياج الى التدخل البشري مطلقا. ومن اجل هذا عقدت الامم المتحدة اجتماعا في عام الفين اثنين وعشرين. لمناقشة ما اسمته بالاسلحة المستقلة. الا ان امريكا وروسيا عملتا على عرقلة هذه المناقشات ما يؤكد امتلاكهما لها. واذا كنتم تعتقدون ان ما تصنعه امريكا او روسيا او الصين ودول اخرى ما زال قيد التجارب بما يخص التكنولوجيا المتقدمة جدا لروبوتات تتعلم وتفكر وتتخذ قرارات القتل بنفسها. فلنسرد عليكم بعض انواع القتل الموجودة فعلا في حروب ومعارك اليوم.
- اذ تمتلك واشنطن اسلحة قادرة على اطلاق النار دون تدخل بشري. ويقتصر الدور البشري على ايقاف الهجوم عند الضرورة. ولا ننسى ان انظمة باتريوت الامريكية مزودة بميزة اتخاذ القرار تلقائيا لاسقاط الصواريخ او الطائرات التي تخترق المجالات الجوية المحمية.
- وهو الامر ذاته لانظمة مثل اس اربعمائة الروسية وحتى القبة الحديدية الاسرائيلية.
- كما كشفت روسيا قبل اشهر عن بدء تصنيع طوربيد قادر على السفر عبر المحيط بشكل ونقل الاسلحة النووية والهرب من الدفاعات الصاروخية الحالية. مع امكانية اتخاذ قرارات الهجوم بشكل مستقل.
- كما يبرز من بين روبوتات القتل بنادق الاستشعار الثابتة المستقلة. وهي سلاح يهاجم بقرار مستقل الاهداف التي تكتشفها اجهزة الاستشعار. وتعد اس جي ار اي وان التي طورتها كوريا الجنوبية اول بندقية استشعار من نوعها تحتوي على نظام متكامل ما زاد من مخاطر الذكاء الاصطناعي حيث أنه أصبح يستطيع المراقبة والتتبع واطلاق النار والتعرف على الصوت.
الطائرات المسيرة او الدراونز
وبالتأكيد لابد من الحديث عن اهم روبوتات القتل الموجودة اليوم والتي ذاع صيتها في الحرب الروسية الاوكرانية. وهي الطائرات المسيرة او الدراونز التي يتم تسييرها دون طيار. وتأتي باحجام واشكال مختلفة. تتراوح من الاجهزة المحمولة الصغيرة الى الطائرات الكبيرة ذات الاجنحة الثابتة.
وتكمن مخاطر الذكاء الاصطناعي في دمجه بتكنولوجيا الطائرات بدون طيار الى فتح الباب لزيادة امكانيات هذه الطائرات بصورة غير مسبوقة. اذ انتقلت بعض هذه الطائرات من مرحلة التحكم بها عن بعد الى ان يتحكم بها الذكاء الاصطناعي المعتمد على التعلم الالي. بحيث يستخدم خوارزميات معقدة للتعرف على انماط البيانات تلقائيا. فلم يعد بامكان المسيرة فقط التقاط الصور وعرضها. بل يمكنها ادراك ما يحيط بها وتحديد المناطق وتتبع الكائنات وتقديم ملاحظات تحليلية في الوقت الفعلي. وبعد هذا يتخذ الروبوت قرار الهجوم بالاعتماد على ما تعلمه. وهنا ينحصر دور المتحكم بالطائرة في المراقبة فقط وتعطيل الامر ان اقتضت الحاجة.
وبحسب مجلة نيوز ويك فإن الولايات المتحدة نجحت بتطوير مسيرات ذكية يمكنها استخدام تقنية التعرف على الوجه للكشف عن وجوه الاهداف بدقة. وهي مسيرات تستخدمها اوكرانيا في حربها مع روسيا اليوم.
الدبابة الروبوت
ومن الطائرات المسيرة يمكن الانتقال الى الدبابة الروبوت. وقد حققت روسيا بالفعل سبقا كبيرا في صناعة المركبات المستقلة المزودة بالذكاء الاصطناعي. بحيث يمكنها ان تعمل دون مشغلين ويمكن التحكم فيها عن بعد. اما جديد روسيا اليوم زادت مخاطر الذكاء الاصطناعي وجعلته قادر على اتخاذ قرار اطلاق النار. فيما يكتفي من يتحكم عن بعد بالمركبة بالمراقبة والتدخل عند الضرورة.
وفي ساحات المعارك اليوم في اوكرانيا يمكن مشاهدة الدبابات الروبوتية ماركر. التي تستخدمها موسكو في شرق اوكرانيا لمواجهة تهديد دبابات ليوبارد تو وابراهامز. تستطيع ماركر غير المأهولة والمسلحة بالمدافع الرشاشة سبعة فاصل اثنين وستين مليمتر والصواريخ المضادة للدبابات. تمييز دبابات اليوبارد تو وابراهامز دون غيرها. ومن ثم التوجه اليها لتدميرها.
وما زالت عجلة الروبوتات التي تتخذ قرارات القتل من تلقاء التها تدور. في وقت بدأ كثير من الناس في الاعتقاد بان الالات تفكر بشكل صحيح ودقيق. دون ان يتذكروا ان اي ذكاء اصطناعي هو الة. والالات تفعل اشياء مجنونة ولا تميز بين مدني وعسكري. ولا تفرق بين اطلاق رصاصة او صاروخ نووي. وربما على من يعلِّم الروبوتات اليوم كيف تتخذ قرارات قتل البشر ان يتذكر انه عندما يفتح ابواب الجحيم سيكون مستحيلا ان يعود ليغلقها.