أشار بعض العلماء إلى قدرة الذكاء الاصطناعى على القيام بمهام البشر هذا العام، وقد يؤدى وظائف معينة بشكل أفضل من معظم البشر. وأضافت تطبيقات الذكاء الاصطناعى دورا جديدا لها يزاحم هذه المهن وتلك الوظائف، منها صناعة المحتوى والصورة والحديث وتكوين شخصيات رقمية بشكل بشري.
جاء ذلك مع التطور الضخم فى البنية التحتية الرقمية مثل: الألياف البصرية، والهواتف الذكية، وتطور شبكات الجيلين الخامس والسادس.
يؤدى ذلك الأمر إلى تقاعد الكثير من الناس فى منازلهم، ويصبح مصارعا لهم فى مهنهم، وقاطعا لأرزاقهم، ويمكن أيضا تسليحه واستخدامه، على سبيل المثال، لإنشاء مسببات الأمراض، أو شن هجمات إلكترونية ضخمة.
على صعيد آخر، وعلى الرغم من اعتقاد عدد من الباحثين بأنه يمكن الوصول على الأقل إلى نصف قدرة العقل البشرى بحلول عام 2024، فإن الإنسان سيظل هو من يحركه ويسيطر عليه. تكشف التجربة الدولية السابقة عن أن الذكاء الاصطناعى لا يمكن أن يكون نقيضًا للذكاء البشرى، بل إنه عامل مساعد له، وما صنعه الإنسان من الآلات امتلكت ذكاء صناعيا.
من ثم، لم تصبح “الآلات” مفكرة، بل إنها كانت خاضعة بالفعل إلى برمجيات للتحكم والسيطرة من قبل الإنسان، ولكن تكمن الخطورة فى توظيف ذلك التقدم لأهداف عسكرية أو غير إنسانية.تمثل هذه الاحتمالات السيناريوهات المخيفة من تقدم الذكاء الاصطناعى.
من ثم، فإن الخوف مما يسمى سيطرة الذكاء الاصطناعى على العقل البشرى ليس له مبرر؛ لأن المشكلة الأساسية تكمن فيما يكمن وراء تحريك تلك التطبيقات من البشر أنفسهم، وأن أى أخطاء أو تجاوز لتلك الصلاحيات الممنوحة تكمن فى خلل فى الخوارزميات التى تم وضعها، وأن القدرات الخارقة أو غير المعتادة التى سيصل إليها الذكاء الاصطناعى فى المستقبل سيتوقف الخوف منها على مدى سعى الإنسان لعسكرة تلك التطبيقات لإدارة صراع عن بعد مع قوى دولية أخرى.
لن يشهد العالم صراعا بين الذكاء البشرى والذكاء الاصطناعى بل سيكون عبر تحالفهما معا لتحقيق أهداف بشرية فى النهاية فى معركة الاستحواذ على قوة الحاضر والمستقبل.
هناك بعض التوقعات للذكاء الاصطناعى أشاد بها تقرير على موقع Live Science ، منها أن عام 2024 ربما سيكون عام الاختراق بالنسبة للذكاء الاصطناعى، كما تسهم تطبيقات الذكاء الاصطناعى فى معالجة كل من اللغات وتفسيرها وترجمتها بسرعة فائقة، واستخدام الروبوتات فى المجالات الطبية، والزراعية، والصناعية، وغيرها.
يتوقع أن يفعل ثلاثة أمور مخيفة خلال الأشهر المقبلة من أبرزها الحرب، والتزييف الواقعى العميق، وتزوير الانتخابات، والروبوتات القاتلة.
التزييف الواقعى العميق وتزوير الانتخابات
أثبتت الكثير من الدراسات خلال سؤال تطبيقات الذكاء الاصطناعى عن أسوأ الاحتمالات التى يحدثها الذكاء الاصطناعى فى المستقبل بداية من عام 2024.
وبطرح السؤال على 4 تطبيقات شهيرة للذكاء الاصطناع، منها “شات جى بى تى” (ChatGPT)، “جى بى تى-4” (GPT-4)، “ساغ” (Sage)، “كلود+” (Claude+) حذرتنا، وقدمت لنا تصوراتها عن أسوأ سيناريوهات الذكاء الاصطناعى، وأكد أحدها أنه “من المهم ملاحظة أن هذه السيناريوهات ليست تنبؤات، بل هى مخاطر محتملة يجب أن نكون على دراية بها ونعمل على التخفيف منها“.
أول هذه المخاوف التزييف الواقعى والعميق من خلال إمكانية استخدام الذكاء الاصطناعى لتوليد صور،أو مقاطع فيديو، أو صوت، أو نصوص مزيفة (التزييف العميق) باستخدام أدوات التعلم الآلى المتقدمة، ما يؤدى إلى انتشار المعلومات المضللة على نطاقات ضخمة عبر الإنترنت، وهذا يمكن أن يقوض سلامة المعلومات ويقوض الثقة بمصادر الأخبار وبنزاهة المؤسسات الديمقراطية.
فى سيناريو مرعب، قد يدفع ظهور التزييف العميق صناع القرار فى مجال الأمن القومى فى يوم من الأيام إلى اتخاذ إجراءات فعلية بناء على معلومات خاطئة، ما قد يؤدى إلى أزمة كبيرة، أو أسوأ من ذلك: الحرب، فى سياق متصل، ومع قدرة الذكاء الاصطناعى على إنشاء صور مزيفة عميقة – أى بث فيديو مباشر. فإن إمكاناته أصبحت غير متوقعة؛ حيث أصبح الآن جيدا جدا فى إنشاء وجوه بشرية لدرجة أن الأشخاص لم يعد بإمكانهم التمييز بين ما هو حقيقى وما هو مزيف.
نشرت مجلة العلوم النفسية فى 13 نوفمبر الماضى، عن ظاهرة “الواقعية المفرطة”؛ حيث من المرجح أن ينظر إلى المحتوى الناتج عن الذكاء الاصطناعى على أنه “حقيقى“.
من ثم، فأحد الاحتمالات المخيفة للذكاء الاصطناعى هو أن يتمكن البشر من نشر التزييف العميق له لمحاولة التأثير فى الانتخابات.
للذكاء الاصطناعى دور كبيير أيضا فى التزييف العميق فى الانتخابات من خلال تغيير نتيجة التصويت، وأكدت صحيفة فايننشال تايمز، على سبيل المثال، أن بنجلاديش تستعد للانتخابات فى يناير الجاري، فيما تستعد الولايات المتحدة لإجراء الانتخابات الرئاسية فى نوفمبر 2024، وهناك احتمال أن يؤدى الذكاء الاصطناعى والتزييف العميق إلى تغيير نتيجة هذا التصويت الحاسم.
على الصعيد نفسه، تقوم جامعة كاليفورنيا فى بيركلى بمراقبة استخدام الذكاء الاصطناعى فى الحملات الانتخابية، وأشارت شبكة إن بى سى نيوز أيضا إلى أن العديد من الولايات تفتقر إلى القوانين أو الأدوات اللازمة للتعامل مع أى زيادة فى المعلومات المضللة الناتجة عن الذكاء الاصطناعى.
الذكاء الاصطناعى أداة للحروب المقبلة
يعد استخدام الذكاء الاصطناعى فى الحروب من أحدث التطورات التكنولوجية التى تؤثر فى المجال العسكرى. يمكن استخدام الذكاء الاصطناعى فى الحروب فى عدة مجالات مثل التخطيط والتحليل واتخاذ القرارات والتشخيص والتنبؤ بالأحداث، ويمكن أن يسهم استخدام الذكاء الاصطناعى فى تحسين كفاءة العمليات العسكرية وتقليل التكاليف وزيادة دقة اتخاذ القرارات.
استخدامات الذكاء الاصطناعى فى العمليات العسكرية
تحسين التخطيط والتحليل: يمكن للذكاء الاصطناعى مساعدة قادة الجيش على تحليل المعلومات وتقديم توجيهات دقيقة للتخطيط والتنفيذ.
زيادة دقة اتخاذ القرارات:باستخدام تقنيات الذكاء الاصطناعى، يمكن تحسين دقة اتخاذ القرارات فى ساحة المعركة، مما يمكن أفضل استغلال الموارد وتحقيق نتائج أفضل.
تقليل التكاليف:بمكن للاستخدام المثلى للذكاء الاصطناعى أن يؤدى إلى تقليل التكاليف من خلال زيادة كفاءة العمل وتوجيه الموارد بشكل أفضل.
فى هذا السياق تعمل الحكومات فى جميع أنحاء العالم على دمج الذكاء الاصطناعى بشكل متزايد فى أدوات الحرب.
نتيجة لذلك،أعلنت الحكومة الأمريكية فى 22 نوفمبر الماضى أن 47 ولاية أيدت إعلانا بشأن الاستخدام المسئول للذكاء الاصطناعى فى الجيش، والذى أطلق لأول مرة فى لاهاى فى فبراير 2023.
تجلت قدرة الذكاء الاصطناعى على استخدامه كسلاح للحرب به فى الطائرات الذى كانت بدون طيار تعمل بالذكاء الاصطناعى تطارد جنودا فى ليبيا دون تدخل بشرى.
فى عام 2024، لم يقتصر استخدام الذكاء الاصطناعى على أنظمة الأسلحة فحسب، بل أيضا فى الأنظمة اللوجستية وأنظمة دعم القرار، فضلا عن البحث والتطوير.
الذكاء الاصطناعى ربوت قاتل
للذكاء الاصطناعى تطبيقات عدة فى المجالين الأمنى والعسكرى. على الميدان، هو يُسهّل المناورات، ويُمكّن من إنقاذ الأرواح فى حال حدوث خسائر، كما يعزز أداء الجيوش بتوفير روبوتات حليفة للجنود.
بحسب بعض الخبراء، فإن الأسلحة الفتاكة الأوتوماتيكية هى بصدد خلق الثورة الثالثة للحروب، بعد البارود والسلاح النووى. وكيف لا ينتابنا القلق لحلول يوم يصبح فيه تشغيل جيوش الروبوتات واقعا، بما لها من قدرة على تنفيذ العمليات العدائية بكل استقلالية؟
بفضل تطور التكنولوجيات الإعلامية، ستُصبح نُظم القتال مُستقبلا أكثر استقلالية من النظم الحالية.
ستسمح هذه الاستقلالية، دون أدنى شك، بتوفير مساعدة قيمة للمقاتلين. من ناحية أخرى، سوف تأتى بالمزيد من التحديات والمجازفات: من ذلك سباق التسلح بين الدول، وغياب القواعد والقوانين فى مناطق الصراع، وانعدام المسئولية فى اتخاذ القرارات. فى الوقت الحاضر، فى حين يحاول العديد من المقاولين وأصحاب القرار والعلماء منع استخدام نُظم القتال المستقلة، يؤكد العسكريون أن القرار الأخير بخصوص القتل من عدمه، أثناء المعركة، سوف يبقى بيد الإنسان.
وقد حذر العديد من العلماء والتقنيين البارزين من الروبوتات القاتلة ومنهم ستيفن هوكينج فى عام 2015 وإيلون ماسك فى عام 2017، لكن التكنولوجيا لم تتحقق بعد على نطاق واسع، تعد الربوتات القاتلة(LAWS) أحد أنظمة الأسلحة الفتاكة المستقلة التى ثثير الرعب وكثرة المخاوف من ابتكارها.
فى نهاية المطاف، ليس بين أيدينا إلا التسليم للتطورات التكنولوجيا فيما تقدمه لنا، وما تحدثه فينا، وما يجب أن نفعله تجاه هذه الضجة من التطورات التكنولوجيا المثيرة للقلق والرعب، هو تعلم كيفية التعامل معها والتطور بشكل دائم، وأن نسارع الزمن، ولا نقف مكتوفى الأيدى متسمرين فى أماكننا بمنزلة مشاهدين ومراقبين فقط، ولكن لا بد من تعلم كيفية التعامل مع هذه المعضلة التى تبدأ بالحديث عن انطلاقة للروبوتات القاتلة، التى طبقت على أرض الواقع.
على سبيل المثال، فى أوكرانيا، زُعم أن روسيا نشرت طائرة Zala KYB-UAV بدون طيار، يمكنها التعرف إلى الأهداف ومهاجمتها دون تدخل بشرى، وفقا لتقرير صادر عن نشرة علماء الذرة.
وقد طورت أستراليا أيضاGhost Shark ، وهو نظام غواصة مستقلة من المقرر أن تنتج “على نطاق واسع”، وفقا لما ذكرته مجلة .Australia Financial Review