رفضت شركة OpenAi، أوبن أيه آي، الإجابة عن تساؤلات بشأن استخدام البنتاغون برنامج الدردشة "شات جي بي تي"، القائم على الذكاء الاصطناعي، لأغراض عسكرية، فماذا يعني ذلك؟
كان "ChatGPT" أو روبوت الدردشة القائم على الذكاء الاصطناعي، الذي تصنعه شركة "أوبن أيه آي"، في كاليفورنيا، قد أثار عاصفة من الجدل هذا العام، تبعتها تحذيرات خطيرة من جانب مشاهير ومتخصصين في مجال التكنولوجيا.
كما خلصت دراسة استقصائية حديثة إلى أن 50% من الباحثين العاملين في مجال الذكاء الاصطناعي يرون أن هذه التكنولوجيا يحتمل بنسبة 10% أن تتسبب في انقراض الجنس البشري.
ونشرت صحيفة The Times البريطانية تقريراً يرصد أبرز سبب للخوف من هذه التكنولوجيا، وهو أن لديها القدرة على اختراق العديد من مجالات حياتنا وإحداث أضرار مؤثرة فيها، سواء أكان ذلك بالتدمير المحتمل لكثير من الوظائف أم بتطوير أنظمة الأسلحة المستقلة [قليلة التدخل البشري]، التي يمكن أن تنتهك قوانين الحرب.
في هذا السياق، نشر موقع The Intercept الأمريكي تقريراً يرصد سعي وزارة الدفاع الأمريكية (البنتاغون) لتوظيف روبوت الدردشة شات جي بي تي ChatGPT، في تعزيز قدراتها، بالنظر إلى التطور المتسارع والتحول المذهل لمولِّدات النصوص الآلية، من مجرد تصورات خيالية إلى مشروعات واقعية، ثم إلى أدوات حقيقية، ومن ثم صار من المحتوم أن تصل هذه الأدوات بعد ذلك إلى المرحلة التالية: مرحلة استعمالها سلاحاً بين الخصوم.
وبالفعل، يخطط البنتاغون ووكالات الاستخبارات الأمريكية علناً لاستخدام أدوات الذكاء الاصطناعي، مثل ChatGPT، لتعزيز قدراتها، إلا أن الشركة المنتجة لبرنامج الدردشة ذائع الشهرة لا تزال صامتة عن الأسئلة المرتبطة بذلك.
تقدم شركة OpenAI- عملاقة البحث والتطوير في مجال الذكاء الاصطناعي، والتي تبلغ قيمتها السوقية قرابة 30 مليار دولار، والمنتجة لتطبيق ChatGPT- قائمة عامة بالخطوط الأخلاقية التي لن تتجاوزها، والصفقات التجارية التي لن تعقدها مهما كانت مربحة، ما دام أنها قد تضر بالناس.
ومن بين هذه المحظورات، قالت شركة OpenAI إنها بادرت باستبعاد أي استخدام لمبتكراتها في التطبيقات العسكرية وغيرها من التطبيقات الحكومية "عالية الخطورة".
وفي هذا السياق، بدا أن الشركة تحذو حذو منافسيها، جوجل ومايكروسوفت، في الحرص على الترويج لتمسُّكها بالقيم السامية، ولكنها- مثلهم أيضاً- غير راغبة في مناقشة مضمون هذه القيم المزعومة ولا مقتضيات ممارستها بجدية، وكيف- أو حتى إن كانت- ستُنفذ حقاً.
تحدَّث موقع The Intercept الأمريكي إلى خبراء في سياسات الذكاء الاصطناعي، فقالوا إن صمت الشركة عن إجابة هذه الأسئلة يكشف عن الضعف المتأصل في تدابير التنظيم الذاتي التي تحتكم إليها شركات الذكاء الاصطناعي، إذ تسمح تلك المعايير الفضفاضة للشركات مثل OpenAI بأن تظهر في صورة الشركة المحكومة بمبادئ أخلاقية لا جدال فيها أمام الجمهور المتخوف من الذكاء الاصطناعي، ومع ذلك فإنها تطوِّر في الوقت نفسه تقنيات بالغة القوة لا يُعرف نطاق تأثيرها بعدُ.
وزارة الدفاع الأمريكية "البنتاغون" / رويترز
وقالت سارة مايرز ويست، المديرة الإدارية لمعهد AI Now ومستشارة الذكاء الاصطناعي السابقة للجنة التجارة الفيدرالية الأمريكية، "الشيء الذي يجب أن نستنبطه من ذلك أنه من الخطأ بمكان أن نترك للشركات أمر مراقبة نفسها".
من جهة أخرى، فإن مسألة ما إذا كانت شركة OpenAI ستسمح بعسكرة تقنيتها أم لن تسمح، لم تعد مجرد مسألة أكاديمية. ففي 8 مارس/آذار، اجتمع أعضاء منظمة "تحالف الاستخبارات والأمن القومي" الأمريكية في شمال ولاية فرجينيا لحضور المؤتمر السنوي للمنظمة حول التقنيات الناشئة.
وحضر المؤتمر ممثلون لشركات خاصة ومسؤولون حكوميون- من البنتاغون ووكالات الاستخبارات خصوصاً- حرصاً منهم على معرفة السبل التي يمكن للأجهزة الأمنية الأمريكية أن تنضم بها إلى الشركات في جميع أنحاء العالم في تبني تقنيات التعلم الآلي بسرعة.
وقد شهد المؤتمر جلسة أسئلة وأجوبة، سُئل فيها فيليب شودوبا، المدير المساعد لشؤون التقنيات بـ"الوكالة الأمريكية للاستخبارات الجغرافية المكانية"، عن سبل الاستفادة المتوقعة لمؤسسته من الاعتماد على الذكاء الاصطناعي، فأجاب: "نحن جميعاً نتابع ChatGPT عن كثب، ونتطلع إلى التحول الذي ستحدثه هذه التقنية المفيدة والمخيفة في آن واحد. ونتوقع أن تتطور الأمور إلى نوع من التمازج بين كل ما نعرفه عن الاستخبارات الجغرافية المكانية والذكاء الاصطناعي والتعلم الآلي والتحليل القائم على المزج بين الذكاء الاصطناعي والتعلم الآلي، وما يوفره ChatGPT من قدرات على توقع أشياء غفلَ عنها المحلل البشري، ربما بسبب الخبرة، أو التحيز، وما إلى ذلك".
يقصد شودوبا بذلك أن تقنيات الذكاء الاصطناعي يمكن استخدامها لمعالجة مقدار هائل من المعلومات الجغرافية- مثل الخرائط وصور الأقمار الصناعية وبيانات الطقس وما شابه- لإعطاء الجيش ووكالات الاستخبارات صورة دقيقة لما يحدث على الأرض.
الاختلاف بين الواقع و"العلاقات العامة"
الواقع أنه حتى المبادئ الأخلاقية التي يُفترض أنها شديدة الوضوح في قطاع التكنولوجيا، قد تبين في غير مرة أنها ليست إلا دعاية ترويجية ضمن حملات العلاقات العامة لشركات التكنولوجيا، أكثر من كونها سياسة تحرص الشركات على التمسك بها. ومن الأدلة على ذلك أن شركة تويتر- على سبيل المثال- لطالما زعمت أن سياساتها تحظر استخدام التطبيق في التجسس على حسابات المستخدمين، لكن الواقع أنها كانت تسمح للسلطات الأمريكية بحق الوصول الكامل إلى حسابات المستخدمين ورسائلهم الخاصة.
أما شركة جوجل، فتبيع خدمات الذكاء الاصطناعي إلى وزارة الدفاع الإسرائيلية، في الوقت الذي تزعم فيه أن "مبادئ استخدام الذكاء الاصطناعي" المتبعة في تطبيقاتها تحظر بيع الخدمات "التي تسبب أو يحتمل أن تسبب ضرراً عاماً"، و"التي يتعارض غرضها مع مبادئ القانون الدولي وحقوق الإنسان".
كذلك، فإن سياسات الأخلاقيات العامة لشركة مايكروسوفت تدعي "الحرص على اتباع السياسات التي تخفف من آثار التغير المناخي"، ومع ذلك فإنها تساعد شركة "إكسون موبيل" في تحليل بيانات حقول النفط، فضلاً عن أنها تزعم "حرصها على مراعاة الفئات المستضعفة"، ومع ذلك تبيع أدوات المراقبة للشرطة الأمريكية.
أوضحت سوشمان أن إعادة التدريب السريع للنماذج مشكلة لم تُحل حتى الآن. لذا فإن المشكلة المتعلقة بكيفية دمج البيانات، لا سيما في ظل الظروف سريعة التغير واضطرابات القتال الحربي على سبيل المثال، تبدو مشكلة كبيرة. ويزيد على ذلك مشكلات التنميط، وآفة الاستهداف القائم على معلومات مضللة تعتمد على البيانات [دون معلومات ميدانية] في المقام الأول، وهو أحد العيوب التي ابتليت بها الاستخبارات العسكرية الأمريكية في الوقت الحالي.
من جهة أخرى، فإن عدم استبعاد شركة OpenAI للتعاون مع الوكالة الأمريكية للاستخبارات الجغرافية المكانية أمرٌ مفيد للشركة تجارياً. فالصفقات الحكومية، وخاصة المتعلقة بالأمن القومي، مربحة للغاية لشركات التكنولوجيا؛ فقد وقعت شركات أمازون وجوجل ومايكروسوفت و"آي بي إم" و"أوراكل" في عام 2020 عقود تعاون مع وكالة الاستخبارات المركزية الأمريكية بعشرات المليارات من الدولارات؛ وشركة مايكروسوفت- التي استثمرت 13 مليار دولار في OpenAI وتعمل على دمج قدرات التعلم الآلي في محركها البحثي- كسبت عشرات المليارات من العقود العسكرية والاستخباراتية.
كان "ChatGPT" أو روبوت الدردشة القائم على الذكاء الاصطناعي، الذي تصنعه شركة "أوبن أيه آي"، في كاليفورنيا، قد أثار عاصفة من الجدل هذا العام، تبعتها تحذيرات خطيرة من جانب مشاهير ومتخصصين في مجال التكنولوجيا
في هذا السياق، نشر موقع The Intercept الأمريكي تقريراً يرصد سعي وزارة الدفاع الأمريكية (البنتاغون) لتوظيف روبوت الدردشة شات جي بي تي ChatGPT، في تعزيز قدراتها، بالنظر إلى التطور المتسارع والتحول المذهل لمولِّدات النصوص الآلية، من مجرد تصورات خيالية إلى مشروعات واقعية، ثم إلى أدوات حقيقية، ومن ثم صار من المحتوم أن تصل هذه الأدوات بعد ذلك إلى المرحلة التالية: مرحلة استعمالها سلاحاً بين الخصوم.
تقدم شركة OpenAI- عملاقة البحث والتطوير في مجال الذكاء الاصطناعي، والتي تبلغ قيمتها السوقية قرابة 30 مليار دولار، والمنتجة لتطبيق ChatGPT- قائمة عامة بالخطوط الأخلاقية التي لن تتجاوزها، والصفقات التجارية التي لن تعقدها مهما كانت مربحة، ما دام أنها قد تضر بالناس
البنتاغون وتوظيف "شات جي بي تي"
الاختلاف بين الواقع و"العلاقات العامة"
الواقع أنه حتى المبادئ الأخلاقية التي يُفترض أنها شديدة الوضوح في قطاع التكنولوجيا، قد تبين في غير مرة أنها ليست إلا دعاية ترويجية ضمن حملات العلاقات العامة لشركات التكنولوجيا، أكثر من كونها سياسة تحرص الشركات على التمسك بها. ومن الأدلة على ذلك أن شركة تويتر- على سبيل المثال- لطالما زعمت أن سياساتها تحظر استخدام التطبيق في التجسس على حسابات المستخدمين، لكن الواقع أنها كانت تسمح للسلطات الأمريكية بحق الوصول الكامل إلى حسابات المستخدمين ورسائلهم الخاصة.
أما شركة جوجل، فتبيع خدمات الذكاء الاصطناعي إلى وزارة الدفاع الإسرائيلية، في الوقت الذي تزعم فيه أن "مبادئ استخدام الذكاء الاصطناعي" المتبعة في تطبيقاتها تحظر بيع الخدمات "التي تسبب أو يحتمل أن تسبب ضرراً عاماً"، و"التي يتعارض غرضها مع مبادئ القانون الدولي وحقوق الإنسان".
كذلك، فإن سياسات الأخلاقيات العامة لشركة مايكروسوفت تدعي "الحرص على اتباع السياسات التي تخفف من آثار التغير المناخي"، ومع ذلك فإنها تساعد شركة "إكسون موبيل" في تحليل بيانات حقول النفط، فضلاً عن أنها تزعم "حرصها على مراعاة الفئات المستضعفة"، ومع ذلك تبيع أدوات المراقبة للشرطة الأمريكية.