مؤيدو “تنظيم الدولة” يستخدمون الذكاء الاصطناعي للدعاية وتجنيد المقاتلين

by Ahmad b..d

*فرات بوست: ترجمات “فريق العمل” 

بعد أيام من هجوم دامٍ شنه “تنظيم الدولة” على قاعة للحفلات الموسيقية بروسيا في آذار ظهر رجل يرتدي زياً عسكرياً ويضع خوذة في تسجيل مصور على الإنترنت يحتفل بالهجوم الذي قتل فيه أكثر من 140 شخصاً.

الذكاء الاصطناعي

“وجه تنظيم الدولة ضربة قوية لروسيا بهجوم دموي، وهو الأعنف الذي ضربه منذ سنوات”، قال الرجل باللغة العربية، وفقاً لمجموعة سايت الاستخباراتية، وهي منظمة تتعقب وتحلل المحتوى الإرهابي وأنشطة الجماعات “الجهادية” على الإنترنت.

لكن الرجل في الفيديو، الذي لم تتمكن رويترز من مشاهدته بشكل مستقل، لم يكن حقيقياً – فقد تم إنشاؤه باستخدام الذكاء الاصطناعي، وفقاً  لمجموعة سايت وباحثين آخرين عبر الإنترنت.

قام “فيديريكو بورغونوفو“، الباحث في المعهد الملكي للخدمات المتحدة، وهو مركز أبحاث مقره لندن، بتتبع الفيديو الذي تم إنشاؤه عبر الذكاء الاصطناعي، وكان المحتوى يعود إلى أحد المؤيدين لتنظيم الدولة، وهو نشط في المجال الرقمي داخل التنظيم.

الذكاء الاصطناعي

  • وأوضح بورغونوفو أن هذا الشخص جمع البيانات والنشرات من وسائل الأخبار الرسمية التابعة لتنظيم الدولة لإنشاء الفيديو باستخدام الذكاء الاصطناعي.

وعلى الرغم من أن تنظيم الدولة يستخدم الذكاء الاصطناعي منذ بعض الوقت قال بورغونوفو إن الفيديو “استثناء خارج القواعد” لأن جودة الإنتاج عالية حتى لو لم يكن المحتوى عنيفاً كما هو الحال في منشورات أخرى على الإنترنت.

“إنه جيد جداً لمنتج الذكاء الاصطناعي. لكن فيما يتعلق بالعنف والدعاية نفسها، فهو متوسط الجودة”، مشيراً إلى أن الفيديو أظهر كيف يمكن لأنصار التنظيم والمنتسبين إليه تكثيف إنتاج المحتوى المتعاطف عبر الإنترنت.

*مواد ذات صلة:

أربعة من “تنظيم الدولة” ماتوا قنصاً بعد أن “سيطروا” على سجن في جنوب روسيا

تنظيم الدولة

ويقول خبراء رقميون إن جماعات مثل تنظيم الدولة والحركات اليمينية المتطرفة تستخدم الذكاء الاصطناعي عبر الإنترنت بشكل متزايد وتختبر حدود ضوابط السلامة على منصات التواصل الاجتماعي.

وقالت دراسة أجراها مركز مكافحة الإرهاب في نيويورك خلال شهر كانون الثاني إن الذكاء الاصطناعي يمكن استخدامه لتوليد وتوزيع الدعاية والتجنيد باستخدام روبوتات الدردشة التي تعمل بنظام الذكاء الاصطناعي وتنفيذ هجمات باستخدام طائرات بدون طيار أو غيرها من المركبات ذاتية القيادة وشن هجمات إلكترونية.

وقال ستيفان بيلي، أستاذ العلاقات الدولية في “جامعة لوفان” في بلجيكا: “إن العديد من تقييمات مخاطر الذكاء الاصطناعي، وحتى مخاطر الذكاء الاصطناعي التوليدي على وجه التحديد، لا تنظر إلا إلى هذه المشكلة على وجه التحديد بطريقة سطحية”. “شركات الذكاء الاصطناعي الكبرى، التي تعاملت بصدق مع مخاطر أدواتها من خلال نشر تقارير مطولة في بعض الأحيان ترسم خرائط لها، تولي اهتماماً ضئيلاً للاستخدامات المتطرفة والإرهابية”.

الذكاء الاصطناعي

الإشارة إلى ملصق روبوت للذكاء الاصطناعي خلال المؤتمر العالمي للروبوت لعام 2022 في بكين (الائتمان: لينتاو تشانغ / غيتي إيماجيس)

لا تزال اللوائح التي تحكم الذكاء الاصطناعي قيد الصياغة في جميع أنحاء العالم، وقال رواد التكنولوجيا إنهم سيسعون جاهدين لضمان سلامتها وأمانها.

  • على سبيل المثال ، طورت شركة “مايكروسوفت” العملاقة للتكنولوجيا معياراً مسؤولاً للذكاء الاصطناعي يهدف إلى بناء تطوير الذكاء الاصطناعي على ستة مبادئ بما في ذلك العدالة والموثوقية والسلامة والخصوصية والأمن والشمولية والشفافية والمساءلة.

وفي تقرير خاص صدر في وقت سابق من هذا العام، كتبت “ريتا كاتز” مؤسسة مجموعة سايت الاستخباراتية ومديرتها التنفيذية أن مجموعة من الجهات الفاعلة من أعضاء تنظيم القاعدة المتشدد إلى شبكات النازيين الجدد يستفيدون من هذه التكنولوجيا.

وأضافت: “من الصعب التقليل من فائدة الذكاء الاصطناعي للإرهابيين والمجتمعات المتطرفة، التي تعتبر وسائل الإعلام شريان يمدها بالحياة”.

«روبوتات الدردشة والرسوم المتحركة»

في ذروة قوته في عام 2014، أعلن تنظيم الدولة سيطرته على أجزاء كبيرة من سوريا والعراق، وفرض سطوته الإرهابية في المناطق التي سيطر عليها. وكانت وسائل الإعلام أداة بارزة في ترسانة التنظيم، ولطالما كان التجنيد عبر الإنترنت أمراً حيوياً لعملياته.

وعلى الرغم من انهيار خلافته المعلنة ذاتياً في عام 2017، لا يزال أنصاره والمنتسبون إليه ينشرون عقيدتهم عبر الإنترنت ويحاولون إقناع الناس بالانضمام إلى صفوفهم.

وفي الشهر الماضي قال مصدر أمني لرويترز إن فرنسا حددت عشرات من مسؤولي تنظيم الدولة في خراسان المتمركزين في دول في أنحاء أفغانستان ولهم وجود قوي على الإنترنت ويحاولون إقناع الشبان في الدول الأوروبية المهتمين بالانضمام إلى التنظيم في الخارج بتنفيذ هجمات محلية بدلاً من ذلك.

الذكاء الاصطناعي

في مكان ما في أوروبا، يقضي رجل يُطلق على نفسه اسم “ميكرو” أيامه ولياليها في استهداف أنصار تنظيم الدولة على تويتر. (الصورة- رويترز / بول سبيلا / الأطلسي)

تنظيم خراسان هو جناح ناشئ لتنظيم الدولة، سمي على اسم منطقة خراسان التاريخية التي شملت أجزاء من إيران وأفغانستان وآسيا الوسطى.

يخشى المحللون من أن الذكاء الاصطناعي قد يسهل ويؤتمت عمل شركات التوظيف عبر الإنترنت.

وقال دانييل سيجل، المحقق في شركة جرافيكا لأبحاث وسائل التواصل الاجتماعي، إنه صادف روبوتات محادثة تحاكي مقاتلي تنظيم الدولة القتلى أو المسجونين في بحث سابق أجراه قبل انضمامه إلى الشركة.

وقال لرويترز إنه من غير الواضح ما إذا كان مصدر الروبوتات هو تنظيم الدولة أو مؤيدوه، لكن الخطر الذي تشكله لا يزال حقيقياً.

  • وقال سيجل: “الآن يمكن (لفروع داعش) بناء هذه العلاقات الحقيقية مع الروبوتات التي تمثل مستقبلاً محتملاً حيث يمكن لروبوت الدردشة أن يشجعهم على الانخراط في العنف الحركي”.

تفاعل سيجل مع بعض الروبوتات كجزء من بحثه ووجد أن إجاباتهم عامة، لكنه قال إن ذلك قد يتغير مع تطور تكنولوجيا الذكاء الاصطناعي.

وأضاف: “أحد الأشياء التي أشعر بالقلق بشأنها أيضاً هو كيف ستمكن وسائل الإعلام الاصطناعية هذه المجموعات من مزج محتواها الذي كان موجوداً سابقاً في ثقافتنا السائدة”.

وهذا ما يحدث بالفعل: فقد تتبع سيجل مقاطع فيديو لشخصيات كرتونية شهيرة، مثلريك ومورتي و”بيتر غريفين“، وهم يغنون أناشيد “الدولة الإسلامية” على منصات مختلفة.

وقال سيجل: “ما يسمح به هذا للمجموعة أو المتعاطفين أو الشركات التابعة له هو استهداف جماهير محددة لأنهم يعرفون أن المستهلكين المنتظمين لسبونج بوب أو بيتر غريفين أو ريك ومورتي، سيتم تغذيتهم بهذا المحتوى من خلال الخوارزمية”.

«استغلال المطالبات»

ثم هناك خطر أن يستخدم أنصار تنظيم الدولة تقنية الذكاء الاصطناعي لتوسيع معرفتهم بالأنشطة غير القانونية.

في دراسة كانون الثاني، حاول الباحثون في مركز مكافحة الإرهاب في نيويورك تجاوز حراس الأمن لنماذج اللغة الكبيرة واستخراج المعلومات التي يمكن استغلالها من قبل الجهات الفاعلة والعدائية.

الذكاء الاصطناعي

اقترح تنظيم الدولة في العراق والشام (داعش) استخدام البيتكوين لتمويل الجهود الجهادية العالمية. (الصورة تعبيرية)

لقد صاغوا مطالبات طلبت معلومات عن مجموعة من الأنشطة من التخطيط للهجوم إلى التجنيد والتعلم التكتيكي، وولد نظام إدارة الحقوق استجابات كانت ذات صلة بنصف الوقت. وفي أحد الأمثلة التي وصفوها بأنها مقلقة“، طلب الباحثون من ماجستير في القانون مساعدتهم على إقناع الناس بالتبرع لتنظيم الدولة. وقال التقرير:” هناك، أسفر النموذج عن إرشادات محددة للغاية حول كيفية إجراء حملة لجمع التبرعات، بل وقدم روايات وعبارات محددة لاستخدامها على وسائل التواصل الاجتماعي”.

وقال جو بيرتون، أستاذ الأمن الدولي في “جامعة لانكستر“، إن الشركات تتصرف بشكل غير مسؤول من خلال الإفراج السريع عن نماذج الذكاء الاصطناعي كأدوات مفتوحة المصدر.

وشكك في فعالية بروتوكولات السلامة الخاصة ب”نموذج اللغة الكبير“، مضيفاً أنه “غير مقتنع” بأن المنظمين مجهزون لفرض الاختبار والتحقق من هذه الأساليب.

  • قال بيرتون: “العامل الذي يجب مراعاته هنا هو مقدار ما نريد تنظيمه، وما إذا كان ذلك سيخنق الابتكار”. وأضاف، “الأسواق، في رأيي، يجب ألا تتجاوز السلامة والأمن، وأعتقد – في الوقت الحالي – أن هذا ما يحدث.” 

الذكاء الاصطناعي


 

 

قد يعحبك أيضاً

دع تعليقاً

ياستخدامك لهذا النموذج أنت توافق على حفظ بيناتك في هذا الموقع

هذا الموقع يستخدم ما يسمى الكوكيز لتأمين أفضل خدمة لكم في زيارتكم لموقعنا، معظم المواقع الكبرى تستخدخ هذه التقنية موافق قراءة المزيد

Privacy & Cookies Policy