عناوين و أخبار

 

المواضيع الأكثر قراءة

 
 
 
  • تاريخ النشر
    30-Jan-2026

باحثون: نماذج الذكاء الاصطناعي المفتوحة عرضة للجريمة

 الغد

حذّر باحثون، الخميس، من أن قراصنة ومجرمين آخرين يمكنهم بسهولة السيطرة على أجهزة تشغّل نماذج لغوية كبيرة مفتوحة المصدر تعمل خارج الضوابط والحواجز الأمنية التي تفرضها منصات الذكاء الاصطناعي الكبرى، ما يخلق مخاطر وثغرات أمنية كبيرة.
 
 
 
وقال الباحثون إن القراصنة يستطيعون استهداف هذه الأجهزة وتوجيه النماذج لتنفيذ عمليات إرسال رسائل مزعجة (سبام)، أو إنشاء محتوى تصيّد احتيالي، أو إطلاق حملات تضليل إعلامي، مع تجاوز بروتوكولات الأمان المعتمدة لدى المنصات الكبرى.
 
 
وأُجري البحث بشكل مشترك بين شركتي الأمن السيبراني SentinelOne وCensys على مدى 293 يوماً، وشاركته الشركتان حصرياً مع وكالة رويترز. ويقدّم البحث صورة جديدة عن حجم الاستخدامات غير المشروعة المحتملة لآلاف عمليات نشر النماذج اللغوية مفتوحة المصدر، والتي تشمل، بحسب الباحثين، القرصنة، وخطاب الكراهية والتحرش، والمحتوى العنيف أو الدموي، وسرقة البيانات الشخصية، وعمليات الاحتيال، وفي بعض الحالات مواد تتعلق بالاستغلال الجنسي للأطفال.
 
 
وأوضح الباحثون أنه رغم وجود آلاف النسخ المختلفة من النماذج اللغوية مفتوحة المصدر، فإن جزءاً كبيراً من النماذج العاملة على خوادم متصلة بالإنترنت يعتمد على نماذج مثل Llama التابعة لشركة ميتا، وGemma من Google DeepMind، ونماذج أخرى. وأضافوا أن بعض هذه النماذج يتضمن ضوابط أمان، إلا أنهم رصدوا مئات الحالات التي أُزيلت فيها هذه الضوابط بشكل متعمّد.
 
 
وقال خوان أندريس غيريرو-سادِه، المدير التنفيذي لأبحاث الاستخبارات والأمن في SentinelOne، إن النقاشات الدائرة في قطاع الذكاء الاصطناعي حول ضوابط الأمان «تتجاهل هذا النوع من الفائض في القدرات، الذي يُستخدم بوضوح في أنشطة مختلفة، بعضها مشروع، وبعضها إجرامي بشكل واضح». وشبّه الوضع بـ«جبل جليد» لا يتم أخذه بالحسبان بشكل كافٍ على مستوى القطاع ومجتمع المصادر المفتوحة.
 
 
وحلّل البحث عمليات نشر علنية لنماذج لغوية مفتوحة المصدر جرى تشغيلها عبر أداة Ollama، التي تتيح للأفراد والمؤسسات تشغيل نسخهم الخاصة من نماذج لغوية مختلفة.
 
 
وتمكّن الباحثون من الاطلاع على «الأوامر النظامية» — وهي التعليمات التي تحدد سلوك النموذج — في نحو ربع النماذج التي جرى رصدها. وخلصوا إلى أن 7.5% من هذه الحالات قد تتيح أنشطة ضارة محتملة.
 
 
وأشار البحث إلى أن نحو 30% من الخوادم التي تم رصدها تعمل من داخل الصين، وحوالي 20% من الولايات المتحدة.
 
 
وقالت رايتشل آدامز، الرئيسة التنفيذية ومؤسسة «المركز العالمي لحوكمة الذكاء الاصطناعي»، في رسالة عبر البريد الإلكتروني، إن مسؤولية ما يحدث بعد إطلاق النماذج المفتوحة تصبح مشتركة عبر المنظومة بأكملها، بما في ذلك الجهات المطوِّرة الأصلية.
 
 
وأضافت: «المختبرات ليست مسؤولة عن كل إساءة استخدام لاحقة (التي يصعب التنبؤ بها)، لكنها تتحمّل واجب عناية مهم يتمثل في توقّع الأضرار المحتملة، وتوثيق المخاطر، وتوفير أدوات وإرشادات للتخفيف منها، خصوصاً في ظل تفاوت قدرات إنفاذ القوانين عالمياً».
 
 
وامتنع متحدث باسم ميتا عن التعليق على أسئلة تتعلق بمسؤوليات المطوّرين في معالجة مخاوف إساءة استخدام النماذج المفتوحة المصدر، أو آليات الإبلاغ عن هذه المخاوف، لكنه أشار إلى أدوات Llama Protection ودليل الاستخدام المسؤول الخاص بـMeta Llama.
 
 
من جانبه، قال رام شانكار سيفا كومار، قائد فريق «القبعة الحمراء» للذكاء الاصطناعي في مايكروسوفت، في رسالة إلكترونية، إن شركة مايكروسوفت ترى أن النماذج مفتوحة المصدر «تلعب دوراً مهماً» في مجالات متعددة، لكنها في الوقت نفسه «تدرك بوضوح أن النماذج المفتوحة، مثلها مثل أي تقنية تحويلية، يمكن إساءة استخدامها من قبل جهات معادية إذا أُطلقت من دون ضمانات مناسبة».
 
 
وأضاف أن مايكروسوفت تجري تقييمات قبل الإطلاق، تشمل عمليات لتقدير «مخاطر السيناريوهات المعرضة للإنترنت، والتشغيل الذاتي، واستخدام الأدوات، حيث تكون احتمالات سوء الاستخدام مرتفعة»، كما تراقب الشركة التهديدات الناشئة وأنماط الإساءة. وقال: «في النهاية، يتطلب الابتكار المفتوح المسؤول التزاماً مشتركاً من المطوّرين، والمشغّلين، والباحثين، وفرق الأمن».
 
 
ولم ترد شركة Ollama على طلب للتعليق، كما لم ترد غوغل التابعة لألفابت ولا شركة Anthropic على أسئلة رويترز.