عناوين و أخبار

 

المواضيع الأكثر قراءة

 
 
 
  • تاريخ النشر
    12-Feb-2026

"منصات التواصل": هل تتنافى مشاركة صور الأطفال مع حمايتهم قانونيا ونفسيا؟

 ما علاقة أدوات الذكاء الاصطناعي باستغلال الأطفال رقميا؟

الغد-إسلام البدارنة
 في جلسة نسائية عادية، كانت الأحاديث تدور حول آخر "ترندات" الذكاء الاصطناعي، حين قررت مجموعة من الأمهات تجربة أحد التطبيقات التي تحول صور الأطفال إلى مشاهد افتراضية بملابس المدرسة.
 
 
 
بدت الفكرة في البداية مسلّية وبريئة، صور جميلة تولد بضغطة زر، وابتسامات افتراضية تشبه أبناءهن، لكن تلك اللحظة الخفيفة انكسرت بسؤال ثقيل طرحته إحدى الأمهات فجأة: "طيب.. هل الذكاء الاصطناعي بخزّن صور أولادنا؟ وبيرجع يستخدمها بعدين؟". 
 
 
ساد الصمت لثوان، وتحول التفاعل من الضحك إلى القلق، فلم يعد الأمر مجرد تطبيق للتسلية، بل احتمال أن تكون تلك الصور قد غادرت حدود الهاتف إلى خوادم بعيدة، حيث لا تعرف الأمهات كيف ستُستخدم، ولا إلى متى ستبقى.
 
 
بدافع هذا القلق، بحثت إحدى الأمهات عن إجابة، لتصطدم بدراسة نشرتها منظمة "هيومن رايتس ووتش"، كشفت أن صوراً شخصية لأطفال برازيليين استُخدمت في تدريب أدوات ذكاء اصطناعي متقدمة، بعدما جُمعت من الإنترنت ضمن قاعدة بيانات ضخمة تعرف باسم LAION-5B. 
 
 
أفاد تحليل المنظمة بأن القاعدة تتضمن صوراً يمكن التعرف من خلالها على هويات أطفال، بعضها مرفق بأسمائهم أو بمعلومات عن مكان وزمان التقاط الصور، ورغم أن المراجعة شملت نسبة ضئيلة جداً من مليارات الصور الموجودة في القاعدة، فإن النتائج تشير إلى أن العدد الفعلي لصور الأطفال قد يكون أكبر بكثير. 
وتحذر المنظمة من أن هذه الصور لا تُستخدم بوصفها مجرد مواد أرشيفية، بل تغذي أنظمة قادرة على إعادة إنتاج الصور أو إنشاء نسخ مزيفة شديدة الإقناع اعتماداً على صورة واحدة فقط، وقد استُخدمت هذه التقنيات بالفعل لإنتاج مواد "ديب فيك" جنسية لأطفال، ما أدى إلى حالات تحرش وابتزاز.
ذلك الأمر دفع المنظمة إلى الدعوة لتشديد قوانين حماية البيانات، وحظر استخدام صور الأطفال في أنظمة الذكاء الاصطناعي من دون موافقة، وتوفير آليات إنصاف للضحايا، وهو ما أشعل فتيل التساؤلات لتتقاطع فيها الجوانب التقنية والنفسية والحقوقية لهذه القضية الشائكة، فإلى أي حد يمكن السيطرة على هذه التقنيات؟ وكيف ومن يتحمل مسؤولية حماية الأطفال من تبعاتها؟
كيف تلتقط الصور رقميا من دون أن يشعر أحد؟
 
 
 
 
 
  يوضح خبير الأمن السيبراني وأمن تقنيات الذكاء الاصطناعي محمد سهل الحموري، أن الصورة التي تصل إلى أنظمة الذكاء الاصطناعي لا يتم اختيارها بالضرورة لأنها لطفل، بل لأنها جزء من كم هائل من الصور المتاحة على الإنترنت.
ويشير إلى أن الخوارزميات تقوم بجمع الصور من مصادر عديدة، منها منصات التواصل الاجتماعي، مواقع الأخبار، الصفحات الشخصية، والمدونات، من دون تمييز واضح بين فئات عمرية أو تحقق من وجود موافقة على استخدام الصورة.
 
 
وبذلكـ فإن الصورة، في نظر النظام التقني، ليست "طفلاً" أو "بالغاً"، بل مجموعة بيانات رقمية لها أبعاد وجه، تفاصيل ملامح، وأنماط لونية، إضافة إلى بيانات وصفية قد تتضمن موقع التصوير، تاريخ الالتقاط، ونوع الجهاز المستخدم.
 
 
ويؤكد الحموري أن المشكلة الأساسية تبدأ من الاستهتار في النشر، حيث تتاح الصور للعامة عبر إعدادات خصوصية ضعيفة أو عبر شروط استخدام تسمح للشركات بجمع البيانات واستخدامها في التدريب من دون موافقة صريحة،
 
وبالتالي يخلق ذلك بيئة مثالية لأنظمة الذكاء الاصطناعي كي تتعلم من صور الأطفال من دون قصد مباشر، لكن بنتائج قد تكون خطيرة على المدى الطويل.
ويحذر من أن الصورة الرقمية لا تختفي مع الزمن، بل تتحول إلى "بصمة رقمية" دائمة، فالطفل يكبر، لكن بياناته تظل مخزنة، وقد تُستخدم بعد سنوات في إنتاج محتوى مزيف أو غير لائق، حتى لو كانت الصورة الأصلية عادية تماماً، مضيفاً أن المخاطر لا تتوقف عند حدود الاستخدام غير الأخلاقي، بل تمتد إلى احتمال تسريب الصور أو اختراق الخوادم التي تُخزن عليها بيانات أنظمة الذكاء الاصطناعي التوليدي. وفي هذه الحالة، قد تُستخدم الصور في انتحال الشخصية أو الابتزاز أو التلاعب بالهوية الرقمية، وهو خطر أكبر لأن الصورة، على عكس كلمات المرور، لا يمكن تغييرها أو استبدالها.
 
 
 
 
 
 
الحموري يشير إلى أن من أخطر السيناريوهات، استخدام صور الأطفال في عمليات الهندسة الاجتماعية، حيث يتم التلاعب بالصورة أو توليد نسخة مزيفة منها لابتزاز الأهل مالياً، أو التهديد بنشرها للإضرار بسمعة العائلة. 
مسؤولية التبليغ.. الحلقة الأضعف
من جانبها، ترى الصحفية والخبيرة في مجال حماية الطفل نادين النمري، أن رصد استغلال صور الأطفال رقمياً هو مسؤولية الجهات الأمنية بالدرجة الأولى، مثل إدارة حماية الأسرة ووحدات حماية الأطفال المستغلين عبر الإنترنت، والتي تمتلك أنظمة قوية لرصد هذه الممارسات.
 
 
لكنها تشير إلى أن المشكلة الكبرى لا تكمن في غياب الأنظمة، بل في ضعف التبليغ، فكثير من الأسر، بحسب النمري، لا تدرك أهمية الإبلاغ عن الانتهاكات الرقمية، أو تتردد بسبب الخوف من الوصمة أو من تعقيدات الإجراءات، مؤكدة أن دور المجتمع المدني والمنظمات يكمن في الإحالة والتوعية، ورفع مستوى الوعي لدى الأهالي والأطفال حول أهمية الإبلاغ، مع ضمان السرية التامة في التعامل مع هذه القضايا، حتى لا يتحول الخوف إلى عائق أمام حماية الطفل.
وتتطرق النمري إلى النقاش الدائر حول فرض قيود عمرية على استخدام وسائل التواصل الاجتماعي الذي طُرح كمقترح نيابي لتنظيم استخدام مواقع التواصل لمن دون 16 عاما في الأردن، مشيرة إلى أن الموضوع ما يزال محل جدل، لكنه يرتبط بحقيقة أساسية، وهي أن وصول الأطفال إلى هذه المنصات يجب أن يكون مناسباً لأعمارهم، حتى لا يتعرضوا لمحتوى مسيء أو لمحاولات استغلال.
وحول السلامة الرقمية، شددت النمري على أنها ليست مسؤولية الأسرة وحدها، بل مشتركة مع القطاع الخاص، إذ يتحمل مزودو خدمات الإنترنت والتطبيقات دوراً كبيراً في توفير بيئة رقمية آمنة للأطفال، ويجب أن تكون هناك تبعات قانونية واضحة في حال الإخلال بهذه المسؤولية. 
مظلة قانونية.. من الاتفاقيات الدولية إلى التشريعات المحلية
من الناحية القانونية، تشرح الدكتورة نهلا المومني، مفوض الحماية بالوكالة في المركز الوطني لحقوق الإنسان، أن حماية خصوصية الأطفال في مواجهة الذكاء الاصطناعي تقوم على مستويين: دولي ووطني.
 
 
فعلى المستوى الدولي، تلزم الاتفاقيات الحقوقية الدول بحماية الحق في الحياة الخاصة، كما هو منصوص عليه في العهد الدولي الخاص بالحقوق المدنية والسياسية، وهي حماية تشمل جميع الوسائل التي قد تُستخدم لانتهاك الخصوصية، بما في ذلك أدوات الذكاء الاصطناعي.
 
 
أما اتفاقية حقوق الطفل، فتنص بوضوح على حق الطفل في الخصوصية، وتُلزم الدول باتخاذ الإجراءات اللازمة لحمايته، وتؤسس لمبدأ عام يحكم كل ما يتعلق بشؤون الطفل، وهو مبدأ مصلحة الطفل الفضلى.
وعلى المستوى الوطني، تشير المومني إلى وجود تشريعات عدة تحمي خصوصية الأفراد، بما في ذلك الأطفال، مثل قانون الجرائم الإلكترونية الذي يجرّم الاعتداء على الحياة الخاصة باستخدام الوسائل التقنية، وقانون العقوبات الذي يعتبر انتهاك الخصوصية جريمة.
وأضافت أن قانون حماية البيانات الشخصية يفرض قيوداً على جمع البيانات ومعالجتها، ويشترط الحصول على موافقة الشخص، أو وليه في حالة الطفل، وإلا اعتُبر ذلك جريمة يعاقب عليها القانون.
وأوضحت أن اعتبار هذه الأفعال جرائم يمنح ذوي الطفل حق المطالبة بالتعويض، وإلزام الشركات بإزالة الصور التي تشكل انتهاكاً، كما يفرض على الشركات التزامات واضحة، منها عدم استخدام البيانات من دون موافقة، وإعلام المستخدمين بسياسات الخصوصية، وتوفير معايير أمنية تمنع التسريب أو الاختراق. إلى ذلك، توصي المومني بتبني قانون خاص بالذكاء الاصطناعي يضمن حماية شاملة للفئات كافة، بما فيها الأطفال، إلى جانب مواثيق أخلاقية وخطط تنفيذية، وتعديل التشريعات القائمة لضمان حماية متكاملة لحياة الأطفال الخاصة في مواجهة التطور التقني. 
أثر يتسلل إلى أعماق الطفل
لكن أخطر ما في القضية، بحسب خبيرة علم الاجتماع فاديا إبراهيم، لا يظهر في الخوادم أو النصوص القانونية، بل في داخل الطفل نفسه، فشعور الطفل بالأمان يتأسس على الإحساس بالحماية والسيطرة على الذات، وعندما يدرك، بشكل واعٍ أو غير واعٍ، أن صورته أو هويته الرقمية خرجت عن حدود السيطرة الأسرية، يتسلل إلى بنيته النفسية شعور بالتهديد غير المرئي.
هذا الشعور، كما تقول، يولد خوفاً دائماً بلا مصدر واضح، ويخلق إحساساً بفقدان السيطرة على الجسد والهوية، وكأن الذات لم تعد ملكاً لصاحبها، بل مادة يمكن للآخرين استخدامها والتلاعب بها. ومع تكرار هذا الإحساس، تتشوه صورة الطفل عن نفسه، ويضعف شعوره بالقيمة الشخصية، ويتحول الأمان الداخلي إلى حالة هشة.
 
 
ولا يظهر الأثر دائماً في شكل ردود فعل مباشرة، بل يتسرب إلى السلوك اليومي: توتر دائم، اضطرابات نوم، خوف من الكاميرات، رفض التصوير، قلق اجتماعي، أو أعراض جسدية ذات منشأ نفسي، وقد يتجسد ذلك في العزلة، أو التعلق المرضي بالوالدين، أو السلوك العدواني كوسيلة دفاعية لاستعادة الشعور بالأمان. 
 
 
اجتماعياً، يشكل هذا النوع من الانتهاك ضربة لركيزة أساسية في النمو النفسي، وهي الثقة بالآخرين، فالطفل يتعلم مبكراً أن العالم قد لا يكون مكاناً آمناً، وأن الآخرين، سواء كانوا أفراداً أو أنظمة، قادرون على اختراق حدوده من دون إذنه.
 
 
وفي المجتمعات التي تعطي وزناً كبيراً للصورة الاجتماعية، يمتد الضرر إلى الأسرة بأكملها، عبر القلق من الوصم والضغط المجتمعي، ما يخلق مناخاً نفسياً مشحوناً يضاعف من آثار الصدمة على الطفل.
وتخلص إبراهيم إلى أن استغلال صور الأطفال في الذكاء الاصطناعي ليس قضية تقنية معزولة، بل قضية نفسية واجتماعية وأخلاقية تمس جوهر مفهوم الطفولة الآمنة، لأن الهوية الرقمية أصبحت امتداداً مباشراً للذات.