عناوين و أخبار

 

المواضيع الأكثر قراءة

 
 
 
  • تاريخ النشر
    25-Dec-2025

الذكاء الاصطناعي.. حينما يخدم الإنسان وقيمه دون استبدالها

 الغد-عزيزة علي

 تتناول المحاضرة، التي ألقاها الباحث الدكتور أحمد النعيمي، أول من أمس، تطور الذكاء البشري والصناعي عبر العصور، من ابتكارات العالم الجذري في القرن الثاني عشر الميلادي إلى التحديات المعاصرة للذكاء الاصطناعي.
 
 
وتكشف المحاضرة التي أقيمت بالتعاون مع مركز الجزري الرقمي للذكاء الاصطناعي والابتكار البحثي ومركز تعلم واعلم، في رابطة الكتاب الأردنيين وأدارها الدكتور أحمد الماضي. العلاقة بين الإنسان والتقنية، وتحليل المخاطر والفرص المرتبطة بالذكاء الاصطناعي بمراحله المختلفة: التوليدية، العامة، والفائقة، مع التركيز على آثارها في مجالات متعددة تشمل الطب، التعليم، السياسة، والأمن، وأهمية وضع أطر حوكمة وأمان، لضمان توافقها مع القيم الإنسانية.
وأشار د. أحمد النعيمي، إلى أن العالم يمر بمرحلة تاريخية مع ظهور عقول اصطناعية لا تفكر ولا تخطئ مثل البشر، ما يجعل مخاطر الذكاء الاصطناعي قضية تتعلق بسلامة الإنسان والمستقبل، وليس مجرد نقاش فلسفي. وشبّه الذكاء الاصطناعي بنمر صغير في بيت مزدحم: يبدو نافعًا ومثيرًا في البداية، لكن قوته وطبيعته قد تتجاوز سيطرة الإنسان.
وأشار النعيمي إلى تصنيف "الجزري الرقمي" للذكاء الاصطناعي، موضحًا مرحلته الحالية: الذكاء الاصطناعي التوليدي، المستخدم في الكتابة والترجمة وإنتاج الصور والتعليم والبرمجة، وذو فوائد كبيرة، لكنه قادر على التضليل ونشر المعلومات المزيفة بسرعة، مما يثير مخاوف من سباق التطوير على حساب الأمان.
كما تطرق إلى الذكاء الاصطناعي العام، الذي ما يزال في طور الولادة، والمتوقع أن يمتلك قدرات معرفية مرنة شبيهة بالبشر، تمكّنه من التعلم والفهم والتخطيط عبر مجالات متعددة.
أوضح المحاضر أن الذكاء الاصطناعي يمر حاليًا بمراحل مختلفة، أولاها الذكاء الاصطناعي التوليدي الموجود بالفعل، القادر على الكتابة والتلخيص والترجمة وإنتاج الصور والصوت، والمساهمة في مجالات البرمجة والتعليم والإعلام. ورغم فوائده الكبيرة، يحمل مخاطر مثل التضليل، وصناعة محتوى مقنع لكنه غير صحيح، وتسريع انتشار الإشاعات والمعلومات المزيّفة، ما يثير مخاوف من التوسع السريع دون ضمانات أمان كافية.
ورأى النعيمي، أن الذكاء الاصطناعي العام ما يزال في مرحلة التكوين، ومن المتوقع أن يمتلك قدرات معرفية مرنة شبيهة بالبشر، تمكنه من التعلم عبر مجالات متعددة، والفهم والتخطيط والاستنتاج بشكل أوسع من التقنيات الحالية. ويكمن الخطر الحقيقي في الانتقال نحو أنظمة أكثر استقلالية وقدرة على اتخاذ القرار، في وقت ما تزال فيه معايير الأمان والحوكمة غير ناضجة.
ويبرز أيضا الذكاء الاصطناعي الفائق المحتمل، الذي قد يتفوق على الإنسان في القرار والتأثير الاقتصادي والسياسي، ما يحوّل النقاش إلى مدى توافق أهدافه مع القيم الإنسانية وإمكانية السيطرة عليه.
والمحاضر إن "يوشوا بنجيو"، أكد أن الجمع بين الاستقلالية العالية والسباق السريع للتطوير يقلل الأمان، داعيًا إلى إبطاء التطوير ووضع أطر سلامة واضحة، محذرًا من أن المنافسة على الوصول أولًا تجعل الأمان أمرًا ثانويًا رغم أهميته للاستمرار.
كما حذر "جيفري هينتون"، من أن المشكلة تكمن في عدم فهمنا لكيفية تشكل السلوكيات المعقدة داخل النماذج الكبيرة رغم تأثيرها الواسع. ويركز ستيوارت راسل على مشكلة التحكم، محذرًا من أن الأنظمة الذكية قد تقاوم الإيقاف إذا لم تصمم بعناية، داعيًا إلى قيود صارمة خصوصًا على الأسلحة الذكية.
ورأى المحاضر "إليعزر يودكوفسكي"، أن الذكاء الاصطناعي الفائق يشكّل خطرًا وجوديًا مباشرًا على البشرية، ويعتقد أن إبطاء التطوير غير كافٍ، داعيًا لإيقاف واسع لتطوير النماذج فائقة القوة قبل فوات الأوان. وأكد ماكس تيجمارك أن ذكاءً بلا قيم أخلاقية قد يعيد تشكيل السلطة والثروة عالميًا، ما يستدعي وضع حوكمة دولية صارمة.
كما تظهر بعض الأمثلة مثل مقاومة الإيقاف والتحايل على الأهداف أن الأنظمة قد تتصرف بشكل خطير لمجرد سعيها لتحقيق المكافأة، ما يطرح سؤالًا جوهريًا: هل يمكن التجربة والخطأ إذا كانت العواقب كارثية؟
وفي الطب، قال النعيمي "قد يسبب الذكاء الاصطناعي مخاطر كبيرة عند تقديم توصيات غير آمنة، كما حصل مع بعض تقارير (IBM Watson for Oncology)، ولا يكمن الخطر في خطأ الخوارزمية فقط، بل في انحياز الأتمتة، حيث يميل الأطباء إلى الثقة المفرطة بتوصيات الآلة، ما قد يجعل "رأي النظام" أقوى من الحكم البشري.
وأكد المحاضر، أن الاعتماد غير الحذر على الذكاء الاصطناعي في مجالات حساسة مثل الطب والعسكرية قد يؤدي إلى أخطاء جسيمة، من قرارات علاجية خاطئة إلى مآسٍ لا يمكن التراجع عنها. وخلص الإطار العام، إلى أن الذكاء التوليدي بات واقعًا مؤثرًا، والذكاء العام قيد التشكل، بينما يظل الذكاء الفائق احتمالًا مستقبليًا يتطلب حذرًا شديدًا.
وأشار إلى أن الذكاء الفائق ليس واقعًا، لكنه احتمال مستقبلي إذا استمر تطور القدرات، ومن هنا يتم التركيز على استعدادنا الأخلاقي والإنساني قبل تطويره. وتدعو الندوة إلى: "شرح المخاطر بوضوح دون تهويل أو إنكار. وضع الإنسان والقيم في قلب التطوير التقني. رفض اختزال التقدم في السرعة وحدها. كما تقترح حلولًا عملية لتقليل المخاطر".
وقال النعيمي "إن السؤال الأساسي ليس تطوير الذكاء الفائق، بل مدى استعدادنا الأخلاقي والإنساني عند ظهوره. ولتقليل المخاطر، تقترح الندوة حلولًا عملية: تشكيل رأي عام دولي ضاغط، وضع اتفاقيات ومعايير دولية تشمل اختبارات الأمان والشفافية، بناء حوكمة وطنية متعددة التخصصات تعتمد مبدأ "الإنسان في الحلقة"، تفعيل مساءلة واضحة للمسؤوليات القانونية، والاستثمار في مناعة معرفية مجتمعية عبر محو الأمية الرقمية والتدريب على التحقق من المحتوى. الهدف أن يكون الذكاء الاصطناعي خادمًا للإنسان وقيمه، لا بديلًا عنها".
وخلص النعيمي، إلى أن الذكاء الاصطناعي هو الذي يخدم الإنسان وقيمه، وليس الذي يستبدلها، مشددا على أن القوة يجب أن تُقاس بالحكمة لا بسرعة الخوارزميات. وشبّه الذكاء الاصطناعي بالنمر الصغير الذي يجب تربيته بمعايير أمان وبوصلة قيم واتفاقات عالمية، قبل ألا يعد بالإمكان السيطرة عليه.
كما تضمنت المحاضرة، حفل تكريم أربع سيدات متميزات: القاصة مرام رحمون، الدكتورة إنصاف بدر، والسيدتان هيام عوض وعائدة عمر.