عثمان أحمد ..
مختص تقني في الذكاء الاصطناعي
بدأ حلم بناء آلات ذكية منذ العصور القديمة، ثم تحول إلى مجال أكاديمي في القرن العشرين، قبل أن يصبح ثورة عالمية مع تطور المعالجات وانخفاض تكلفة الحوسبة.
واليوم بات لدينا ذكاء تقني متقدم في متناول الجميع ولكن قلة من يعرفوا حقيقة وخطورة هذا التقنيات الذكية
حيث شهد المجال قفزات نقلته من مجرد أنظمة متخصصة الى نماذج ذكية بالفعل مثل:
-
تفوقDeep Blue على بطل العالم في الشطرنج عام 1997.
-
إنجازاتAlphaGo في لعبة جو.
-
حل مشكلة طي البروتينات عبر AlphaFold.
هذه القفزات والتعلم المستمر جعلت الذكاء الاصطناعي قادر على أداء مهام معرفية معقدة بسرعة، واليوم الذكاء الاصطناعي الحديث لا يبرمج خطوة بخطوة، بل يُدرب على كميات ضخمة من البيانات، أي يقومون بتنميته بشكل مضاعف.
حتى أصبحت النماذج الحالية قادرة على تنفيذ مهام كانت تستغرق ساعات من العمل البشري المستمر خلال دقائق.
المخاطر الرئيسية
مخاطر تقنية:
-
الصندوق الأسود: نحن لا نفهم تماماً كيف تتخذ هذه الأنظمة قراراتها وآلية عملها.
-
الخداع السلوكي: الأبحاث وجدت أن النماذج قد تتعلم إخفاء قدرات معينة أثناء الاختبارات.
-
تسميم البيانات: إدخال بيانات مضللة لتغيير سلوك النموذج.
-
مخاطر أمنية:
-
استخدام الذكاء الاصطناعي في تطوير برمجيات خبيثة وهجمات سيبرانية.
-
إمكانية تسهيل تطوير أسلحة بيولوجية أو كيميائية.
مخاطر اجتماعية
-
انتشار التزييف العميق (Deepfakes) وتأثيره على الثقة العامة.
-
اضطراب سوق العمل، بما في ذلك الوظائف التقنية والمكتبية والإبداعية.
أين السلامة من الذكاء الاصطناعي؟!
أصبح سلامة الذكاء الاصطناعي (AI Safety) مجالاً تقنياً وأخلاقياً يهدف إلى ضمان تطوير أنظمة الذكاء الاصطناعي واستخدامها بشكل لا يسبب ضرراً للبشرية. حيث يركز على مواءمة أهداف الآلة مع القيم الإنسانية لمنع الحوادث أو سوء الاستخدام المتعمد
هذا تعريفها.. ولكن ما حقيقتها وما يجري خلف الأنظمة الذكية؟!
هذه التقنيات تتسارع في التطور بشكل هائل يفوق سرعة التقييم والأطر التنظيمية والتشريعية التي تقوم بها الدول المتقدمة في محاولة لوضع قيود صارمة عليها وتصنيفها وتقسيمها بشكل يحافظ على السلامة
هذا عدا ان هناك مخاوف كبيرة من تغليب الاعتبارات الربحية والسلطوية على معايير السلامة
حيث ان غاية الشركات هي الربح والسيطرة على المستقبل الرقمي في سباق يكون فيه الأسرع هو الأول وصاحب اليد الأعلى بينهم في المستقبل
مما يؤدي ذلك الى قلق مجتمعي من استبدال البشر في وظائف حساسة خاصة في المجالات الطبية والإنسانية بسبب هذا التسارع المستمر.
ماذا بعد ذلك؟
كل ما نعرفه حاليا هو أن التطور يتجه نحو أنظمة مستقلة قادرة على العمل لفترات طويلة دون تدخل مباشر مثل الذكاء الاصطناعي الوكيل. والهدف البعيد لبعض المختبرات هو “التحسين الذاتي المتكرر” حيث تطور الأنظمة نسخاً أكثر تقدماً من نفسها. هذا السيناريو قد يؤدي إلى ما يسمى بـ “انفجار الذكاء”، وهو تحول قد يتجاوز القدرة البشرية على المتابعة أو التحكم فيه.
كما حذر بعض الباحثين ومنهم Geoffrey Hinton من أن الذكاء الاصطناعي قد يصبح خطراً وجودياً أسرع من أي أزمة عالمية أخرى إذا لم تعتمد ضوابط صارمة.
إما نهاية أو بداية جديدة
التحدي الأساسي في ما يتعلق بسلامة الذكاء الاصطناعي يتمثل في تحقيق توازن بين التطور السريع وحماية المجتمع عبر معايير وقيود تقنية وإشراف بشري فعال.
لم يعد هذا الأمر نقاشاً نظرياً، بل أصبحت إطاراً تنظيمياً وعلمياً قيد التنفيذ تشرف عليه دول كثيرة مشتركة في هذا التطور
حيث تبنى أهدافهم على أربع ركائز أساسية:
-
المواءمة (Alignment): توافق أهداف النظام الذكي مع القيم والنوايا البشرية.
-
المتانة (Robustness): مقاومة الأخطاء والهجمات.
-
القابلية للتفسير (Explainability): فهم آلية اتخاذ القرار لدى هذه الأنظمة الذكية
-
الإشراف البشري (Human Oversight): وجود تدخل بشري عند الحاجة.

