إعداد : سمر ضو –
في ظل النمو غير المسبوق الذي شهدته تقنيات الذكاء الاصطناعي في الآونة الأخيرة، أصبح من الضروري تقييم المخاطر والتحديات المحتملة المرتبطة بالتبني الواسع لهذه التقنيات، نظرًا لما تحمله من مخاطر، بدءًا من فقدان الوظائف وصولًا إلى القلق بشأن الأمن والخصوصية.
ويشير مصطلح “سلامة الذكاء الاصطناعي” إلى الممارسات والمبادئ التي تساعد على ضمان تصميم تقنيات الذكاء الاصطناعي واستخدامها بطريقة تفيد البشرية وتقلل من أي ضرر أو نتائج سلبية محتملة.
ويتضمن تطوير وصيانة الذكاء الاصطناعي الآمن تحديد مخاطره المحتملة (مثل التحيز، وأمن البيانات، والثغرات الأمنية والتهديدات الخارجية). فكلما ازداد تطورها أصبحت أكثر اندماجاً في حياة الناس وفي المجالات الحساسة مثل البنية التحتية والتمويل والأمن القومي.
وأظهر التقرير السنوي للسلامة الدولية للذكاء الاصطناعي 2026 ، الصادر مؤخرا على هامش قمة الذكاء الاصطناعي العالمية، القفزة النوعية في قدرات النماذج مثل GPT-5 من OpenAI، وClaude Opus 4.5 من Anthropic، وGemini 3 من Google، وانتشار التزييف العميق، إضافة إلى تصاعد الرفقة المدعومة بالذكاء الاصطناعي وتأثيرها على الصحة النفسية، ودوره في الهجمات الإلكترونية، وقدرته المتزايدة على تقويض الرقابة.
ويشير التقرير إلى أن القدرات الجديدة للنماذج لم تخلُ من تحديات، حيث لا تزال تواجه مشاكل “الهلوسة” وعدم القدرة على إدارة مشاريع طويلة الأمد بشكل مستقل، في حين أصبح التمييز بين المحتوى الحقيقي والمولّد آلياً أكثر صعوبة.
كما يحذر من الإفراط في الاعتماد العاطفي على الروبوتات الذكية لدى الفئات الهشة، ويؤكد أن قدرات الذكاء الاصطناعي في دعم الهجمات الإلكترونية أو التحايل على الرقابة تتزايد، ما يطرح تحديات أخلاقية وتقنية حقيقية لمستقبل السلامة الرقمية والاجتماعية.
مخاطر الذكاء الاصطناعي
يمكن تقسيم مخاطر الذكاء الاصطناعي إلى عدة محاور مترابطة تتجاوز الجانب التقني البحت. في مقدمتها التحيّز والإنصاف، إذ قد تعكس الأنظمة الذكية تحيّزات البيانات التي دُرّبت عليها، فتُعيد إنتاج أنماط التمييز في التوظيف أو الإقراض أو تقييم المخاطر. كذلك تبرز مخاطر الخصوصية، لأن هذه الأنظمة تعتمد على كميات هائلة من البيانات الشخصية التي قد تُساء إدارتها أو تتعرض للاختراق.
إلى جانب هذه المخاطر التشغيلية، تظهر تحديات أوسع نطاقاً مثل المخاطر الوجودية المرتبطة بالذكاء الاصطناعي، والتي يحذر بعض الباحثين من أنها قد تهدد الاستقرار العالمي إذا أسيء تطويرها أو أُطلقت في سباق تنافسي غير منضبط.
ولمواجهة هذه المخاطر، أصدرت الجهات الدولية توصيات ومبادرات تهدف إلى تعزيز السلامة الرقمية، من أبرزها جهود الاتحاد الدولي للاتصالات التابع للأمم المتحدة، وحث الشركات على استخدام أدوات متطورة للكشف عن المعلومات المضللة ومحتوى التزييف العميق والقضاء عليهما للمساعدة في مواجهة المخاطر المتزايدة للتدخل في الانتخابات والاحتيال المالي.
وقال الاتحاد الدولي للاتصالات في تقرير صدر خلال “قمة الذكاء الاصطناعي من أجل الخير” في جنيف، إن التزييف العميق مثل الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والصوت الذي ينتحل شخصيات حقيقية بشكل مقنع، يشكل مخاطر متزايدة.
ودعا الاتحاد إلى وضع معايير قوية لمكافحة الوسائط المتعددة المتلاعب بها، وأوصى بأن يستخدم موزعو المحتوى مثل منصات التواصل الاجتماعي أدوات التحقق الرقمي للتحقق من صحة الصور ومقاطع الفيديو قبل مشاركتها.
وأكد ليونارد روزنتال من شركة أدوبي، الرائدة في مجال برامج التحرير الرقمي والتي تتصدى لظاهرة التزييف العميق منذ عام 2019، على أهمية تحديد مصدر المحتوى الرقمي لمساعدة المستخدمين على تقييم مدى موثوقيته. وقال “نحن بحاجة إلى المزيد من الأماكن التي يستهلك فيها المستخدمون محتواهم لعرض هذه المعلومات … عندما تتصفح المحتوى الرقمي فأنت تريد أن تعرف: “هل يمكنني الوثوق بهذه الصورة، هذا الفيديو” .
جهود المجتمع الدولي لمكافحة المعلومات المضللة
لتسهيل الانتقال إلى الإطار التنظيمي الجديد، أطلقت المفوضية الأوروبية “ميثاق الذكاء الاصطناعي”، وهي مبادرة طوعية تهدف إلى دعم التنفيذ المستقبلي للقانون. كما أنشأ البرلمان الأوروبي مجموعة عمل للإشراف على تطبيق قواعد الذكاء الاصطناعي، لضمان أن تسهم هذه القواعد في تطوير القطاع الرقمي في أوروبا بشكل مسؤول.
كما شرعت الولايات المتحدة في تنظيم الذكاء الاصطناعي عبر عدة خطوات منها تقديم “مشروع قانون حقوق الذكاء الاصطناعي” من قبل مكتب سياسة العلوم والتكنولوجيا، وإصدار المعهد الوطني للمعايير والتكنولوجيا “إطارًا لإدارة مخاطر الذكاء الاصطناعي”.
رغم أن تطور الذكاء الاصطناعي يفتح آفاقًا واسعة للابتكار وتحسين حياة البشر، إلا أنه يفرض مسؤوليات كبيرة تجاه المجتمع. ومن هنا، يصبح إيجاد التوازن بين التقدم التقني وحماية الأمن والأخلاقيات والمصالح العامة أمرًا ضروريًا. ولا يمكن تحقيق هذا التوازن إلا عبر التعاون الدولي، ووضع أطر تنظيمية واضحة، وتعزيز وعي المستخدمين والمطورين بالمخاطر المحتملة.
