اندبندنت عربية – نيرمين علي
لا يعد نشر الصور الزائفة موضوعاً جديداً على رغم تزايد النقاشات حوله اليوم مع ثورة الذكاء الاصطناعي. فلم يوفر البشر يوماً جهداً في استخدام تقنيات التحرير الرقمي حتى البدائية منها لتعديل الصور رقمياً، سواء بغرض الفن أو التسلية أو التشهير أو الابتزاز، لكن وقتها حصر بشكل أساس في نطاق تزييف صور وفيديوهات المشاهير والشخصيات العامة بعيداً من صور الناس العاديين والأطفال، إذ كان المشاهير هدفاً شائعاً لمنشئي المحتوى الإباحي المزيف للاستفادة من اهتمام الناس بالبحث عن صور فاضحة لهم. لكن ما يحدث اليوم مختلف تماماً من حيث مكان الاستهداف وطبيعته، إضافة إلى الأدوات المستخدمة التي جعلت من عملية تحويل صور الأشخاص العاديين إلى صور عارية أسهل وأسرع وأكثر واقعية.
تعرية الأجساد
فانتشار الذكاء الاصطناعي بين أيدي العامة يغذي اليوم موجة غير مسبوقة من صور ومقاطع فيديو مفبركة، إضافة إلى أنه لم تكن هنالك في وقت سابق وسائل تواصل اجتماعي وصور شخصية تتبدل باستمرار، لتصبح عرضة لعمليات التلاعب من قبل من يستهويهم هذا النوع من السلوكيات المؤذية. إذ انتشرت أخيراً حالات عدة تم التلاعب فيها بصور فتيات قاصرات بأجساد غير جسدهن باستخدام تطبيقات عدة منها “تليغرام”. كما أتاحت اليوم مواقع وتطبيقات خاصة بـ “خلع الملابس”، للمستخدمين تحميل صورة لشخص يرتدي ملابسه بالكامل، ثم يستخدم الذكاء الاصطناعي لإنشاء صورة عارية مزيفة له بكل سهولة وسرعة وبدرجة واقعية عالية. والخطير في الأمر أن تلك المواقع تشهد ارتفاعاً في عدد الزوار، إضافة لوصولها إلى ما يقارب 34 موقعاً إلكترونياً. وتبعاً لبحث أجرته شركة تحليلات وسائل التواصل الاجتماعي “غرافيكا” تجاوز عدد زوار هذا المواقع 24 مليون زائر في شهر سبتمبر (أيلول)، وزاد حجم روابط الإحالة إلى أكثر من 2000 في المئة على منصات مثل Reddit و”إكس” (تويتر سابقاً) منذ بداية 2023.
وبعد انتشار حالات تزوير متكررة أصبح يعتقد اليوم أن هذه التطبيقات خرجت عن نطاق السيطرة، فعلى سبيل المثال تم التداول بصور عارية مزيفة لأكثر من 20 فتاة تتراوح أعمارهن بين 11 و 17 سنة في العديد من المدارس الإسبانية في سبتمبر الماضي، وفقاً لصحيفة “إلبايس” El País الإسبانية. كما فتح مدّعون عامون في أكتوبر (تشرين الأول) الماضي تحقيقاً إثر انتشار عدد كبير من مقاطع الفيديو المفبركة لطلاب في الإكوادور، تم تركيب وجوههم على أجساد عارية، وكذلك قام طالب في مدرسة ثانوية في ولاية نيوجرسي بإنشاء صور إباحية مزيفة لزميلاته. والأكيد أن هذا النوع من الأفعال يمثل انتهاكاً واضحاً وغاية في الخطورة للخصوصية، ويعطي مثالاً على الاستخدام غير القانوني للذكاء الاصطناعي.
السهولة والانتشار
وفي حين يتطور الذكاء الاصطناعي بشكل سريع ومقلق، تنحو هذه التطبيقات لتصبح مع الوقت اتجاهاً سائداً مع تصاعد نموها وشعبيتها. والحقيقة أنه لا يمكننا اعتبار هذا التطور بالجديد، ففي السابق تم تزييف الكثير من الحقائق والتلاعب بالأحداث بواسطة تعديل الصور والمقاطع المصورة، لكن الفرق أنها تمت على أيدي متخصصين وباستخدام برامج معقدة، مع التنويه إلى أنه ليس بإمكان أي متخصص أن يخرج نتيجة شديدة الواقعية، أي لا يكفي تعلم البرنامج بل يحتاج الأمر إلى مهارات فردية خاصة تتعلق بإتقان كيفية إخفاء تفاصيل وإضافة أخرى وتوزيع الطبقات بشكل مدروس لتعطي عمقاً وواقعية.
لكن يتركز مكمن الخطر الأكبر اليوم في نقطتين رئيسيتين، الأولى سهولة استخدام التطبيقات المعتمدة على الذكاء الاصطناعي مع واقعية نتائجها، والثانية هي إتاحتها لأيدي العامة، الأمر الذي من المحتمل أن يشجع مع الوقت، على زيادة حالات التحرش الإلكتروني وصولاً إلى الابتزاز.
هل يمكن منعها؟
لا يوجد حتى اليوم قانون فيدرالي يحكم ما يطلق عليه الـ deepfake porn أو المواد الإباحية المنشأة بواسطة التزييف العميق. ولم يَسن سوى عدد قليل من الولايات لوائح تختص بهذا الأمر، بينما لم يطالب الأمر التنفيذي الذي أصدره الرئيس الأميركي جو بايدن بشأن الذكاء الاصطناعي آخر أكتوبر الفائت، الشركات بتصنيف الصور ومقاطع الفيديو والصوت للإشارة إلى الأعمال التي تم إنشاؤها بواسطة الكمبيوتر. كما يحذر المتخصصون في القانون من أن الصور المزيفة التي تعتمد على الذكاء الاصطناعي قد لا تندرج تحت حماية حقوق النشر بسبب التشابهات الشخصية، لأنها تسحب من مجموعة بيانات مزودة بملايين الصور.
ولكن مع غياب القوانين الفيدرالية، أصدرت تسع ولايات على الأقل، من ضمنها كاليفورنيا وتكساس وفيرجينيا، تشريعات تستهدف التزييف العميق، لكن يختلف نطاق هذه القوانين، إذ يمكن في بعض الولايات للضحايا توجيه اتهامات جنائية، بينما تسمح أخرى فقط برفع دعاوى مدنية.
وكذلك حُكم على طبيب متخصص بطب الأطفال النفسي من ولاية كارولينا الشمالية الشهر الماضي، في محاكمة هي الأولى من نوعها في نوفمبر (تشرين الثاني) الماضي، بالسجن لمدة 40 عاماً لاستخدامه تطبيقات خلع الملابس على صور مرضاه، بموجب القانون الذي يحظر إنشاء مواد تزييف عميق لصور الأطفال.
دور تشاركي
ومع تطور الذكاء الاصطناعي وتحرك الحكومات لوضع مقترحات لتنظيمه ونشر تقنيات جديدة للعامة، أصبح إشراك الناس اليوم في ما يتعلق باتخاذ القرارات بخصوص الذكاء الاصطناعي ككل، أكثر إلحاحاً من أي وقت مضى. فالأكيد أن الأخذ في الاعتبار وجهات نظر الأشخاص وتجاربهم في ما يتعلق بالذكاء الاصطناعي، إلى جانب خبرة صناع السياسات ومطوري التكنولوجيا ونشرها، أمر حيوي لضمان توافق الذكاء الاصطناعي مع القيم والحاجات المجتمعية، بطرق مشروعة وجديرة بالثقة وخاضعة للمساءلة.
كثيرون يشيرون اليوم إلى أن التكنولوجيا على رغم وصفها بأنها أداة للتحرر، إلا أنها في العمق تستخدم في كثير من الأحيان للقمع، والأمثلة على ذلك كثيرة في أفغانستان وباكستان وأوكرانيا والصراع الحالي الدائر في الشرق الأوسط. كما يتزايد الخطاب العام حول فوائدها والفرص المطروحة حولها، إضافة إلى أخطارها وأضرارها، ويصاحب ذلك اهتمام متزايد بضرورة خلق مساحة أكبر لمشاركة أشخاص خارج مجال التكنولوجيا في اختيار النماذج اللغوية وتقييمها، نظراً لتأثيرها الكبير في حياة الأفراد والمجتمعات، بخاصة بعد ملاحظة أن هناك العديد من الجماهير من أصحاب الآراء المهمة في إنشاء وتنظيم الذكاء الاصطناعي وصنع القرارات المتعلقة به، في ما يوصف بـ “الدور التشاركي” أو “الموجة التداولية”. إذ تعتبر المشاركة العامة والاستماع إلى الجمهور أمراً ضرورياً في صنع القرار في مجال الذكاء الاصطناعي، كنوع من أنواع توازن القوى من جهة وتحسين المساءلة من جهة أخرى.
لكن يشير الخبراء إلى أن الناس غير المتخصصين ليست لديهم الدراية الكافية في كيفية عمل الخوارزميات، بالتالي من المحتمل أن تكون هذه المشاركة منقوصة أو غير هادفة في كثير من الأحيان، إذ كيف يمكن للأشخاص العاديين المشاركة بشكل فعلي في موضوع تقني ومعقد مثل إنشاء نماذج الذكاء الاصطناعي، وكذلك يطرح المتخصصون ضرورة حصول الأشخاص المشاركين على المعرفة اللازمة أولاً للانتقال إلى مرحلة إبداء الرأي أو المشاركة في اتخاذ القرار.
وهنا يعتقد البعض أن الأكاديميين والصحافيين بخاصة الاستقصائيين، هم الأكثر جاهزية وفعالية لإحداث تغيير حقيقي ملموس، بينما يطرح آخرون أهمية دور المجتمع المدني نظراً لخبرته الواسعة في معالجة القضايا المعقدة وتاريخه في قيادة حركات حقق من خلالها غايات عدة في مواضيع كثيرة أخرى.