مايو 15, 2023|التقنية والمساواة, الذكاء الاصطناعي
مقدمة
بلير، صانعة محتوى، تقدم محتواها على منصة متخصصة في البث الحي للفيديو المعني بالألعاب الرقمية هي “تويتش”. تتمتع بلير بقدر معقول من الشهرة، إذ يزيد عدد متابعيها عن 800،000 متابع. فوجئت بلير في نهاية يناير الماضي بانتشار مقطع فيديو إباحي تظهر فيه. كانت بلير على يقين من أنها ليست من تظهر بالفيديو، على الرغم من أن وجهها كان بالتأكيد هو ذات الوجه. ذلك الموقف الصادم والمخيف لم يكن قاصرًا عليها وحدها. عديد من صانعات المحتوى على نفس المنصة واجهن في اليوم ذاته محنة مماثلة. وراء انتشار مقاطع الفيديو الإباحية هذه كان بدوره صانع محتوى على تويتش هو براندون إيوينج والشهير باسم أتريوك. في بث مباشر لإيوينج في اليوم السابق لاحظ بعض متابعيه أن في خلفية الصورة على شاشة حاسوب ظهر موقع إباحي. تمكن متابيعه من تبين أن المقطع المعروض على صفحته تظهر فيه واحدة من صانعات المحتوى على المنصة. بتعقب الموقع ظهر أن إيوينج قام بشراء خدمات من هذا الموقع. هذه الخدمات تتمثل في تخليق مقاطع فيديو تستخدم صور نساء بعينهن بالإضافة إلى فيديو هات إباحية مع استبدال وجوه الممثلات في المقاطع الأصلية بوجوه النساء باستخدام صورهن. قطع ولصق الوجوه بين الصور الرقمية ممارسة قديمة. طوال عقود ومنذ ظهرت أولى برمجيات الرسوميات (Graphics) اُستُخدِمت هذه البرمجيات لخلق صور زائفة بعزل وجه شخص ما من صورة يظهر بها ثم استبدال وجه شخص آخر في صورة مختلفة بوجه الشخص الأول. مع ظهور برمجيات تحرير الفيديو انتقلت هذه الممارسة إلى مقاطع الفيديو. ولكن في جميع الحالات كان إنتاج صور زائفة متقنة يتطلب مهارات خاصة في استخدام البرمجيات المتخصصة في تحرير الصور ومقاطع الفيديو. ومهما كان العمل متقنًا كان بإمكان الكثيرين التمييز بين الصور الزائفة والصور الأصيلة. ولكن هذا يعود إلى زمن ما قبل دخول الأدوات المعتمدة على تكنولوجيات الذكاء الاصطناعي إلى عالم تحرير الصور ومقاطع الفيديو. وما تعرضت له بلير وزميلاتها كان صورة حديثة نسبيًا من استخدام هذه التكنولوجيات لخلق مقاطع فيديو زائفة. تلك الصورة التي بدات في الظهور في عام 2017 أصبحت تدعى بالزيف العميق، وهو اسم موحي يليق بما تكشف عنه يومًا بعد يوم من إمكانيات مبهرة ومثيرة للفزع في نفس الوقت.ما هو الزيف العميق Deepfake؟
مصطلح “الزيف العميق” هو ترجمة حرفية لأصله في اللغة الإنجليزية، وهو في هذه اللغة تركيب من كلمتين هما “زيف” (Fake) التي تعكس أن ذلك النوع من المحتوى غير حقيقي،” وعميق“(Deep) التي تعكس تغلغل هذا الزيف إلى أدق التفاصيل مما يجعله أكثر قدرة على خداع المتلقي له من أي تقنية سابقة عليه. وفي الواقع أُخِذ مقطع (Deep) من مصطلح “التعلم العميق” (Deep Learning)، وهو أحد المجالات البحثية والتطبيقية المتفرعة عن تعلم الآلة (Machine Learning) الذي يهتم تحديدًا بالعمل على تمكين الآلات (المقصود بها في أغلب الأحيان الحواسيب) من استخدام حزم ضخمة من البيانات لتعلم أداء مهام بعينها بأكبر كفاءة ممكنة. وبرغم الشائع فمجال تعلم الآلة مستقل عن مجال الذكاء الاصطناعي، ولكنه يتقاطع معه تحديدًا عندما تكون المهام التي يسعى لتمكين الآلات من إدائها تحاكي أداء البشر لها، بحيث يصعب التمييز بين نتائج ما تحققه وبين ما يمكن للبشر تحقيقه عند أداء نفس المهمة. حقق البحث الدائب في مجالات الذكاء الاصطناعية اختراقات مهمة متتالية في العقد الأخير. بدأت تلك الاختراقات بإحياء البحث في محاكاة الشبكات العصبية (Neural Networks) التي تشكل أدمغة البشر والحيوانات بنماذج رياضية رقمية. الفكرة وراء هذه المحاكاة قديمة قدم بدء البحث في مجال الذكاء الاصطناعي نفسه، وتعود إلى رواد هذا المجال في خمسينيات القرن الماضي، ولكن المحاولات الأولى باءت جميعها بالفشل ووصلت إلى طريق مسدود، إلى حد إجماع الباحثين في مجال الذكاء الاصطناعي على التخلي عن هذه المحاولات، واعتبار الفكرة نفسها نوع من الخيال العلمي غير القابل للتحقيق على أرض الواقع. تغير ذلك كله في عام 2012 عندما نجح فريق من الباحثين الكنديين بقيادة جوفري هينتون (Geoffrey E. Hinton) في إنتاج نموذج رقمي يحاكي الشبكات العصبية نجح لأول مرة في تنفيذ مهمة تصنيف محتوى أضخم مكتبة للصور الرقمية في العالم في ذلك الحين، بأداء تخطى بفارق كبير التكنولوجيات القائمة والتي لا تعتمد على الشبكات العصبية الاصطناعية (Artificial Neural Networks). عمل هينتون وزملائه فتح الطريق أمام التطور السريع لمجال التعلم العميق (Deep Learning). الخطوة التالية الحاسمة في دفع تطور تكنولوجيات التعلم العميق أنجزها فريق باحثين بقيادة إيان جودفيلو (Ian Goodfellow) باختراعهم للشبكات التوليدية التنافسية (Generative adversarial network (GAN)) في عام 2014. اختراع جودفيلو ورفاقه كان مسؤولا عن نقلة نوعية لمجال التعلم العميق وكان البوابة التي عبرت من خلالها تكنولوجيات هذا المجال إلى إنتاج أجيال متتالية من نماذج الشبكات العصبية الاصطناعية تتضاعف معها قدرات كل جيل مقارنة بالسابق عليه. من خلال هذه البوابة ذاتها عبرت تقنيات ما يسمى بالزيف العميق. وحتى يمكن فهم كيف تختلف هذه التقنيات عما سبقها ينبغي تقديم تعريف مبسط بالطريقة التي تعمل بها الشبكات التوليدية التنافسية. يتركب أي نموذج توليدي تنافسي من شبكتين عصبيتين اصطناعيتين. تؤدي إحداهما دور المولد، وهو الذي يحاول تعلم توليد صورة تحاكي بأكبر دقة ممكنة عنصرا أصليا يُقدم له من خلال قدر ضخم من البيانات هي صور رقمية يتكرر فيها ظهور هذا العنصر بحالات وأشكال مختلفة. في المقابل تؤدي الشبكة المنافسة دور المُميّز، الذي يتعلم التمييز بين العنصر الأصلي والمحاكاة التي ينتجها المولد. تستمر هذه المنافسة بين الشبكتين في صورة لعبة صفرية، أي أن نجاح أحد طرفيها يعني فشل الآخر، حتى يفشل المميز في التفرقة بين العنصر الأصلي ومحاكاته وبذلك يكون المولد قد توصل إلى إنتاج محاكاة هي الأكثر دقة في ظل ظروف المنافسة، أي قياسا على حجم البيانات المعطاة له، وحجم شبكته مقاسا بعدد العصبونات الاصطناعية (Artificial Neurons) المكونة لها، وكذلك عدد المتغيرات التي يعمل من خلالها. الاختراق الذي حققته الشبكات التوليدية التنافسية كان تحديدا فتح الباب أمام نماذج توليدية عامة ليست مطورة منذ البداية للعمل على مهمة أو مجموعة من المهام المحددة وإنما تعتمد في التخصص في تحقيق هدف بعينه على البيانات التي تقدم لها لتتعلم توليد بيانات على نمطها، وليس بالضرورة مماثل لأي منها بالضبط. ما يعنيه ذلك هو أن هذه النماذج أو الخوارزميات المطورة من خلالها لا يمكنها فقط تمييز عنصر (صورة، كلمة مكتوبة أو مسموعة إلخ) سبق لها رؤيته، بل يمكنها تمييز عنصر يشبهه وفق معايير محددة. فإذا تم تدريب هذه الشبكات بواسطة عدد ضخم من صور السيارات يمكنها أن تتعرف على سيارة في صورة لم تمر بها من قبل، وإذا طلب منها إنتاج صورة لسيارة وفق مواصفات معينه فستنتج صورة هذه السيارة وفق المواصفات المطلوبة بدقة تعتمد على حجم البيانات المستخدمة لتدريبها، وعدد المتغيرات في المواصفات التي يمكنها استخدامها. ما سبق هو تحديدا ما يجعل الزيف العميق مختلفا عن أي محتوى زائف أنتج سابقا. فعندما يُطلب من تطبيق للزيف العميق تم تدريبه على عدد ضخم من صور النساء أن يولد صورة جديدة لامرأة بناء على صورة أصلية لها مع إضافة بعض التعديلات فهو يعتمد على كافة البيانات التي تعلمها سابقا ليحدث هذه التعديلات بأكبر دقة ممكنة. هذا يعني على سبيل المثال أنه قادر على تجريد امرأة من ثيابها اعتمادا على صور لها ترتدي فيها ثيابا كاملة معتمدا في توليد الأجزاء التي تخفيها الثياب على مجمل البيانات التي تعلم من خلالها. كما يمكنه أن يقوم بتركيب وجه امرأة على جسد أخرى مع إدخال التعديلات اللازمة وفق السيناريو المطلوب لتعبيرات الوجه واتجاهه إلخ، وهو ما يجعله مثاليا ليس فقط لتوليد الصور الثابتة، بل مقاطع الفيديو بدقة تتزايد من جيل إلى الجيل التالي عليه لهذه التطبيقات. نشرت شركة سينسيتي Sensity المتخصصة في تمييز المحتوى الأصيل عن ذلك المولد بواسطة تكنولوجيات الزيف العميق تقريرا بعنوان “حالة الزيف العميق، مجاله، تهديداته وأثره” The State of Deepfakes: Landscape, Threats, and Impact. ويحاول التقرير تقديم صورة تقريبية لمعدل تطور التكنولوجيا المعتمدة على الشبكات التوليدية التنافسية من خلال رصد عدد الأبحاث المتعلقة بهذه التكنولوجيا كل عام في الفترة من عام 2014 وحتى العام الذي صدر به التقرير وهو 2019. وفق هذا الرصد بدأ نمو المجال بثلاث أبحاث في عام 2014، وتطور هذا العدد إلى 9 أبحاث في 2015، ثم 74 في 2016، وقفز إلى 469، 932، في العامين التاليين وصولا إلى 1207 بحث صدر في عام 2019. بالتوازي مع هذا التطور بدأت تطبيقات الزيف العميق في الانتشار بدورها منذ ظهرت لأول مرة في نهاية عام 2017. ويقدم التقرير نفسه رصدا تقريبيا لتزايد انتشار هذه التطبيقات من خلال نمو شعبية أحد نماذجها وهو مشروع بعنوان فيس–سواب (Faceswap) ويعني اسمه حرفيا “تبادل الوجوه”. المشروع هو برمجية مفتوحة المصدر ومثل كثير غيره من التطبيقات الأولى للزيف العميق يعتمد على منصة تطوير برمجيات هي تينسور–فلو (TensorFlow) والتي طورها فريق جوجل–برين (Google Brain)، وأصدرها كبرمجية مفتوحة المصدر ومجانية منذ عام 2015.كيف يتم استخدام الزيف العميق لاستهداف النساء؟
ليس “الزيف العميق” في حد ذاته اساءة لاستخدام تكنولوجيات الذكاء الاصطناعي لأغراض إجرامية أو غير أخلاقية. ثمة في الواقع عشرات التطبيقات الفعلية والممكنة لبرمجيات الزيف العميق موجهة لأغراض مشروعة ونافعة. بالرغم من ذلك فالغالبية العظمى من استخدامات الزيف العميق تندرج تحت تصنيف الأعمال غير الأخلاقية، والتي تجرمها القوانين أو ينبغي أن تجرمها. فحسب تقارير أصدرتها مراكز بحثية متخصصة كان 95% مما تم رصده من أعمال الزيف العميق هو محتوى إباحي غير رضائي، أي أنه أنتج دون موافقة من استغلت صورهم فيه. على جانب آخر في إطار هذه الأعمال غير الأخلاقية ليس ثمة في طبيعة التكنولوجيات المستخدمة لإنتاج محتوى زائف ما يجعل استخدامها لاستهداف النساء أكثر سهولة من استخدامها لاستهداف الرجال، ومع ذلك فالغالبية العظمى ممن استغلت صورهم في أعمال الزيف العميق هن من النساء. أكثر من ذلك تكاد تقتصر أعمال الجهات التي عملت وتعمل في إنتاج الزيف العميق لصالح الغير، سواء بمقابل مادي أو مجانا، على ما يستهدف النساء وحدهن. تطور الزيف العميق بتطور التكنولوجيات التي يعتمد عليها. ومع تزايد قدرة هذه التكنولوجيات وكذلك مع ظهور واجهات تطوير برمجيات (Application Programming Interface (API)) لها تجعل استخدامها أكثر سهولة، اتسع مجال استهدافها للنساء. ففي بداية ظهور محتوى الزيف العميق كان يكاد يقتصر على استهداف النساء الشهيرات وبصفة خاصة نجمات السينما الأمريكية. ذلك لأن استخدام أدوات الزيف العميق في البداية كان يحتاج إلى معرفة تقنية أكثر تخصصا، ومن ثم فالاستغلال التجاري لتلك الأدوات كان يتطلب نسبة مرتفعة من الطلب مقابل العرض، وهو ما لا يتوفر إلا بأن يقبل على هذا المنتج عدد كبير من الراغبين في الحصول عليه، وهو ما لا يتحقق من خلال الدوائر الاجتماعية المحدودة للنساء العاديات، وإنما يتحقق فقط للمشهورات اللاتي يهتم مئات الآلاف بالحصول على مواد إباحية يظهرن فيها. على جانب آخر كان الخروج بنتائج مرضية يحتاج إلى تزويد الخوارزميات المستخدمة بحجم هائل من البيانات (الصور ومقاطع الفيديو)، والتي لا تتوافر بالقدر الكافي إلا للمشهورات. في مقالين نشرتهما على موقع ماذربورد (Motherboard)، في شهري ديسمبر 2017، ثم يناير 2018، رصدت سامنثا كول انتشار مقاطع فيديو إباحية زائفة تظهر فيها نجمات سينمائيات ومغنيات شهيرات. قام صانعو هذه المقاطع بتركيب صور وجوه السينمائيات والمغنيات المشهورات على أجساد الممثلات في المقاطع الأصلية. من بين هؤلاء النجمات سكارليت جوهانسن، تايلور سويفت وجال جادوت. في وصفها لمقطع الفيديو الخاص بجادوت في مقالها الأول أكدت كول أن المقطع “لن يخدع أحدا إذا ما دقق النظر فيه.” وأشارت إلى عدد من العيوب البصرية التي يمكن تكشف زيف المقطع. ولكنها في الوقت نفسه اعترفت بأنه بالنسبة لغالبية من يمكن أن يشاهدوه سيبدو حقيقيا وقابلا للتصديق إلى حد بعيد. مقاطع الفيديو هذه أنتجها ونشرها شخص أنشأ مجتمعا على موقع ريديت (Reddit) أسماه ديبفيكز (Deepfakes) في أول استخدام لمصطلح الزيف العميق الذي أصبح الاسم المستخدم للإشارة إلى هذا النوع من المحتوى سواء في الإعلام الجماهيري أو في البحث الأكاديمي على السواء. حصلت كول على تصريحات من منشئ مجتمع ريديت والذي رفض الإفصاح عن هويته الحقيقية واستخدم اسم ديبفيكز بدلا من ذلك. في تصريحاته هذه أوضح ديبفيكز أنه قد استخدم مكتبات برمجية مفتوحة المصدر مثل تينسور–فلو، وكيراس (Keras)، إضافة إلى محرك جوجل للبحث عن الصور، ومصادر أخرى ومقاطع فيديو على موقع يوتيوب (YouTube). وبتدريب البرمجيات على كل من صور ومقاطع الفيديو للممثلة أو المغنية المستهدفة من جانب وعلى مقاطع فيديو إباحية من جانب لوقت كاف يصبح بالإمكان على حد قوله توجيه البرمجية إلى تنفيذ مهمة محددة وهي في هذه الحالة خلق فيديو بمواصفات المقاطع الإباحية مع استبدال وجه المؤدية فيه بوجه النجمة المستهدفة. في مقالها الثاني رصدت كول توسعا كبيرا لإنتاج محتوى الزيف العميق مع تطوير برمجية باسم فيك–آب (FakeApp)، الغرض من البرمجية كما قال صرح مطورها لكول هو جعل تكنولوجيا الزيف العميق متاحة للمستخدم العادي دون الحاجة إلى كتابة كود معقد لاستخدام مكتبات البرمجيات المتاحة. هذا التطور السريع كان مؤشرا أولا لمدى الإقبال والطلب على هذا النوع من البرمجيات، وثانيا كان تحذيرا لمدى سهولة انتشار أدوات عالية الكفاءة لإنتاج محتوى زائف يسهل الانخداع به. وعلى الرغم من أن بداية ظهور وانتشار محتوى الزيف العميق كان من الواضح فيها توجه منتجيه إلى استهداف النساء بصورة شبه حصرية، إلا أن التغطية الإعلامية واهتمام الدوائر السياسية في الولايات المتحدة أولا ثم في بقية الدول الغربية كان موجها إلى التهديدات السياسية والأمنية لانتشار هذا المحتوى، وبصفة خاصة الأثر الذي يمكن أن يحدثه إذا استخدم في أوقات الانتخابات لخداع الناخبين وتوجيه تصويتهم. استهداف النساء كان منذ البداية هو الصفة الأساسية المميزة لمحتوى الزيف العميق. في مقال ثالث، رصدت كول توسع استخدام برمجيات الزيف العميق من قبل مستخدمين عاديين وغير متخصصين لإنتاج مقاطع فيديو إباحية زائفة استبدلوا فيها وجوه المؤديات بوجوه صديقاتهم وزميلاتهم بالجامعة والعمل. ويؤكد تقرير سنسيتي السابق الإشارة إليه أن جميع ما أمكن رصده من محتوى إباحي كان موجها حصرا ضد النساء. في حين كانت غالبية المحتوى الزائف غير الإباحي موجهة ضد رجال، مع فارق ضخم في نسبة النوع الأول من المحتوى إلى الإجمالي عن النوع الثاني. بالرغم من عدم وجود إحصائيات حديثة مشابهة للإحصاء الذي قدمه تقرير سينسيتي، يظل بالإمكان تقدير مدى توسع وتضخم ظاهرة إنتاج المحتوى الإباحي الموجه ضد النساء باستخدام مؤشرين أساسيين، الأول هو تطور التكنولوجيات ذات الصلة بمعدل متسارع خلال الأعوام الأخيرة، وظهور عديد من المواقع على شبكة الإنترنت المتخصصة تحديدا في تزويد المستخدم العادي بمحتوى إباحي لا يحتاج إلى أكثر من صورة واحدة للضحية المستهدفة يقوم الموقع بإنتاج محتوى زائف لها خلال ثوان. المؤشر الثاني أكثر وضوحا لأنه يتضمن رقما محددا. في الوقت الذي رصد فيه تقرير سينسيتي في عام 2019 إجمالي مقاطع فيديو إباحية قدره حوالي 14 ألف مقطع موزعة على 9 مواقع متخصصة في محتوى الزيف العميق، وعلى المواقع الإباحية العشر الأكبر من حيث عدد الزائرين. ففي العام الحالي رصد تقرير لسينسيتي أيضا أن روبوت على منصة المحادثة تيليجرام قد أنتج وحده أكثر من 100 ألف مقطع فيديو إباحي زائف. هذا مؤشر بالغ الدلالة وهو يؤكد أن الحجم الحالي للمحتوى الإباحي الزائف هو بالتأكيد بالغ الضخامة، وهو ما يعني تعريض حياة مئات الآلاف على الأقل من النساء لتهديدات بالغة الخطورة. في وقتنا الحالي تحتل مقدمة تطبيقات التعلم العميق برمجيات مثل تشات–جي–بي–تي (ChatGPT) المبني على تقنية “المحولات التوليدية مسبقة التدريب” (Generative Pre-trained Transformer)، والتي طورتها شركة أون–إيه–آي (OpenAI)، ومثل نماذج برت (BERT) لمايكروسوفت، ولامدا (LaMda) لجوجل وغيرها. ومن بين التطبيقات المتخصصة في تخليق الصور ميدجيرني (Midjourney) من إنتاج الشركة التي تحمل نفس الاسم، و دالي (DALL-E) من إنتاج أوبن–إيه–آي أيضا. هذه البرمجيات هي جيل مختلف من برمجيات التعلم العميق، وهي أكثر تطورا من سابقاتها. فمعظمها يعتمد كقاعدة بيانات له مجمل محتوى شبكة الإنترنت بكامله، وهي تعمل على تحويل الوصف النصي إلى صور (ومؤخرا مقاطع فيديو أيضا). ومن ثم فمستخدمها لا يحتاج إلا إلى كتابة عدد من الكلمات لينتج صور بالغة الواقعية يصعب بشدة تمييزها عن الصور الأصيلة.أثر الزيف العميق على ضحاياه
ظهور وانتشار صور أو مقاطع فيديو إباحية لأي امرأة سواء كانت هذه الصور والمقاطع حقيقية أو زائفة هو أمر كفيل بإحداث آثار طويلة الأمد، وقد تلازم الضحية طيلة حياتها. هذه الآثار تتفاوت من حيث النوع ما بين مادية ومعنوية ومن حيث الحدة حسب عديد من الظروف الاجتماعية والاقتصادية للضحايا وبصفة خاصة مع اختلاف المجتمعات والثقافات. ولكن بصفة عامة يمكن القول بأنه لا يوجد مجتمع مهما بلغ ما هو شائع عنه من التحرر أو التسامح لن تتأثر فيه السمعة والاعتبار الاجتماعي للضحية بمثل هذا النوع من الاستهداف. وتنعكس هذه الآثار دائما على تعامل الدوائر الضيقة والمجتمع بصفة عامة مع الضحية. الأثار المادية الاقتصادية قد تصل إلى فقدان الضحية لوظيفتها أو توقف عملها الحر ومن ثم فقدانها لمصدر دخلها. سواء كانت جهة الإدارة بمكان عمل الضحية أو كان شركاء العمل على اقتناع بأصالة أو زيف المحتوى الإباحي فإن ذلك لن يغير من اعتقادهم بأن انتشار هذا المحتوى يصم الضحية بشكل نهائي بشكل قد تكون له آثار سلبية على العمل. يتعلق ذلك بالأساس بالديناميكيات الاجتماعية السائدة والتي تحول ضحية أي تعد ذو طبيعة جنسية إلى موضوع جنسي، بمعنى أنها كشخص يتم استيعابها بشكل شبه كامل في واقعة ظهور محتوى إباحي منسوب إليها. يصبح ذلك هو ما يحدد تعامل الآخرين معها إلى حد أنه لا يعود بإمكان كثيرين التعامل معها على أنها زميلة أو شريكة عمل أو دراسة أو غير ذلك. يخلق ذلك بيئة خانقة للضحية في مكان عملها أو دراستها حتى وإن لم تفقد أي منهما بشكل مباشر، وفي حالات كثيرة تضطر هي بنفسها إلى اتخاذ قرار التخلي عن العمل أو الدراسة لتجنب هذه البيئة الخانقة التي تلاحقها بالجريمة التي كانت هي المجني عليه فيها. الأثار على أمن وسلامة الضحية أكثر خطورة، وهي كذلك امتداد لتعريفها من خلال الجريمة التي ارتكبت ضدها بوصفها موضوعا جنسيا. تتضاعف فرص تعرض الضحية للتحرش الجنسي اللفظي والبدني، ومحاولات التعدي الجنسي التي قد تصل إلى الاغتصاب. وتستخدم المواد المنشورة لها في ملاحقتها، كنوع من المعايرة والإذلال وكسر الإرادة بغرض دفعها للإذعان لمبادرات ومطاردات غير أخلاقية. في عديد من دول العالم الثالث بصفة خاصة، تشكل دوائر العائلة والجيرة مصادر خطر أكثر حدة على سلامة وربما حياة الضحية. يصعب على كثيرين ممن يفتقدون إلى المعرفة الكافية بالتكنولوجيا المتطورة للذكاء الاصطناعي تصديق أن المحتوى الإباحي المنسوب إلى الضحية زائف ولا علاقة لها به، ومن ثم فقد تتعرض الضحية إلى تعديات قد تصل إلى قتلها في ظل تقاليد حماية السمعة والشرف السائدة في كثير من المجتمعات المحافظة والتقليدية، وهو ما يتزايد في المناطق الريفية والنائية. أخيرا، ولكن ليس آخرا بأي حال، تمثل الآثار النفسية على الضحية الكتلة الغاطسة من جبل الجليد. هذه الآثار تذهب إلى أعمق مما يمكن للضحية نفسها أن تدركه إلا في حال لجأت إلى مساعدة متخصصة. على المستوى الواعي شبهت الضحايا وقع صدمة ظهور المحتوى الإباحي الذي يتضمن صورهن بالتعدي الجنسي الجسدي. ولا ينطوي ذلك التشبيه على أي مبالغة. كل انتهاك لخصوصية الجسد، حتى وإن كان جسدا آخر، ولكنه يظل تعبير رمزيا للجسد ذاته يحدث شرخا في التكامل النفسي للضحية. يستوي في ذلك الانتهاك المادي المباشر مع الانتهاك غير المباشر. يفاقم من الآثار والأضرار النفسية موقف الدوائر الاجتماعية المحيطة بالضحية والتي نادرا ما توفر دعما حقيقيا في مثل هذا النوع من التعديات، بل يغلب عليها عكس ذلك في امتداد لثقافة سائدة ربما في مجتمعات العالم كله لا تتفاوت فيما بينها من حيث النوع، وإنما فقط من حيث الدرجة. هذه الثقافة تعتمد سبلا مختلفة للوم الضحية. ففي جميع الحالات يسود الاعتقاد بأن من طبيعة الذكور في المجتمع أن ينتهزوا أي فرصة للحصول على أي نوع من المنفعة الجنسية من النساء في محيطهن أو اللاتي يعرفونهم عادة بسبب شهرتهن. هذا الاعتقاد ينطوي على تصور أنه لا يمكن لوم الرجل على تصرفاته الغريزية، بينما يمكن لوم ضحيته على إتاحة الفرصة لاستغلالها بأي سلوك حتى وإن كان يقع في صميم حريتها الشخصية ولا يتسبب بأي أذى للغير، وحتى إن كان بالغ البساطة مثل نشر صور شخصية تظهر الضحية فيها بكامل ثيابها.سبل مواجهة الزيف العميق
أغلب العمل البحثي الموجه إلى مكافحة آثار الزيف العميق تركزت على التمييز المؤتمت للمحتوى الزائف باستخدام خوارزميات تميز ما إذا كانت صورة بعينها أو مقطع فيديو قد تم تعديلها. يعتقد بعض الباحثين أن تكنولوجيا البلوكتشين (Blockchain) تمتلك القدرة على استعادة الثقة في البيئة الرقمية والمساعدة في مواجهة تهديد الزيف العميق. وثمة قناعة بالحاجة إلى تكامل جهود الأطراف المختلفة لدعم الحوكمة الرقمية بغرض حماية الضحايا المعرضات لانتهاك حقهن في الخصوصية والسلامة الجسدية والنفسية. شركات التكنولوجيا الكبرى مثل جوجل وتويتر وفيسبوك اتخذت بعض الإجراءات لمواجهة الزيف العميق مع تضاعف عدد الصور الزائفة هذا العام على الإنترنت. شركة جوجل أعلنت منذ عام 2019 عن إتاحة بيانات بشكل مجاني يمكن أن تساعد في أبحاث تمييز المحتوى الزائف. في الوقت نفسه تقدم عدة شركات متخصصة أدوات لكشف المحتوى الزائف يمكن الوصول إليها على شبكة الإنترنت. ولكن الحقيقة المؤكدة أن أي من هذه الأدوات لا يمكنه كشف جميع أشكال الزيف العميق. بعض هذه الأدوات يستخدم التكنولوجيات نفسها التي تستخدمها برمجيات الزيف العميق وبالرغم من الإمكانيات النظرية لهذه المقاربة إلى أنه يعيبها أنها في حاجة إلى تدريب مسبق لا تتيحه إلا قاعدة بيانات مطابقة أو على الأقل مشابهة لتلك التي اعتمدت عليها البرمجية المنتجة للمحتوى الزائف، وجمع كل قواعد البيانات هذه أمر مستحيل. على جانب آخر تحاول أدوات أخرى استخدام مقاربات مبتكرة تركز على نقاط ضعف معروفة لبرمجيات الزيف العميق في إنتاج بعض التفاصيل بشكل واقعي، ولكن مرة أخرى لا تنجح هذه المقاربات في التعامل مع المحتوى الذي لا يتضمن تلك التفاصيل بشكل واضح أو لا يتضمنها على الإطلاق. على الجانب القانوني ليس ثمة قوانين مخصصة لمواجهة الزيف العميق بخلاف قوانين أصدرتها حتى الآن ثلاث ولايات أمريكية. ففي أكتوبر من عام 2019، صدق حاكم ولاية كاليفورنيا الأمريكية على قانون لمكافحة الزيف العميق، وذلك استباقا لعام الانتخابات التالي وتحديدا في محاولة للحيلولة دون استخدام محتوى زائف بغرض تشويه سمعة المرشحين في هذه الانتخابات. براندي نونيك في مقال يعود إلى نوفمبر 2019 تعرض أربعة مآخذ على القانون تجعله في رأيها عاجزا عن تحقيق الهدف منه هذه المآخذ هي التوقيت، تحديد المسؤولية الجنائية، عبء تقديم الدليل على الجرم، والعلاج غير الكافي. فالقانون يحصر تجريمه لنشر المحتوى الزائف في فترة 60 يوما السابقة لإجراء أية انتخابات، وهو يعفي المواقع التي تسمح بنشر المحتوى الزائف عليها من المسؤولية، ويلقي بعبء تقديم الدليل علي الجرم على الضحايا، وفي النهاية لا يقدم علاجا كافيا أو جبرا مقبولا للضرر الواقع على الضحية. بخلاف ما تعرضه نونيك فهذا القانون مثل غيره يعكس توجس السياسيين من الآثار السياسية والأمنية ويغيب عن بالهم بشكل كامل تحمل مسؤولية حماية الطرف الأكثر تضررا بالفعل من الغالبية العظمى من محتوى الزيف العميق وهو النساء المستهدفات طيلة الوقت بهذا المحتوى. هذا الغياب لإرادة سياسية واضحة حتى في واحدة من كبرى ديموقراطيات العالم لمواجهة تهديد خطير لأمن وسلامة النساء يعكس في الواقع غياب الإرادة المجتمعية. لا تزال مجتمعات العالم غير مستعدة على الإطلاق للتعامل مع تداعيات التطور السريع لتكنولوجيات الذكاء الاصطناعي وهو ما يؤدي بالضرورة إلى تضرر الفئات الأكثر عرضة للتهديد في المجتمع وعلى رأسها نساؤه. سبل المواجهة الحقيقية ينبغي أن تتجه إلى الجذور الاجتماعية للظاهرة. الهوس بأجساد النساء بينما يعبر عنه الرجال بوضوح من خلال ممارسات مثل إنتاج المحتوى الإباحي الزائف، هو هوس متجذر في الثقافات السائدة ولا توجهه الرغبة في إشباع غريزة جنسية كما هو سائد في المخيلة العامة وإنما يوجهه اعتقاد ما زال راسخا في أن أجساد النساء موضوع للملكية. المصدر الحقيقي لجميع صور العنف ضد النساء والذي يتخذ صورا قديمة ومعتادة أو جديدة تستغل أحدث ما توصل إليه البشر من إنجازات تكنولوجية وعلمية هو الرغبة في امتلاك أجساد النساء والرفض العنيد لحقهن الحصري في امتلاك أجسادهن. جميع صور التعدي على أجساد النساء هي صور لتجريدهن من السيطرة على أجسادهن وامتلاك هذه الأجساد حتى ولو للحظة عابرة وبصورة زائفة. مواجهة المجتمع بعواره الكامن في ذكوريته هو السبيل الوحيد إلى مواجهة جميع صور العنف ضد النساء عند جذورها ومنابعها. في نهاية المطاف ينبغي تذكر أن أي تكنولوجيا تعكس الانحيازات الاجتماعية والثقافية السائدة في المجتمع المنتج لها، وليست بذاتها مصدر العنف وإنما هي أداة له.خاتمة
حاولت هذه الورقة تقديم تعريف بماهية الزيف العميق والأساس التكنولوجي الذي أتاح تطوره إلى صوره الحالية والذي لا يزال يقدم فرصًا كبيرة لمزيد من تطور هذه الظاهرة. وألقت الورقة الضوء على الاستهداف شبه الحصري لتكنولوجيات الزيف العميق في جانبها الإباحي للنساء دون الرجال، كما تعرضت لتطور حجم وطبيعة الاستهداف خلال الأعوام الأخيرة، وحاولت الورقة إيضاح الآثار بالغة الخطورة للمحتوى الزائف على حياة وسلامة ضحاياه مع التركيز على الآثار النفسية. كذلك تعرضت الورقة للجهود التكنولوجية والقانونية لمحاولة مكافحة الاستخدامات غير المشروعة لهذه التكنولوجيات، وأوضحت قصورها البالغ في ظل غياب الإرادة السياسية الذي هو انعكاس لغياب الإرادة الاجتماعية. يبقى التأكيد هنا على أن ظاهرة بهذا الحجم المتنامي طيلة أعوام، في الوقت الذي شهدت فيه نقاشات مستفيضة في الإعلام والأكاديميا وفي المجالس التشريعية النيابية في الغرب لا يكاد يوجد أية حديث عنها في العالم العربي، بالرغم من أن تغلغل استخدام شبكة الإنترنت في المنطقة لا يدع مجالًا للشك في وجود هذه الظاهرة محليًا.
شارك: