فلتر "الوجه الباكي".. آثار نفسية خطيرة يتجاهلها الإعلام

فلتر "الوجه الباكي".. آثار نفسية خطيرة يتجاهلها الإعلام

  • 12

عمَّان 4 حزيران (أكيد) - تقرير: زيد المومني- أثناء رصد وتتبع (أكيد) لما تَنشُره وسائل الإعلام، وما يتم تداوله على وسائل التواصل الاجتماعي المختلفة، وجد أنَّ هناك تقنيات جديدة تنتشر بين مستخدمي وسائل التواصل الاجتماعي، بدا أنَّها مُقدِّمة لما هو أعمق وأخطر من مُجرد تقنية، مثل تقنية التزييف العميق، وما يتفرُّع عنها من تقنيات انتشرت مؤخرًا، وآخرها ما يُسمى بتقنية "الوجه الباكي" (Crying Face).

ولاحظ (أكيد) التأثير السلبي لهذه التقنيات، وغياب الدور الإعلامي في عرض مخاطر استخدامها، في الوقت الذي أصبحت فيه هذه الظواهر التقنية جزءًا من الحياة الرقمية.

تقوم فكرة "فلتر" الوجه الباكيCrying Face  على تحويل ملامح الأشخاص لتُظهرهم بمظهر الباكين باستخدام تقنية التصوير المُعتمدة على الذكاء الاصطناعي، ولاحظَ (أكيد) أن هذه الظاهرة لها بُعدٌ نفسي يحتاج إلى التوعية بمخاطره وآثاره السلبية.

وللتحقّق من الرأي العلمي بالأثر النفسي الذي تُسببه هذه التقنية، توجّه (أكيد) إلى الدكتور عاطف القاسم، المستشار النفسي والتربوي، رئيس جمعية العلوم النفسية، والذي وصف الأمر بأنه يماثل خروج الإنسان عن سياقه الانفعالي الطبيعي إلى سياق مفتعل وكاذب، وأن هذا الخروج يُعدُّ نوعًا من الانفصال عن النفس، فاستخدام تقنية مثل "فلتر الوجه الباكي"، تصنع حالة انفعالية سلبية تؤثر على الإنسان وهرموناته وطريقة تعاطيه مع الواقع، وحتى على تكيّفه النفسي والاجتماعي، وتعامله مع الآخرين.

وأضاف القاسم لـ (أكيد) أن التأثير السلبي لاستخدام تقنية مثل "فلتر البكاء" قد يكون مُضاعفًا على الأطفال؛ والسبب في ذلك أن شخصياتهم لم تصل إلى حد النضوج الكامل بعد، فهم يفتقرون للقدرة على ضبط انفعالاتهم الخاصة، ولذا فإن تعريض الطفل لهذا النوع من التجارب، قد يؤدي به إلى عيش حالة بكاء مزيفة يُشاهدها في الصورة، وتُولّد لديه حالة نفسية سلبية.

لقد سبق انتشار تقنية الوجه الباكي (Crying Face)، تقنية لاقت هي الأخرى انتشارًا واسعًا، اسمها تقنية أو فلتر "الحنين العميق" (Deep Nostalgia) الذي انتشر على تطبيقات سناب شات، وتيك توك، وتسمح للمستخدمين بإعادة إحياء الصور القديمة وبخاصةً لمن فارقوا الحياة، وتمنحها حركةً حقيقية من خلال مقطع فيديو قصير، يُنْتجُ بالاعتماد على تقنية الذكاء الاصطناعي، والتي هي أساس استخدام تقنية التزييف العميق، إلا أن الآثار السلبية لفلتر الحنين العميق أقل من الآثار السلبية لتقنية الوجه الباكي بحسب ما أكّده الدكتور القاسم لـ (أكيد)، واصفًا تقنية الحنين العميق بأنها يُمكن أن تكون إيجابية إذا ما استُخدمت في إطارها الصحيح.

تتبع (أكيد) مراحل ظهور هذا النوع من التقنيات المُحببة للجمهور، ووجد أن مستخدمي مواقع التواصل الاجتماعي يواجهون عددًا من التحديات في تحديد مصداقية المعلومات التي يجدونها على الإنترنت، حيث أن الأمر تجاوز نشر إشاعة أو خبر كاذب، أو حتى صورة مفبركة، ووصل إلى استخدام تقنية الفيديو التي تُعد من أكثر الوسائل مصداقية للحصول على معلومة، وأصبح هنالك ما يُسمى بالتزييف العميق (Deep Fake) الذي كان أساسًا لإنتاج تقنيات التلاعب في الفيديوهات، وهي إحدى أكثر التقنيات المُقلقة في الوقت الراهن، إذ دخلت هذه التقنية إلى فضائنا الرقمي، مستخدمةً الذكاء الاصطناعي لإنشاء صور ومقاطع فيديو لأحداث لم تحدث في الواقع. ولذا ما أن انتشرت تطبيقات نشر الصور والفيديو، حتى بدأ معها ظهور تقنيات تعديل الصور والفيديو، ووصل الأمر إلى اختلاق وتزييف مشاهد الفيديو، وإظهار أشخاص يقولون ما لم يقولوه بالفعل، ما دفع (أكيد) إلى إثارة قضية الانتشار الواسع لهذا النمط من التقنيات وما تنطوي عليه من خطورة محتملة لتتناولها وسائل الإعلام، وتُخضعها للمتابعة والتحليل.

يقوم مبدأ عمل التزييف العميق على الفيديوهات باستخدام الذكاء الاصطناعي، اعتمادًا على تحليل خريطة الوجه، وصور أخرى تُظهِر تعابير الوجه المختلفة، ومقاطع فيديو، وتسجيل صوتي للشخص المُراد بناء الفيديو له، وتُدمج هذه المعطيات رقميًا باستخدام الذكاء الاصطناعي؛ للحصول على مقطع فيديو جديد مُزيَّف يصعب تفريقه عن الحقيقة.

ومن أجل تعميق المعرفة بحجم الخطر الذي تُشكله التقنيات التي تتعلق بالتزييف العميق لمقاطع الفيديو، يُذكّر (أكيد) بعدد من الفيديوهات الشهيرة المتعلقة بالتزييف العميق، ففي عام 2018، انتشر مقطع فيديو ظهر فيه رئيس الولايات المتحدة الأسبق باراك أوباما، وهو يسُبّ دونالد ترامب بألفاظ نابية، ويصفه بالأخرق. وهناك مقطع آخر ظهر فيه مؤسس ميتافيرس (فيسبوك)، مارك زوكربيرغ، وهو يعترف بأن المهمة الأساسية لفيسبوك وإنستغرام ليست مساعدة الناس على التواصل كما كان يقول، بل الوصول إلى أكبر قدر ممكن من المعلومات عن المستخدمين ليسهل التنبؤ بتصرفاتهم المستقبلية والتحكم بها، وهذه الفيديوهات سبَّبت أزمة كبيرة بين المُستخدمين الذين انْطلت عليهم الخُدعة التي استُخدمت من خلال تقنية التزييف العميق، بالرغم من أن الغرض من بعض مقاطع الفيديو المزيَّفة المُستخدمة، هو التوعية بمخاطر هذا النوع من التقنيات الآخذة في الانتشار بسرعة كبيرة.

ولمعرفة سرعة انتشار استخدام تقنية التزييف العميق التي يُمكن أن توصف بالكارثية، تبيّن لـ (أكيد) أن أعدادًا كبيرة جدًا من تلك المقاطع انتشرت على مواقع التواصل الاجتماعي، وأفاد موقع "سايبر نيوز" أن تقريرًا بعنوان: The State of Deepfakes2020، ذكر أن عدد مقاطع الفيديو التي يصنعها الخبراء يتضاعف كل ستة أشهر منذ أن بدأت الملاحظات في كانون الأول 2018. فحتى كانون الأول 2020، اكتُشف أكثر من 85 ألف مقطع فيديو مزيّف عميق، أعدها منشئون خبراء. وهذا مؤشر على أن مُعدل الاستخدام في تزايد مستمر، لتقنية يصعب إيجاد أي إيجابية لها، بل تحمل معها خطرًا قد لا تكشفه برامج كشف مقاطع الفيديو المزيفة، خاصةً إذا تعلق الأمر بمقاطع فيديو فيها مخالفات قانونية، أو التلفُّظ بألفاظ نابية، أو توجيه إساءات مُباشرة،  وهذه كلها قد تؤدي إلى ما لا يُحمد عُقباه.

ويدعو (أكيد) إلى ضرورة أن تُسلط وسائل الإعلام الضوء على تقنية التزييف العميق(Deep Fake)، التي لا تتوقف عن الانتشار، وكذلك مُلاحقة الظواهر التي تنشأ عن التزييف العميق، لإدراك آثاره السلبية على الجمهور خاصةً تلك التي تنشأ من رحم تقنية أخرى أكثر خطورة وأكثر تهديدًا مثل تقنية الوجه الباكي (Crying Face)