شهد الإنترنت ضجة كبيرة بعد ظهور مقطع فيديو تم إنشاؤه بالذكاء الاصطناعي يظهر فيه وجه الموناليزا الشهيرة من لوحة ليوناردو دافينشي وهي تغني أغنية راب من تأليف الممثلة الأمريكية آن هاثاواي.
هذا المقطع الذي أثار جدلا واسعا على الإنترنت ما بين داعم ومعارض، يعتبر أحد تطبيقات تقنية الذكاء الاصطناعي الجديدة التي أطلقتها “مايكروسوفت” وأطلقت عليها اسم “VASA-1”. تتيح هذه التقنية إنشاء وجوه متحركة واقعية لشخصيات افتراضية وذلك باستخدام صورة واحدة فقط ومقطع صوتي.
بإمكان الذكاء الاصطناعي الجديد جعل الشخصيات الكرتونية والصور الفوتوغرافية واللوحات الفنية تغني أو تتحدث، كما هو واضح في اللقطات التي نشرتها “مايكروسوفت” كجزء من بحث نُشر يوم 16 نيسان/أبريل الحالي.
في المقطع الأكثر انتشاراً، تغني المرأة الموجودة في لوحة الموناليزا – مع تحريك فمها وعينيها وجهها – أغنية “باباراتزي” وهي أغنية راب من تأليف أدتها هاثاواي في برنامج كونان أوبراين الحواري عام 2011. وفي مقطع آخر لـ “مايكروسوفت”، يغني رمز افتراضي (أفاتار)، وفي مقاطع أخرى تم إنشاؤها من صور فوتوغرافية حقيقية، يتحدث الناس عن مواضيع عادية.
شاهد/ي: ثورة في واتساب: تخصيص قائمة الاتصالات المفضلة لتحسين تجربة المستخدم
سرعان ما اكتسبت الفيديوهات شعبية كبيرة على الإنترنت: حيث حصد منشور على منصة “إكس” (تويتر سابقا) بتاريخ 18 نيسان/أبريل يضم مقطع الموناليزا الغاضبة ومقاطع أخرى، سبعة ملايين مشاهدة حتى يوم الأحد.
كانت ردود الفعل عبر الإنترنت سريعة وقوية ومتنوعة. استمتع البعض بالمقاطع، حيث علق أحد المعلقين أن فيديو الموناليزا جعله “يتدحرج على الأرض ضاحكا”. بينما كان البعض الآخر أكثر حذراً أو حتى منزعجين. وقال أحدهم “هذا جنوني ومخيف ومثير للاشمئزاز في آن واحد”. وآخر يصرخ “يوم آخر، فيديو ذكاء اصطناعي آخر مرعب”. وانتقد أحد المعلقين “لماذا يجب أن يوجد هذا؟ لا أستطيع التفكير في أي إيجابيات”.
باحثو “مايكروسوفت” تحدثوا عن مخاطر التكنولوجيا الجديدة وأكدوا على عدم وجود خطط لإصدار عرض أو منتج عبر الإنترنت “حتى نكون على يقين من أن يتم استخدام التكنولوجيا بشكل مسؤول ووفقاً للوائح والقوانين المناسبة.
وكتب الباحثون: “لم يُقصد منه إنشاء محتوى يُستخدم لتضليل الناس أو خداعهم. ومع ذلك، فإنه يمكن إساءة استخدامه، مثل تقنيات إنشاء المحتوى الأخرى ذات الصلة، لتقمص شخصية البشر. نحن نعارض أي سلوك لإنشاء محتوى مضلل أو ضار لأشخاص حقيقيين، ونحن مهتمون بتطبيق تقنيتنا لمكافحة اكتشاف التزييف”.
وقالوا: “في حين ندرك إمكانية إساءة الاستخدام، فمن الضروري إدراك الإمكانات الإيجابية الكبيرة لتقنيتنا. إن الفوائد – مثل تعزيز تكافؤ الفرص التعليمية، وتحسين إمكانية الوصول للأشخاص الذين يعانون من تحديات في التواصل، وتقديم الصحبة أو الدعم العلاجي للمحتاجين، وغيرها الكثير – تؤكد على أهمية بحثنا والاستكشافات الأخرى ذات الصلة. نحن ملتزمون بتطوير الذكاء الاصطناعي بشكل مسؤول، بهدف تعزيز رفاهية الإنسان”.
ويأتي هذا التطور الجديد في مجال الذكاء الاصطناعي في الوقت الذي تسعى فيه الحكومات حول العالم إلى تنظيم هذه التكنولوجيا الجديدة والتشريع ضد إساءة استخدامها جنائيا.
ومن الأمثلة على ذلك، التضليل العميقة (ديب فيك) حيث يتم وضع وجه فرد على صورة أو مقطع فيديو صريح بدون موافقته، وهي قضية أثرت حتى على تايلور سويفت في وقت سابق من هذا العام. في الولايات المتحدة، بينما تجرم 10 ولايات تقنية الديب فيك، لا يوجد قانون فيدرالي يجرّمها، وقد تم تقديم العديد من مشاريع القوانين الفيدرالية في الولايات المتحدة لمعالجة مشكلة الديب فيك.
قانون منع التزييف الوسائطي لعام 2023: يهدف هذا المشروع إلى تجريم إنشاء أو توزيع مقاطع فيديو أو صور ديب فيك دون موافقة الشخص.
قانون حماية صورة المشاهير لعام 2023: يركز هذا المشروع على حماية صور المشاهير من سوء الاستخدام من خلال تقنية الديب فيك.
قانون مكافحة التضليل الإعلامي لعام 2024: يسعى هذا المشروع إلى الحد من انتشار المعلومات المضللة التي يتم إنشاؤها باستخدام تقنية الديب فيك.
مما لا شك فيه إنّ تقنية الديب فيك هي أداة قوية يمكن استخدامها للخير أو الشر. وإنّ مسؤولية ضمان استخدامها بشكل مسؤول تقع على عاتق جميع الأطراف المعنية. يجب على المطورين استخدام هذه التكنولوجيا بمسؤولية، وعلى الحكومات وضع القوانين اللازمة، وعلى المستخدمين توخي الحذر والوعي عند التعامل معها.