من بين جميع القوى المخيفة للإنترنت ، فإن قدرتها على خداع المجهولين قد تكون الأكثر مخيفًا. Clickbait ، صور فوتوشوب وأخبار كاذبة هي بعض من أسوأ المجرمين ، لكن السنوات الأخيرة شهدت أيضًا ظهور أداة جديدة محتملة الخطورة تعرف باسم الذكاء الاصطناعي العميق (AI).
يشير مصطلح deepfake إلى مقاطع فيديو وصوت مزيفة يتم إنشاؤها بواسطة الكمبيوتر ويصعب تمييزها عن المحتوى الحقيقي الذي لم يتغير. إنه تصوير فيلم Photoshop للصور.
كيف تعمل تقنية Deepfake AI؟
تعتمد الأداة على ما يُعرف بشبكات الخصومة التوليدية (GANs) ، وهي تقنية اخترعها إيان جودفيلو في عام 2014 ، حاصل على درجة الدكتوراه. أفادت Popular Mechanics أن الطالب الذي يعمل الآن في Apple.
تتضمن خوارزمية GAN اثنين من الذكاء الاصطناعي المنفصل ، أحدهما يولد محتوى - دعنا نقول ، صور الأشخاص - وخصم يحاول تخمين ما إذا كانت الصور حقيقية أو مزيفة ، وفقًا لـ Vox. يبدأ الذكاء الاصطناعي المولّد بدون أي فكرة عن كيف يبدو الناس ، مما يعني أن شريكها يمكن أن يميز بسهولة الصور الحقيقية من الصور الزائفة. ولكن بمرور الوقت ، يتحسن كل نوع من أنواع الذكاء الاصطناعي تدريجيًا ، وفي النهاية يبدأ الذكاء الاصطناعي المولّد في إنتاج محتوى يشبه الحياة تمامًا.
أمثلة Deepfake
GANs هي أدوات رائعة ولا يتم استخدامها دائمًا لأغراض ضارة. في عام 2018 ، تم بيع لوحة تم إنشاؤها من قبل GAN لتقليد أسلوب "المعلم القديم" الهولندي للفنانين مثل Rembrandt van Rijn الذي يعود للقرن السابع عشر في مزاد كريستيز مقابل 432،500 دولار.
في نفس العام ، ارتفع Deepfakes إلى بروز واسع النطاق ، بشكل رئيسي من خلال مستخدم Reddit الذي أطلق عليه اسم `` deepfakes '' ، حسبما ذكرت فايس. غالبًا ما يتم استخدام تقنية GAN لوضع وجوه المشاهير المشهورين - بما في ذلك Gal Gadot و Maisie Williams و Taylor Swift - على أجساد ممثلات الأفلام الإباحية.
لقد تعلمت GANs الأخرى التقاط صورة واحدة لشخص وإنشاء صور أو مقاطع فيديو بديلة واقعية إلى حد ما لهذا الشخص. في عام 2019 ، يمكن أن يولد التزييف العميق أفلامًا زاحفة ولكنها واقعية لموناليزا تتحدث وتتحرك وتبتسم في مواقف مختلفة.
يمكن لـ Deepfakes أيضًا تغيير المحتوى الصوتي. وفقًا لما أفادت به The Verge في وقت سابق من هذا العام ، يمكن أن تقسم التقنية كلمات جديدة إلى مقطع فيديو لشخص يتحدث ، مما يجعله يبدو أنه قال شيئًا لم يقصده أبدًا.
إن السهولة التي يمكن من خلالها نشر الأداة الجديدة لها نتائج محتملة مخيفة. إذا كان أي شخص ، في أي مكان ، يمكنه صنع أفلام واقعية تظهر شخصية مشهورة أو سياسي يتحدث ويتحرك ويقول كلمات لم يقلها أبدًا ، يضطر المشاهدون إلى أن يصبحوا أكثر حذرًا من المحتوى على الإنترنت. كمثال ، استمع فقط إلى تحذير الرئيس أوباما من مستقبل بائس "مفعم بالحيوية" في هذا الفيديو من Buzzfeed ، تم إنشاؤه باستخدام Deepfake من قبل المخرج جوردان بيل.