تزييف عميق
التزييف العميق[1] (بالإنجليزية: Deepfake)[ا][3] هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.[4][5]
على الرغم من أن إنشاء المحتوى الزائف ليس ظاهرة جديدة، فإن التزييف العميق يتميز باستخدام أدوات وتقنيات التعلم الآلي والذكاء الاصطناعي، [6][7][8] بما في ذلك خوارزميات التعرف على الوجه والشبكات العصبية الاصطناعية مثل المشفرات التلقائية التباينية (VAEs) والشبكات التوليدية التنافسية (GANs). [7][7] وفي المقابل، يعمل مجال الطب الشرعي الرقمي على تطوير تقنيات للكشف عن الصور المعدلة. [9]
كما أثار الأكاديميون مخاوف بشأن احتمالية استخدام التزييف العميق للترويج للمعلومات المضللة وخطاب الكراهية والتدخل في الانتخابات. وقد استجابت صناعة تكنولوجيا المعلومات والحكومات لهذه المخاوف بتقديم توصيات للكشف عن هذه التقنية والحد من استخدامها. [10][11].
استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير،[12][13] كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة،[14][15] ومُحاولة خدع القُرّاء والانتقام الاباحي. [16][17]
التاريخ
طُورت تقنيات التلاعب بالصور في القرن التاسع عشر، وسرعان ما وجدت طريقها إلى عالم السينما. وشهدت هذه التقنيات تطورًا تدريجيًا على مدار القرن العشرين، قبل أن تشهد تسارعًا ملحوظًا مع ظهور الفيديو الرقمي.
أما تقنية التزييف العميق، فقد بدأت تظهر في أبحاث المؤسسات الأكاديمية منذ تسعينيات القرن العشرين، ثم تبعها الهواة في المجتمعات الرقمية عبر الإنترنت. [18][19] وفي الآونة الأخيرة، تبنت الصناعة هذه التقنيات واستخدمتها على نطاق واسع. [20]
لقد حدث تطويرٌ كبيرٌ لهذه التقنيّة على مستويينِ؛ الأول أكاديمي وقانوني نوعًا ما والثاني غير قانوني حيثُ يقومُ فيهِ مبرمجون هواة بعمليات التطوير لا غير.
البحث الأكاديمي
يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبيّة وهو حقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي بحيثُ يركز على معالجة الكمبيوتر للصور ومقاطع الفيديو الرقمية بشكلٍ آلي. يُعدّ برنامج فيديو ريرايت (بالإنجليزية: Video Rewrite) الذي صدرَ في عام 1997 أوّل معالم هذه القنية حيثُ قام بتعديل فيديو لشخصٍ يتحدث في موضوع مُعيّن إلى فيديو لنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياقٍ مختلف لتكوين جملٍ جديدة لم يقلها الشخص في الفيديو أصلًا.[21]
ركّزت المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديو أكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. بحلول عام 2017؛ ظهر للوجود برنامجُ سانثيسيزينغ أوباما (بالإنجليزية: Synthesizing Obama) الذي نشرَ فيديو للرئيس الأمريكي السابق باراك أوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهو ما لم يفعلهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الكلمات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الفيديو الوهميّ الجديد.[22] عَرفت هذه التقنية تطورًا إضافيًا بعد ظهور برنامج فايس تو فايس (بالإنجليزية: Face2Face) الذي صدرَ عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه شخص في فيديو قديم مُحولًا إيّاها إلى تعبيرات جديدة حسبَ رغبة المستخدم.[23]
مناهج العلوم الاجتماعية والإنسانية في التعامل مع التزييف العميق
في دراسات السينما، تكشف تقنيات التزييف العميق عن الوجه البشري ككيان مركزي للتناقض في العصر الرقمي. [24] وقد استغل فنانو السينما هذه التقنيات لإعادة صياغة تاريخ السينما بطريقة مرحة، وذلك بإعادة مزج الأفلام الكلاسيكية مع وجوه نجوم جدد. [25] وبدوره، يحلل الناقد السينمائي كريستوفر هوليداي كيف يؤدي استبدال جنس وعرق الممثلين في مشاهد سينمائية مألوفة إلى زعزعة ثوابت التصنيفات الجنسية. [25] كما نجد أن فكرة "تحويل" التزييف العميق إلى انحراف قد حظيت باهتمام أوليفر م. جينجريتش في تحليله للأعمال الفنية الإعلامية التي تستغل التزييف العميق لإعادة تشكيل الجنس.[26] ومن الأمثلة على ذلك عمل الفنان البريطاني جيك إلويس زيزي: تحويل مجموعة البيانات إلى شاذة، والذي يستخدم تقنيات التزييف العميق لملكات السحب في لعبة جندرية متعمدة. وبالتوازي مع ذلك، بدأ الباحثون في استكشاف الأبعاد الجمالية لتقنيات التزييف العميق. ويشير مؤرخ المسرح جون فليتشر إلى أن العروض الأولى للتزييف العميق قد قدمت كأداء مسرحي، مما يفتح آفاقًا جديدة للنقاش حول "التحولات المزعجة" التي تمثلها هذه التقنية كنوع أدائي جديد.[27]
ناقش الفلاسفة وعلماء الإعلام أخلاقيات التزييف العميق خاصة فيما يتعلق بالمواد الإباحية.[28] تستعين عالمة الإعلام إميلي فان دير ناجل بالبحث في دراسات التصوير الفوتوغرافي للصور المُتلاعب بها لمناقشة أنظمة التحقق، التي تسمح للنساء بالموافقة على استخدام صورهن.[29]
بعيدًا عن المواد الإباحية، صاغ الفلاسفة التزييف العميق باعتباره "تهديدًا معرفيًا" للمعرفة، وبالتالي للمجتمع.[30] وهناك العديد من الاقتراحات الأخرى حول كيفية التعامل مع المخاطر التي تطرحها تقنية التزييف العميق، والتي تتجاوز المواد الإباحية لتشمل الشركات والسياسيين وغيرهم، من "الاستغلال والترهيب والتخريب الشخصي".[31] وقد حظيت هذه التقنية بنصيب وافر من المناقشات العلمية حول الاستجابات القانونية والتنظيمية المحتملة في كل من الدراسات القانونية ودراسات الإعلام.[32] وفي سياق دراسات علم النفس والإعلام، يناقش الباحثون آثار التضليل الذي يستخدم تقنية التزييف العميق،[33][34] والتأثير الاجتماعي لهذه التقنية.[35]
في حين تركز معظم الدراسات الأكاديمية باللغة الإنجليزية حول تقنية التزييف العميق على المخاوف الغربية بشأن التضليل والمواد الإباحية، قام عالم الأنثروبولوجيا الرقمية غابرييل دي سيتا بتحليل الاستقبال الصيني لتقنية التزييف العميق، والتي تُعرف باسم هوانليان، والتي تُترجم إلى "تغيير الوجوه". لا يحتوي المصطلح الصيني على كلمة "مزيف" الموجودة في المصطلح الإنجليزي، ويزعم دي سيتا أن هذا السياق الثقافي قد يفسر سبب تركيز الاستجابة الصينية بشكل أكبر على الاستجابات التنظيمية العملية لـ "مخاطر الاحتيال، وحقوق الصورة، والربح الاقتصادي، واختلال التوازن الأخلاقي".[36]
أبحاث علوم الحاسوب حول التزييف العميق
كان من أبرز المشاريع المبكرة في هذا المجال برنامج إعادة كتابة الفيديو الذي نُشر عام 1997. وقد عُدلت فيه لقطات فيديو لشخص يتحدث لتصويره وهو ينطق كلمات مسار صوتي مختلف. [37] وكان أول نظام أتمتة هذا النوع من إعادة تنشيط الوجه بالكامل، وقد استخدم تقنيات التعلم الآلي لإيجاد صلات بين الأصوات التي يصدرها الشخص وشكل وجهه.[37]
ركزت المشاريع الأكاديمية اللاحقة على إنتاج مقاطع فيديو أكثر واقعية وتحسين التقنيات المستخدمة.[38][39] ومن الأمثلة على ذلك برنامج "توليف أوباما" الذي نُشر عام 2017، والذي عُدلت فيه لقطات فيديو للرئيس الأمريكي السابق باراك أوباما لتصويره وهو ينطق كلمات مسار صوتي آخر. [38] وقد اعتبر الباحثون أن المساهمة الرئيسية لهذا المشروع هي التقنية الواقعية التي استخدمها لتوليد حركات الشفاه من الصوت.[38] كما ظهر برنامج "وجه لوجه" (بالإنجليزية: Face2Face) عام 2016 والذي عُدلت فيه لقطات فيديو لوجه شخص ما لتصويره وهو يقلد تعبيرات وجه شخص آخر بشكل فوري.[39] وقد اعتبر الباحثون أن المساهمة الرئيسية لهذا المشروع هي إيجاد طريقة جديدة لإعادة تمثيل تعبيرات الوجه بشكل فوري باستخدام كاميرا لا تلتقط العمق، مما يجعل هذه التقنية متاحة للاستخدام مع الكاميرات الشائعة.[39]
في أغسطس 2018 نشر باحثون من جامعة كاليفورنيا في بيركلي بحثًا قدموا فيه تطبيقًا مبتكرًا لإنشاء رقصة وهمية، حيث يمكن للذكاء الاصطناعي أن يُوهم المشاهد بمهارة رقص عالية.[40] يوسع هذا المشروع نطاق تقنية التزييف العميق لتشمل الجسم بأكمله، على عكس الأعمال السابقة التي كانت تركز على الوجه أو أجزاء منه فقط.[41]
أظهر الباحثون كذلك أن تقنية التزييف العميق تتعدى ذلك لتصل إلى مجالات أخرى، مثل التلاعب بالصور الطبية.[42] في هذا السياق، بيّنوا كيف يمكن للمخترقين أن يقوموا بزرع أو حذف ورم رئوي بشكل آلي في فحص التصوير المقطعي المحوسب ثلاثي الأبعاد للمريض. كانت النتيجة محاكاة واقعية للغاية لدرجة أنها استطاعت تضليل ثلاثة أخصائيين في الأشعة والذكاء الاصطناعي متخصصين في اكتشاف سرطان الرئة. وللتأكيد على خطورة هذا التهديد، نفذ الباحثون هجومًا مماثلًا بنجاح على أحد المستشفيات في اختبار اختراق أخلاقي. [43]
أجرى استطلاع للرأي نُشر في مايو 2020 مسحًا زمنيًا لتطور تقنيات توليد المحتوى المزيف واكتشافه على مدى السنوات القليلة الماضية.[44] وقد حدد هذا الاستطلاع التحديات الجوهرية التي يواجهها الباحثون في هذا المجال، والتي يمكن تلخيصها فيما يلي:
- التعميم: تطوير نماذج قادرة على توليد محتوى مزيف بجودة عالية وباستخدام كمية بيانات تدريب أقل، مع القدرة على التعامل مع هويات جديدة.
- التدريب المقترن: التغلب على الصعوبات المرتبطة بإقران البيانات المطلوبة لتدريب النماذج، وذلك من خلال استخدام تقنيات مثل التدريب الذاتي الإشرافي أو الشبكات غير المقترنة.
- تسرب الهوية: معالجة مشكلة انتقال بعض خصائص "السائق" إلى الوجه الناتج، باستخدام تقنيات مثل آليات الانتباه وفك التشابك.
- الانسدادات: التعامل مع العقبات التي تسببها العناصر التي تحجب الوجه، مثل الأيدي أو النظارات، وذلك من خلال تقنيات مثل تجزئة الصور أثناء التدريب.
- التماسك الزمني: تحسين واقعية الفيديوهات المزيفة من خلال تضمين سياق الإطارات السابقة أو استخدام دالات خسارة مخصصة لتحقيق التماسك بين الإطارات.
بشكل عام، يتوقع الخبراء أن يكون لتقنية التزييف العميق آثار عميقة على مختلف المجالات، بما في ذلك: وسائل الإعلام، وإنتاج المحتوى الإعلامي، وتمثيل الأفراد في الإعلام، وجمهور الإعلام، والجنس، والقانون، والتنظيم، والسياسة. [45]
تطوير الهواة
نشأَ مصطلح التزييف العميق في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه ديب فايكس (بالإنجليزية: deepfakes).[46] قام هذا المستخدم وآخرون بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير؛[46] حيثُ قاموا مثلًا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجهَ الممثل الإباحي بوجهِ ممثل أمريكي مشهور. حقّقت تلك الفيديوهات نسب مشاهدات عاليّة كما تمّ تداولها على نطاقٍ كبيرٍ في مواقع التواصل كونها «مُتقنَة نوعًا ما» ومن الصعبِ معرفة ما إذا كانت مزيّفة أم لا وخاصّة الفيديو المزيّف للممثل الأمريكي نيكولاس كيج والذي كان «واقعيًا» وصدقهُ الكثير.[47] في كانون الأول/ديسمبر 2017؛ نشرت سامانثا كول مقالةً حول موضوع التزييف العَميق في مجلّة فيس ولفتت الانتباه فيها إلى الفيديوهات التي يتمّ مشاركتها على مواقع التواصل وكيفَ تُساهم في ترويج الأخبار الكاذبة أو المُزيّفة.[48]
بحلول شباط/فبراير 2018 وبعد أن كَثُر الحديث حول هذه التقنيّة قام موقع ريديت بحظر المُستخدم ديب فايكس (بالإنجليزية: deepfakes) بدعوى نشرهِ لمقاطع فيديو إباحية مزيّفة كما قامت باقي المواقع بحظرِ كل من يروّج لهذهِ التقنيّة بما في ذلك موقع التواصل الاجتماعي المُصغّر تويتر وكذا موقع بورن هاب الإباحي.[49] ومع ذلك؛ لا تزال هناك مجتمعات أخرى على الإنترنت – بما في ذلك مجتمعات ريديت – تعملُ على مشاركة الفيديوهات المصنوعة بهذهِ التقنيّة بل يقومُ بعضٌ من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعددٍ من المشاهير والسياسيين ولا تمّت للحقيقة بصلة،[50] في حين تُواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بعلمٍ أو بدونِ علم.[49]
التطوير التجاري
في يناير 2018؛ أُطلق برنامج فايك آب (بالإنجليزية: FakeApp) للحواسيب.[51] يسمحُ هذا البرنامج للمستخدمين بإنشاء ومشاركة مقاطع الفيديو بسهولة مع تغيير الوجوه،[52] حيثُ يستخدم شبكة عصبية اصطناعية وقوة معالج رسومات وثلاثة إلى أربعة جيجا بايت من مساحة التخزين لإنشاء الفيديو المزيف؛ وَللحصول على معلومات مفصلة يحتاج البرنامج إلى إدخال الكثير من المواد المرئية لنفسِ الشخص لمعرفة جوانب الصورة التي يجب تبادلها باستخدام خوارزمية التزييف العميق القائمة على تسلسل الفيديو والصور. يستخدم البرنامج عددًا من التقنيّات بما في ذلك تنسرفلو من جوجل كما يعتمدُ على خوارزميّة برنامج ديب دريم (بالإنجليزية: DeepDream).[53] بشكلٍ عام؛ يُعدّ المشاهير الموضوع الرئيسي لمقاطع الفيديو المزيفة هذه لعدّة أسباب من بينها سهولة جمع فيديوهات عنهم من النت على عكسِ الأشخاص العاديين.[54][55]
وقد بدأت الشركات الكبرى في استخدام تقنية التزييف العميق. [20] فمن الممكن الآن إنشاء مقاطع فيديو تدريبية للشركات باستخدام صور رمزية مزيفة وأصواتهم، مثلما تفعل شركة "سينثيسيا" التي تستخدم تقنية التزييف العميق مع الصور الرمزية لإنشاء مقاطع فيديو مخصصة. [56] كما أن الشركة المشغلة لتطبيق "مومو" للهواتف الذكية قد أنشأت تطبيقًا آخر يسمى "زاو" (بالإنجليزية: Zao) والذي يسمح للمستخدمين بفرض وجوههم على مقاطع تلفزيونية وأفلام بضغطة زر واحدة. [20] وأعلنت شركة "داتا غريد" اليابانية المتخصصة في الذكاء الاصطناعي تمكنها من إنشاء تزييف عميق للجسم بالكامل، مما يمكنه من توليد شخص كامل من الصفر. [57]
في عام 2020 ظهرت أيضًا مقاطع صوتية مزيفة،[58][59] وبرامج ذكاء اصطناعي قادرة على اكتشاف هذه المقاطع الصوتية المزيفة،[60][61] واستنساخ الأصوات البشرية بعد خمس ثوانٍ فقط من الاستماع إليها.[62][63] وتم إطلاق تطبيق "إمبريشنز" (بالإنجليزية: Impressions) للهواتف المحمولة والذي يتخصص في إنشاء مقاطع صوتية مزيفة في مارس 2020. وقد كان هذا التطبيق هو الأول من نوعه في مجال إنشاء مقاطع فيديو مزيفة للمشاهير من الهواتف المحمولة. [64][65]
هناك أيضًا بدائل مفتوحة المصدر لبرنامج فايك آب الأصلي مثلَ ديب فايس (بالإنجليزية: DeepFace)،[66] فايس سواب (بالإنجليزية: FaceSwap) المُستضاف حاليًا على غيت هاب،[67] وماي فايك آب (بالإنجليزية: myFakeApp) المستضاف حاليًا على موقع بيت باكيت.[68][69][70][71][72]
تجسيد الأموات
إن قدرة تقنية التزييف العميق على اختلاق رسائل وأفعال الآخرين قد امتدت لتشمل حتى الأفراد المتوفين. ففي 29 أكتوبر 2020، نشرت كيم كارداشيان مقطع فيديو يظهر تصوير تجسيمي لوالدها الراحل، روبرت كارداشيان، أنتجته شركة كاليدا، والتي استخدمت مزيجًا من الأداء وتتبع الحركة والمؤثرات الصوتية والبصرية وتقنيات التزييف العميق لخلق هذا الوهم. [73][74]
وفي عام 2020 تم إنشاء مقطع فيديو مزيف لخواكين أوليفر، ضحية إطلاق النار في باركلاند، كجزء من حملة سلامة الأسلحة. وقد تعاون والدا أوليفر مع منظمة "غيّر المرجع" غير الربحية و"ميكان هيلث" لإنتاج مقطع فيديو يشجع فيه أوليفر الناس على دعم تشريعات سلامة الأسلحة والسياسيين المؤيدين لها.[75]
وفي عام 2022 استُخدم مقطع فيديو مزيف لإلفيس بريسلي في برنامج "أمريكا غوت تالنت" في موسمه السابع عشر. [76] كما استخدم إعلان تلفزيوني مقطع فيديو مزيفًا لعضو فرقة البيتلزجون لينون الذي قُتل عام 1980. [77]
التقنيات
تعتمد تقنية التزييف العميق على نوع خاص من الشبكات العصبية يُعرف بالمشفر التلقائي.[78] تتألف هذه الشبكات من مرحلتين رئيسيتين: الأولى هي المشفر الذي يعمل على تقليص الصورة إلى تمثيل كامن ذي أبعاد أقل، والثانية هي فك التشفير الذي يقوم بإعادة بناء الصورة من هذا التمثيل الكامن.[79] تستغل تقنية التزييف العميق هذه البنية من خلال استخدام مشفر عالمي يقوم بتشفير وجه الشخص في هذا التمثيل الكامن.[بحاجة لمصدر] يحتوي هذا التمثيل الكامن على السمات الأساسية لملامح الوجه وحركة الجسم. يمكن بعد ذلك استخدام نموذج مدرب خصيصًا للشخص المستهدف لفك تشفير هذا التمثيل، مما يعني أن الملامح التفصيلية للشخص المستهدف ستُفرض على ملامح الوجه والجسم الأساسية للفيديو الأصلي الممثلة في التمثيل الكامن.[بحاجة لمصدر]
يشمل أحد التطويرات الشائعة لهذه البنية ربط شبكة توليدية تنافسية بمرحلة فك التشفير. تتكون شبكة تعلم الآلة العدائي من مولد، وهو في هذه الحالة مرحلة فك التشفير، ومميز يتنافسان مع بعضهما البعض. يقوم المولد بإنشاء صور جديدة من التمثيل الكامن للمادة المصدرية، بينما يحاول المميز تحديد ما إذا كانت الصورة حقيقية أم مزيفة.[بحاجة لمصدر] يؤدي هذا التنافس إلى تحسين قدرة المولد على إنشاء صور واقعية للغاية، حيث يتم اكتشاف أي عيوب من قبل المميز وتصحيحها باستمرار. [80] هذا التطور المتبادل بين المولد والمميز يجعل من الصعب مكافحة التزييف العميق، حيث أنه يتطور باستمرار؛ فكلما تم اكتشاف عيب جديد، يتم إيجاد حل له. [80]
التطبيقات
التمثيل
ظهرت في الأفلام من قبل نسخ رقمية لممثلين محترفين، ومن المتوقع أن يؤدي التقدم في تقنية التزييف العميق إلى زيادة إمكانية الوصول إلى هذه النسخ وتطوير فعاليتها.[81] وقد شكل استخدام تقنيات الذكاء الاصطناعي قضية رئيسية في إضراب نقابة ممثلي الشاشة ورابطة ممثلي الشاشة لعام 2023، حيث أتاحت التقنيات الحديثة إمكانية إنشاء وتخزين صور رقمية للاستعاضة عن الممثلين أنفسهم.[82]
حسنت شركة والت ديزني مؤثراتها البصرية بشكل ملحوظ من خلال اعتماد تقنية متطورة لتبديل الوجوه بدقة عالية. [83] وقد تمكنت ديزني من تطوير هذه التقنية من خلال تدريب خوارزمياتها بشكل متكرر لتحديد تعبيرات الوجه بدقة، ومن ثم تنفيذ عملية تبديل الوجوه وتكرارها لتحسين النتائج بشكل مستمر. [83] وتوفر هذه التقنية المبتكرة لتزييف الوجوه بدقة عالية وفورات كبيرة في التكاليف التشغيلية والإنتاجية. [84] إذ يستطيع نموذج ديزني لتوليد التزييف العميق إنتاج وسائط رقمية عالية الدقة بحجم 1024 × 1024 بكسل، مقارنة بالنماذج التقليدية التي تنتج وسائط بدقة أقل بكثير (256 × 256 بكسل). [84] وتتيح هذه التقنية لشركة ديزني إمكانية إزالة آثار الشيخوخة من الشخصيات أو حتى إحياء شخصيات ممثلين رحلوا عن عالمنا. [85] وقد سبق للمعجبين استخدام تقنيات مماثلة، وإن كانت بشكل غير رسمي، لإدراج وجوه شخصيات محببة في أعمال فنية موجودة، مثل إدراج وجه هاريسون فورد الشاب على وجه شخصية هان سولو في فيلم سولو: قصة من حرب النجوم. [86] كما استخدمت ديزني نفسها تقنية التزييف العميق في فيلم روج ون: قصة من حرب النجوم لإعادة ظهور شخصيتي الأميرة ليا وغراند موف تاركين. [87][88]
استعان الفيلم الوثائقي "أهلًا بكم في الشيشان" لعام 2020 بتقنية التزييف العميق لإخفاء هويات المشاركين في المقابلات، وذلك بهدف حمايتهم من الانتقام المحتمل. [89]
طورت وكالة "كرييتيف آرتيستس إيجنسي" مرفقًا لالتقاط صورة للممثل "في يوم واحد" بغرض تطوير نسخة رقمية منه، تخضع لسيطرة الممثل أو ورثته إلى جانب حقوق شخصيته الأخرى.[90]
شملت قائمة الشركات التي استخدمت نسخًا رقمية لممثلين محترفين في إعلاناتها كلًا من بوما ونايكي وبروكتر وغامبل.[91]
أتاح التزييف العميق إمكانية تصوير ديفيد بيكهام بعدة لغات بلغت قرابة التسع لغات، وذلك في حملة توعية مكافحة الملاريا. [92]
في فيلم الخيال العلمي الهندي التاميلي لعام 2024 الأعظم على مر العصور، تم تصوير النسخة المراهقة من شخصية فيجاي جيفان بواسطة أياز خان، ثم تم استخلاص وجه فيجاي المراهق من خلال تقنية التزييف العميق المعتمدة على الذكاء الاصطناعي.[93]
الفن
في مارس 2018 قدم الفنان المتعدد المواهب جوزيف إيرلي عملًا فنيًا بصرياً يحمل عنوان "العاطفة الأبدية 2.0". وقد ابتكر إيرلي شخصية افتراضية مستخدمًا تقنية التزييف العميق، وهي نسخة مُصطنعة من أورنيلا موتي النجمة السينمائية الإيطالية الشهيرة في الثمانينيات. هذه التقنية، التي تجد تطبيقات واسعة في مجالات التعليم والإعلام، تتيح إنتاج مقاطع فيديو واقعية ومحتوى تفاعلي، مما يفتح آفاقًا جديدة للتواصل مع الجماهير. ومع ذلك، فإن هذه التقنية تحمل في طياتها مخاطر، لا سيما في مجال نشر المعلومات المضللة، مما يستدعي ضرورة استخدامها بحذر ووضع ضوابط صارمة لها.
أشار معهد ماساتشوستس للتقانة إلى هذا العمل في دراسة حول "الحكمة الجماعية". [94] واستغل الفنان هذه القفزة الزمنية لشخصية أورنيلا موتي لاستكشاف الانعكاسات الثقافية بين الأجيال، كما طرح تساؤلات حول دور الاستفزاز في عالم الفن.[95] من الناحية التقنية، استخدم إيرلي لقطات لعارضة الأزياء كيندال جينر، ثم استبدل برنامج الحاسوب وجه جينر بوجه أورنيلا موتي المُنشأ باستخدام تقنيات الذكاء الاصطناعي. وبهذه الطريقة، حصلت الشخصية الافتراضية على وجه الممثلة الإيطالية وجسد عارضة الأزياء الأمريكية.
انتشرت تقنية التزييف العميق انتشارًا واسعًا في ميدان السخرية والتقليد، حيث استخدمت لمحاكاة المشاهير والسياسيين. ويمثل مسلسل "العدالة المتكبرة" (Sassy Justice) الذي أنتج عام 2020 على يد تري باركر ومات ستون مثالًا صارخًا على ذلك، إذ استخدم المسلسل شخصيات عامة مزيفة بشكل كبير للسخرية من الأحداث الجارية والتوعية بمخاطر تقنية التزييف العميق. [96]
الابتزاز
يمكن استغلال المواد المزيفة في ابتزاز افتراضي بهدف تشويه سمعة الأبرياء ظلماً. وقد حذر تقرير صادر عن مجلس البحوث التابع للكونغرس الأمريكي من احتمال استغلال هذه المواد لابتزاز المسؤولين المنتخبين أو أصحاب الولوج إلى معلومات سرية بغرض التجسس أو التأثير عليهم.[97]
بيد أن صعوبة التمييز بين الحقيقة والزيف قد مكّنت ضحايا الابتزاز الحقيقي من الادعاء بأن الأدلة المقدمة ضدهم مزيفة، مما يمنحهم حجة قوية للإنكار. ونتيجة لذلك، تضعف مصداقية مواد الابتزاز، ويقل بذلك تأثير المبتزين وتهديداتهم. ويمكن إطلاق تسمية "تضخم الابتزاز" على هذه الظاهرة، حيث يؤدي إلى تقليل قيمة الابتزاز الحقيقي وجعله عديم الجدوى.[98] ومن الجدير بالذكر أنه يمكن الاستعانة بوحدات معالجة الرسومات التجارية وبرامج بسيطة لتوليد كميات هائلة من محتوى الابتزاز المزيف لأي شخص، مما يؤدي إلى زيادة غير محدودة في إمدادات هذا النوع من المحتوى بطريقة سهلة وقابلة للتطوير.[99]
الترفيه
في يونيو 2022 تعاون دانييل إيميت، أحد المتسابقين السابقين في برنامج المواهب أمريكا غوت تالنت، مع شركة "ميتافيزيك إيه آي" الناشئة[100][101] لإنتاج مقطع فيديو مزيف بشكل واقعي شديد ليظهر وكأنه سايمون كاول. اشتهر كويل بنقده اللاذع للمتسابقين، [102] وفي هذا المقطع، بدا وكأنه على خشبة المسرح يغني أغنية "أنت الإلهام" لفرقة شيكاغو. وبينما كان إيميت يؤدي الأغنية على المسرح، ظهرت صورة سيمون كويل على الشاشة خلفه بتزامن مثالي.[103] وفي 30 أغسطس قلدت الشركة كل من سيمون كويل وهاوي مانديل وتيري كروز وهم يؤدون أغنيات الأوبرا على خشبة المسرح. [104] وقدمت في سبتمبر عرضًا بحيث ظهرت نسخة اصطناعية من إلفيس بريسلي في نهائيات برنامج المواهب الأمريكي.[105]
استُخدم مشروع الذكاء الاصطناعي "15.أيه آي" التابع لمعهد ماساتشوستس للتكنولوجيا في إنتاج محتوى لكثير من مستخدمي الإنترنت، وخاصة على منصات التواصل الاجتماعي.[106][107][108]
وفي عام 2023 دخلت فرقتا "أبا" وكيس في شراكة مع إندستريال لايت آند ماجيك و"بوبهاوس إنترتينمنت" لتطوير صور رمزية مزيفة قادرة على تقديم حفلات موسيقية افتراضية.[109]
الاحتيال والخداع
يستخدم المحتالون تقنية التزييف العميق لخداع الناس وإفرازهم في خطط الاستثمار الزائفة، والنزاهة المالية، والعملات الرقمية، وإرسال المال، واتباع التأييدات الزائفة. تم استخدام صور وأفعال شخصيات مشهورة وسياسيين لتنفيذ هذه الاحتيالات على نطاق واسع، بالإضافة إلى تلك الخاصة بالأفراد العاديين، التي تُستخدم في هجمات التصيد الاحتيالي. ووفقًا لمكتب الأعمال الأفضل، تزداد شعبية الاحتيالات التي تستخدم تقنية التزييف العميق. [110]
استُغِلَّت صور المشاهير بصورة مشينة في عمليات تأييد مزيفة، حيث حُوِّرت هوياتهم لخدمة أغراض احتيالية. فقد ظهرت مقاطع فيديو مزيفة لنجوم كبار مثل تايلور سويفت، [111][110] وتوم هانكس، [53] وأوبرا وينفري، [46] وإيلون ماسك، [49] بالإضافة إلى مذيعي أخبار بارزين مثل غايل كينغ، [53] وسالي بوندوك،[112] وحتى سياسيون أمثال لي هسين لونغ، [113] وجيم تشالمرز. [114][115] انتشرت هذه المقاطع المزيفة عبر منصات التواصل الاجتماعي مثل يوتيوب وفيسبوك وتيك توك، على الرغم من وجود سياسات صارمة في هذه المنصات تحظر المحتوى المزيف والمتلاعب به. [116][111][117] وقد حظيت هذه المقاطع بملايين المشاهدات، مما يشير إلى مدى انتشار هذه الظاهرة الخطيرة. [116][118]
تُستخدم تقنية التزييف العميق لعمليات احتيال مختلفة، مثل: تقديم هدايا زائفة من أدوات الطهي من لو كروسيه مقابل "رسوم شحن" دون تسليم المنتجات، إلا مع رسوم شهرية مخفية؛[111] حلويات إنقاص الوزن التي تُفرض تكاليف أكثر بكثير مما قيل؛ 19] هدايا مزيفة لهواتف آيفون؛ [111][117] ومخططات احتيالية للثراء السريع، [49][119] والاستثمار، [120] والعملات الرقمية.[113][121]
تُزود العديد من الإعلانات تقنية استنساخ الصوت بالذكاء الاصطناعي بـ"مقاطع فيديو منزوعة السياق لشخصيات مشهورة" لمحاكاة الأصالة. وتستخدم إعلانات أخرى مقطعًا كاملًا من فيديو لشخصية بارزة قبل الانتقال إلى ممثل أو صوت مختلف.[116] وقد تتضمن بعض الاحتيالات تقنيات التزييف العميق في الوقت الفعلي. [117]
يحذر المشاهير الناس من هذه التأييدات الزائفة ويحثونهم على توخي الحذر ضدها.[110][111] من غير المرجح أن يقوم المشاهير برفع دعاوى قضائية ضد كل شخص يستخدم تزييف عميق احتيالية، لأن "العثور على المستخدمين المجهولين لوسائل التواصل الاجتماعي ومقاضاتهم يتطلب موارد كثيفة"،[46] على الرغم من أن خطابات التوقف والكف الموجهة لشركات وسائل التواصل الاجتماعي تكون فعالة في إزالة الفيديوهات والإعلانات. [122]
تُستخدم تقنية التزييف العميق الصوتي كجزء من احتيالات الهندسة الاجتماعية، حيث تخدع الأشخاص ليظنوا أنهم يتلقون تعليمات من شخصية موثوق بها. [123] في عام 2019 تعرّض الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة لعملية احتيال عبر الهاتف، حيث طُلب منه تحويل مبلغ قدره 220 ألف يورو إلى حساب مصرفي في هنغاريا من قبل شخص استخدم تقنية التزييف العميق الصوتي لانتحال صوت الرئيس التنفيذي لشركة الأم. [124][125]
ابتداءً من عام 2023، أسهمت التطورات المتسارعة في تقنية التزييف العميق، والتي باتت قادرة على استنساخ صوت الفرد بدقة عالية من تسجيل صوتي لا يتجاوز بضع ثوانٍ أو حتى دقيقة واحدة، بالإضافة إلى ظهور أدوات متقدمة لتوليد النصوص، في تمكين عمليات الاحتيال الآلي التي تستهدف الضحايا من خلال استخدام نسخ رقمية مقنعة لأصدقاء أو أقارب الضحية. [126]
إخفاء الهوية
يمكن استغلال تقنيات التزييف العميقي الصوتية لإخفاء الهوية الحقيقية للمستخدم. ففي عالم الألعاب الإلكترونية على سبيل المثال، قد يرغب اللاعب في انتحال صوت شخصية اللعبة عند التفاعل مع اللاعبين الآخرين. كما يمكن للأفراد المعرضين للمضايقات، مثل النساء والأطفال، أن يستعينوا بـ "جلود الأصوات" هذه لإخفاء جنسهم أو أعمارهم. [127]
الميمات
شهد عام 2020 ظهور لقيفة إنترنت (ميمٍ إلكتروني) يستند إلى تقنيات التزييف العميقي، حيث تم إنتاج مقاطع فيديو لأشخاص يؤدون جوقة أغنية "باكا ميتاي" (بمعنى "أحمق للغاية") المستمدة من لعبة ياكوزا زيرو ضمن سلسلة ألعاب الفيديو ياكوزا . في اللعبة الأصلية، يؤدي اللاعب هذه الأغنية الحزينة في لعبة كاراوكيمصغرة. وقد استخدمت معظم نسخ هذا الميم مقطع فيديو عام 2017 نشره المستخدم "دوبسيرول"، والذي قام بمزامنة الأغنية مع حركاته الشفوية، كقالب أساسي. [128][129]
السياسة
استُخدمت تقنيّة التزييف العميق لتشويه صورة بعض السياسيين المعروفين فعلى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيو ماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بوجه دونالد ترامب.[110][130][131][132] في أبريل 2018؛ نشرَ جوردان بيل وبزفيد فيديو على شكلِ إعلان خدمة عامّة يظهرُ فيه الرئيس الأمريكي السابق باراك أوباما وهوَ يتحدث حولَ خطر التزييف العميق. [133][134] وفي كانون الثاني/يناير 2019، بثت شبكة فوكس التلفزيونية هي الأخرى فيديو مصنوع بتقنيّة التزييف العميق «بنيّة حسنة» للرئيس ترامب خلال خطابه في المكتب البيضاوي. [135]
في يونيو 2019، عقدت لجنة الاستخبارات بمجلس النواب الأمريكي جلسات استماع بشأن الاستخدام الخبيث المحتمل لمقاطع الفيديو المزيفة للتأثير على الانتخابات.[136]
في أبريل 2020 نشر الفرع البلجيكي لحركة تمرد ضد الانقراض مقطع فيديو مزيف عميق على منصة فيسبوك، يظهر فيه رئيسة الوزراء البلجيكية صوفي ويلميس. وقد روّج هذا الفيديو لوجود صلة محتملة بين ظاهرة إزالة الغابات وظهور فيروس كورونا المستجد لعام 2019. وقد حقق هذا الفيديو انتشارًا واسعًا. وعلى صفحة فيسبوك التي نشر فيها هذا الفيديو، اعتقد الكثير من المستخدمين أن هذا المقطع مصور بشكل حقيقي، ولم يدركوا أنه من صنع تقنيات التزييف العميق. [137]
شهدت الحملة الرئاسية الأمريكية لعام 2020 انتشارًا واسعًا للمقاطع المزيفة التي زعمت إصابة جو بايدن بتدهور معرفي، حيث صورته هذه المقاطع وهو ينام أثناء المقابلات، أو يضل طريقه، أو يخطئ في التعبير عن أفكاره، الأمر الذي ساهم في تعزيز الشائعات المتعلقة بتدهور حالته الصحية. [138][139]
خلال الحملة الانتخابية للجمعية التشريعية في دلهي لعام 2020، لجأ حزب بهاراتيا جاناتا في دلهي إلى استخدام تقنية متطورة لتوزيع نسخة معدلة من إعلان انتخابي باللغة الإنجليزية لمانوج تيواري، حيث تم ترجمته إلى لغة هاريانا لتوجيه رسالة مباشرة إلى الناخبين المنحدرين من ولاية هاريانا. وقد تم الاستعانة بممثل لتوفير التعليق الصوتي، ثم تم توظيف تقنيات الذكاء الاصطناعي المدربة على مقاطع فيديو سابقة لخطب تيواري لمزامنة الفيديو مع التعليق الصوتي الجديد. وقد وصف أحد أعضاء الطاقم الحزبي هذا الإجراء بأنه "استخدام إيجابي" لتقنية التزييف العميق، حيث أتاحت لهم الفرصة "للتواصل بشكل مقنع مع شريحة واسعة من الجمهور المستهدف، حتى وإن لم يكن المرشح يتحدث لغة الناخبين". [140]
في عام 2020 أنتج برونو سارتوري مقاطع تزييف عميقة تسخر من سياسيين مثل جايير بولسونارو ودونالد ترامب. [141]
في أبريل من عام 2021، قام شخصان محتالان، يُعرفان باسم فوفان ولكزس ويُتهمَان بالعمل لصالح الدولة الروسية، بالتواصل مع عدد من السياسيين الأوروبيين،[142][143] مُنتحلَين شخصية ليونيد فولكوف، السياسي الروسي المعارض ورئيس أركان حملة أليكسي نافالني، زعيم المعارضة الروسية. وقد تم ذلك باستخدام تقنية التزييف العميق، كما جاء في مصادر متعددة. [144][145] مع ذلك، نفى الثنائي في تصريحات لصحيفة ذا فيرج استخدامهما لتقنية التزييف العميق، مدعيين أنهما استعانا بشخص يشبه فولكوف في المظهر فقط. [146]
في مايو 2023 انتشر مقطع فيديو مزيف لنائبة الرئيس كامالا هاريس على وسائل التواصل الاجتماعي، حيث يزعم أنها تتلعثم في كلماتها وتتحدث بشكل لا معنى له عن اليوم والغد والأمس. [147][148] وفي يونيو 2023 استخدمت الحملة الرئاسية لرون دي سانتيس تقنية التزييف العميق لتحريف صورة دونالد ترامب. [149]
في مارس 2024 شهدت الانتخابات التشريعية في الهند استخدامًا واسع النطاق لتقنية التزييف العميق من قِبل المرشحين السياسيين بهدف الوصول إلى شريحة أوسع من الناخبين. وقد لجأ العديد من هؤلاء المرشحين إلى استغلال تقنيات التزييف العميق المدعومة بالذكاء الاصطناعي والتي ابتكرتها شركة هندية ناشئة تُعرف باسم "ذا إنديان ديب فيكر" أسسها ديفيندرا سينغ جادون، [150] وذلك لترجمة خطاباتهم السياسية إلى لغات إقليمية متعددة، مما أتاح لهم التواصل بفاعلية مع مختلف المجتمعات اللغوية المنتشرة في أرجاء البلاد. وقد شكل هذا الارتفاع في استخدام تقنية التزييف العميق في الحملات الانتخابية تحولًا جذريًا في أساليب الدعاية السياسية في الهند. [151][152]
الإباحية
ظهرت المواد الإباحية المُنتَجة عبر تقنيّة التزييف العميق على الإنترنت في عام 2017 ولا سيما على موقع ريديت،[153] لكنّ هذا الأخير قام بحظرها ونفس الأمر فعلهُ موقعي تويتر وبورن هاب.[154][155][156] في خريف عام 2017؛ نشر مستخدم مجهولٌ على موقع ريديت العديد من مقاطع الفيديو الإباحية المُنتجة بتلك التقنيّة وتُعدّ الممثلة ديزي ريدلي أوّل من لفتت الانتباه إلى حساب ذاك المستخدم وما يقومُ به فتبيّن فيما بعد أنّه ذو خِبرة في مجال صناعة مثل هذه الفيديوهات حيثُ كان قد نشرَ مقطعًا إباحيًا مزيفًا تظهرُ فيه عارضة الأزياء الإسرائيلية غال غادوت وهي تُمارس الجنس مع شقيق زوجها كما نشرَ فيديوهات إباحية أخرى مزيّفة لكل من إيما واتسون، كيتي بيري، تايلور سويفت وَسكارليت جوهانسون. كلّ المشاهد لم تكن حقيقية بالطبع؛ حيثُ تمّ إنشاؤها عبر الذكاء الاصطناعي وقد تمّ اكتشافها بعد وقتٍ قصيرٍ من قِبل خُبراء في مجال علوم الكمبيوتر.
مع مرور الوقت؛ قامَ مجتمع ريديت بإصلاح العديد من الأخطاء في مقاطع الفيديو المزيفة ما جعلَ من الصعبِ اكتشافها أو التمييز بينها وبينَ المحتوى الحقيقي. في المُقابل حاول آخرون تطوير برامج تقومُ بجمعِ الفيديوهات والصور الحقيقيّة على النت وتخزنها كبيانات من أجل التدريب على التمييز بين المحتوى الوهمي والمحتوى الحقيقي. جديرٌ بالذكر هنا أنّ القسم الفني والعلمي في مجال فيس هو أول من أبلغَ عن هذه الظاهرة لأوّل مرة في كانون الأول/ديسمبر 2017 فقامت باقي وسائل الإعلام الأخرى بتغطية الموضوع.[157][111]
تحدثت سكارليت جوهانسون علنًا عن موضوع التزييف العميق خِلال مقابلة لها معَ واشنطن بوست في كانون الأول/ديسمبر من عام 2018 حيثُ أعربت عن قلقها إزاء هذه «الظاهرة» ووصفت عالمَ الإنترنت بأنهُ «ثقبٌ كبيرٌ من الظلام يأكل نفسه». ومع ذلك؛ قالت سكارليت أيضًا بأنها لن تحاول إزالة أي من الفيديوهات خاصتها المُنشئة بهذه التقنيّة نظرًا لاعتقادها أنها لا تؤثر على صورتها العامة وأن القوانين في مختلف البلدان وطبيعة ثقافة الإنترنت تَجعل أيّ محاولة لإزالة هذا النوع من المُحتوى «قضية فاشلة»؛ كما استرسلت: «نحنُ معشر المشاهير نحظى بحمايةٍ بسببِ شهرتنا لكنّ قضية التزييف العميق قد تؤثر وبشكلٍ كبيرٍ على النساء ذوات الشهرة الأقل والذي يمكن أن تتعرض سمعتهنّ للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أو شيء من هذا القَبيل.[158]»
وسائل التواصل الاجتماعي
بدأت تقنية التزييف العميق تنتشر انتشارًا واسعًا على منصات التواصل الاجتماعي، وبرز تطبيق "زاو" الصيني مثالًا واضحًا على ذلك. فقد أتاح هذا التطبيق للمستخدمين استبدال وجوههم بوجوه شخصيات مشهورة في أعمال فنية كلاسيكية ومعاصرة مثل روميو وجولييت وصراع العروش، مما أثار جدلًا واسعًا حول خصوصية البيانات واستخدام هذه التقنية.[159] ورغم أن الشركة المطورة للتطبيق زعمت لاحقًا أنها ستراجع سياستها حيال هذا الشأن، إلا أن المخاوف ظلت قائمة.[20]
وفي سياق متصل، أعلنت شركة فيسبوك عن اتخاذها تدابير جديدة لمواجهة التزييف العميق على منصاتها، وذلك في يناير من عام 2020.[160] كما أشارت دائرة أبحاث الكونجرس إلى أدلة غير مباشرة تشير إلى استخدام أجهزة استخبارات أجنبية لتقنية التزييف العميق في إنشاء حسابات وهمية على وسائل التواصل الاجتماعي بهدف تجنيد أفراد ذوي صلة بمعلومات حساسة. [97]
وفي تطور مثير للاهتمام، انتشرت على منصة تيك توك في عام 2021 مقاطع فيديو واقعية مزيفة للممثل توم كروز، حصدت ملايين المشاهدات. وقد تمكن فنان المؤثرات البصرية البلجيكي كريس أومي من إنشاء نسخة طبق الأصل للممثل باستخدام تقنيات الذكاء الاصطناعي، ظهرت فيها شخصية كروز وهي تقوم بأنشطة يومية مختلفة.[161] وقد أبدى أومي اهتمامًا كبيرًا بتقنية التزييف العميق منذ عام 2018، مؤكدًا على إمكاناتها الإبداعية الواسعة.[162][163]
الحسابات الوهمية
يمكن استخدام صور التزييف العميق لإنشاء شخصيات وهمية، يتفاعلون على الإنترنت وفي وسائل الإعلام التقليدية. ويبدو أن صورة تزييف عميق قد صُنعت مع قصة لشخص غير موجود يدعى أوليفر تايلور، وُصِف بأنه طالب جامعي في المملكة المتحدة. وقد قدمت شخصية أوليفر تايلور مقالات رأي في العديد من الصحف، وكانت نشطة على وسائل الإعلام الإلكترونية حيث هاجمت أكاديميًا قانونيًا بريطانيًا وزوجته، ووصفتهما بأنهما "متعاطفان مع الإرهابيين". وقد لفت الأكاديمي الانتباه الدولي في عام 2018 عندما رفع دعوى قضائية في إسرائيل ضد شركة إن إس أو، وهي شركة مراقبة، نيابة عن أشخاص في المكسيك زعموا أنهم ضحايا لتقنية قرصنة الهواتف التابعة للشركة. ولم تتمكن رويترز من العثور إلا على سجلات قليلة لأوليفر تايلور، ولم تجد جامعته أي سجلات عنه. واتفق العديد من الخبراء على أن الصورة الشخصية هي صورة تزييف عميق. ولم تسحب العديد من الصحف المقالات المنسوبة إليه أو تزيلها من مواقعها الإلكترونية. ويخشى أن تكون هذه التقنيات ساحة معركة جديدة في التضليل. [164]
نُشرت صور مزيفة لأشخاص غير موجودين على صفحة "الربيع الصهيوني" على فيسبوك كجزء من الدعاية الحزبية الإسرائيلية. تضمنت الصور شهادات تزعم تخلي أصحابها عن سياساتهم اليسارية لتبني اليمينية، مع منشورات من بنيامين نتنياهو ومصادر يمينية. تم إنشاء الصور باستخدام تقنية "تركيب الصور البشرية"، وروّجت محطات التلفزيون اليمينية لهذه الشهادات رغم عدم وجود أصحابها، مبررة ذلك بأن الأصل غير مهم. كما زُعم وجود تحريض ضد رئيس الوزراء، الذي اشتكى من مؤامرة تستهدفه. [165][166]
المخاوف والتدابير المضادة
رغم شيوع الصور المزيفة منذ أمد بعيد، كان تزوير الأفلام أكثر تعقيدًا، إلا أن ظهور تقنية التزييف العميق قد زاد من صعوبة تمييز مقاطع الفيديو الحقيقية عن المزيفة.[131] وقد حذر الباحث في مجال الذكاء الاصطناعي أليكس شامباندارد من سرعة إفساد هذه التقنية للأشياء، مؤكدًا أن المشكلة ليست تقنية بقدر ما هي مشكلة تتعلق بالثقة في المعلومات والصحافة.[131] ومن جانبه، أكد أستاذ علوم الحاسوب هاو لي من جامعة جنوب كاليفورنيا أن استخدام التزييف العميق لأغراض ضارة، كالترويج للأخبار الزائفة، سيؤدي إلى عواقب وخيمة إن لم يتم توعية الناس بهذه التقنية.[167] وتوقع لي أن يصبح التمييز بين مقاطع الفيديو الأصلية والمزيفة مستحيلًا خلال نصف عام من أكتوبر 2019، وذلك بسبب التقدم السريع في مجالي الذكاء الاصطناعي والرسومات الحاسوبية.[167] كما وصف شومان غوسيماجومدار، أحد كبار مسؤولي مكافحة الاحتيال في جوجل، تقنية التزييف العميق بأنها مصدر قلق مجتمعي، متوقعًا أن تتطور هذه التقنية لدرجة تمكن أي فرد من إنتاج ملايين مقاطع الفيديو المزيفة تلقائيًا. [168]
المصداقية
إنّ الفشل في التمييز بين الفيديو المزيّف والآخر الحقيقي قد يؤثر بشكلٍ كبيرٍ جدًا على كل الفيديوهات المنشورة على الويب كما سيخلق الكثير من الجدل عندَ نشر كل فيديو حتى لو كانَ صحيحًا. في هذا السياق؛ يقولُ الباحث في الذكاء الاصطناعى أليكس شامباندارد «إنه يجب على كل شخص أن يعرفَ أن المشكلة ليست مشكلة تقنية بقدرِ ما هي مُشكلة ثقة في المعلومات التي تُقدّمها وسائل الإعلام وَالصحافة.» ويُواصل: «المشكلة الأساسية هي أن الإنسانية يمكن أن تقع في عصرٍ لم يعد فيهِ من الممكن تحديد ما إذا كان محتوى صورة أو فيديو ما حقيقيًا أم لا![110]»
التشهير
تُتيح تقنية التزييف العميق إمكانية الإضرار بالكيانات الفردية بشكل بالغ. [169] ذلك أن هذه التقنية غالبًا ما تستهدف فردًا بعينه، أو علاقاته بالآخرين، بهدف نسج سردية قوية بما يكفي لتأثير على الرأي العام أو المعتقدات. ويمكن تحقيق ذلك من خلال ما يُعرف بالتصيد الصوتي بتقنية التزييف العميق، والذي يتلاعب بالصوت لإنتاج مكالمات هاتفية أو محادثات مزيفة.[169] وهناك أسلوب آخر لاستخدام هذه التقنية يتمثل في التعليقات الخاصة المصطنعة، التي تتلاعب بالوسائط لنقل تعليقات ضارة إلى أفراد بعينهم. [169] ولا يشترط أن تكون جودة الفيديو أو الصوت السلبي عالية جدًّا. فما دام بالإمكان التعرف على مظهر شخص ما وأفعاله، فإن تقنية التزييف العميق قد تضر بسمعته. [127]
وفي سبتمبر من عام 2020، أعلنت شركة مايكروسوفت عن عملها على تطوير أداة برمجية للكشف عن تقنية التزييف العميق. [170]
الكشف
الصوت
تُعد مهمة كشف الصوت المزيف مهمة بالغة التعقيد تتطلب تركيزًا شديدًا على إشارات الصوت لتحقيق نتائج مرضية. وقد أثبتت الدراسات أن الاستعانة بالتعلم العميق ومعالجة البيانات الأولية لتصميم الميزات وتقليل الضوضاء يسهم بشكل كبير في رفع كفاءة أنظمة الكشف. [171]
الفيديو
الوقاية
الجدل
الانتهاكات
يقول الخبير في علوم الكمبيوتر آرجوير زيتونغ (بالإنجليزية: Aargauer Zeitung) أن التلاعب بالصور ومقاطع الفيديو باستخدام الذكاء الاصطناعي يُمكن أن يصبح ظاهرة جماعية خطيرة. ومع ذلك؛ فإن هذا التخوّف هو نفسه الذي شعرَ به الكل حينما ظهرت للوجود برامج تحرير الفيديو وبرامج تحرير الصور.[110] بشكلٍ عام؛ تبقى قُدرة البشر على التمييز بين الفيديو المزوّر والآخر الحقيقي هي العامِل الأهم في التأثير إيجابيًا أم سلبيًا على هذه التقنيّة.[172][173]
ردود الفعل على الإنترنت
أعلنت بعض مواقع الويب مثلَ تويتر وجي إف واي كات أنها ستحذف المحتوى المصنوع عبر تقنيّة التزييف العميق كما ستحظر ناشر مثل هذا النوع من المُحتوى. في السابق؛ منعت منصة الدردشة ديسكورد تداول وتبادل مقاطع الفيديو الإباحية المشهورة المزيفة ونفس الأمر فعلهُ الموقع الإباحي بورن هاب ومع ذلك؛ فقد أفيد أن الموقع لم يقم بحظرٍ شامل لهذا المحتوى.[174][175] أمّا في رديت فقد ظل الوضع في البداية غير واضح حتى 7 شباط/فبراير 2018 عندما بدأَ الموقع في حظر كل من ينشر أو يتبادل تلك النوعيّة من الفيديوهات بدعوى خرق سياسة الموقع.[111][176][177][178] وَفي سبتمبر 2018؛ أضافَ موقع جوجل «الصور الإباحية الاصطناعية» لقائمة النتائج الممنوعة من الظهور.[179]
الأحداث النموذجية
الردود
منصات وسائل التواصل الاجتماعي
التشريعات
رد وكالة DARPA
اللجنة الدولية لبيئة المعلومات
في الثقافة الشعبية
انظر أيضًا
ملاحظات
المراجع
- ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 62، QID:Q111421033
- ^ Brandon, John (16 Feb 2018). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (بالإنجليزية). Archived from the original on 2018-06-15. Retrieved 2018-02-20.
- ^ Brandon، John (16 فبراير 2018). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News. مؤرشف من الأصل في 2018-06-15. اطلع عليه بتاريخ 2018-02-20.
- ^ Schwartz, Oscar (12 Nov 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (بالإنجليزية). Archived from the original on 2019-06-16. Retrieved 2018-11-14.
- ^ Kalpokas, Ignas; Kalpokiene, Julija (2022). Deepfakes (بالإنجليزية). Springer Cham. pp. 1–2. DOI:10.1007/978-3-030-93802-4. ISBN:978-3-030-93801-7. Retrieved 2024-11-23.
- ^ Juefei-Xu، Felix؛ Wang، Run؛ Huang، Yihao؛ Guo، Qing؛ Ma، Lei؛ Liu، Yang (01 يوليو 2022). "Countering Malicious DeepFakes: Survey, Battleground, and Horizon". International Journal of Computer Vision. ج. 130 ع. 7: 1678–1734. DOI:10.1007/s11263-022-01606-8. ISSN:1573-1405. PMC:9066404. PMID:35528632. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-07-15.
- ^ ا ب ج Kietzmann، J.؛ Lee، L. W.؛ McCarthy، I. P.؛ Kietzmann، T. C. (2020). "Deepfakes: Trick or treat?" (pdf). Business Horizons. ج. 63 ع. 2: 135–146. DOI:10.1016/j.bushor.2019.11.006. S2CID:213818098. مؤرشف (PDF) من الأصل في 2022-12-29. اطلع عليه بتاريخ 2022-12-30.
- ^ Waldrop، M. Mitchell (16 مارس 2020). "Synthetic media: The real trouble with deepfakes". Knowable Magazine. Annual Reviews. DOI:10.1146/knowable-031320-1. مؤرشف من الأصل في 2022-11-19. اطلع عليه بتاريخ 2022-12-19.
- ^ Schwartz، Oscar (12 نوفمبر 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian. مؤرشف من الأصل في 2019-06-16. اطلع عليه بتاريخ 2018-11-14.
- ^ Schreyer، Marco؛ Sattarov، Timur؛ Reimer، Bernd؛ Borth، Damian (أكتوبر 2019). "Adversarial Learning of Deepfakes in Accounting". arXiv:1910.03810 [cs.LG].
{{استشهاد بأرخايف}}
: الوسيط|arxiv=
مطلوب (مساعدة) - ^ Caramancion، Kevin Matthe (21 أبريل 2021). "The Demographic Profile Most at Risk of being Disinformed". 2021 IEEE International IOT, Electronics and Mechatronics Conference (IEMTRONICS). IEEE. ص. 1–7. DOI:10.1109/iemtronics52119.2021.9422597. ISBN:978-1-6654-4067-7. S2CID:234499888. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-11-23.
- ^ Christian، Jon. "Experts fear face swapping tech could start an international showdown". The Outline. مؤرشف من الأصل في 2020-01-16. اطلع عليه بتاريخ 2018-02-28.
- ^ Roose، Kevin (04 مارس 2018). "Here Come the Fake Videos, Too". The New York Times. ISSN:0362-4331. مؤرشف من الأصل في 2019-06-18. اطلع عليه بتاريخ 2018-03-24.
- ^ Farid، Hany (15 سبتمبر 2019). "Image Forensics". Annual Review of Vision Science. ج. 5 ع. 1: 549–573. DOI:10.1146/annurev-vision-091718-014827. ISSN:2374-4642. PMID:31525144. S2CID:263558880. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-09-20.
- ^ Banks، Alec (20 فبراير 2018). "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety. مؤرشف من الأصل في 2021-07-14. اطلع عليه بتاريخ 2018-02-20.
- ^ "Experts fear face swapping tech could start an international showdown". The Outline (بالإنجليزية). Archived from the original on 2019-04-10. Retrieved 2018-02-28.
- ^ Roose, Kevin (04 Mar 2018). "Here Come the Fake Videos, Too". The New York Times (بالإنجليزية). ISSN:0362-4331. Archived from the original on 2019-06-18. Retrieved 2018-03-24.
- ^ Harwell، Drew (12 يونيو 2019). "Top AI researchers race to detect 'deepfake' videos: 'We are outgunned'". The Washington Post. مؤرشف من الأصل في 2019-10-31. اطلع عليه بتاريخ 2019-11-08.
- ^ Sanchez، Julian (8 فبراير 2018). "Thanks to AI, the future of 'fake news' is being pioneered in homemade porn". NBC News. مؤرشف من الأصل في 2019-11-09. اطلع عليه بتاريخ 2019-11-08.
- ^ ا ب ج د Porter، Jon (02 سبتمبر 2019). "Another convincing deepfake app goes viral prompting immediate privacy backlash". The Verge. مؤرشف من الأصل في 2019-09-03. اطلع عليه بتاريخ 2019-11-08.
- ^ Bregler، Christoph؛ Covell، Michele؛ Slaney، Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. ج. 24: 353–360. مؤرشف من الأصل في 2020-05-19 – عبر ACM Digital Library.
- ^ Suwajanakorn، Supasorn؛ Seitz، Steven M.؛ Kemelmacher-Shlizerman، Ira (يوليو 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. ج. 36.4: 95:1–95:13. مؤرشف من الأصل في 2020-05-19 – عبر ACM Digital Library.
- ^ Thies، Justus؛ Zollhöfer، Michael؛ Stamminger، Marc؛ Theobalt، Christian؛ Nießner، Matthias (يونيو 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". IEEE: 2387–2395. DOI:10.1109/CVPR.2016.262. ISBN:9781467388511. مؤرشف من الأصل في 2019-08-24.
- ^ Bode، Lisa؛ Lees، Dominic؛ Golding، Dan (29 يوليو 2021). "The Digital Face and Deepfakes on Screen". Convergence: The International Journal of Research into New Media Technologies. ج. 27 ع. 4: 849–854. DOI:10.1177/13548565211034044. ISSN:1354-8565. S2CID:237402465. اطلع عليه بتاريخ 2024-11-23.
- ^ ا ب Holliday، Christopher (26 يوليو 2021). "Rewriting the stars: Surface tensions and gender troubles in the online media production of digital deepfakes". Convergence: The International Journal of Research into New Media Technologies. ج. 27 ع. 4: 899–918. DOI:10.1177/13548565211029412. ISSN:1354-8565. S2CID:237402548. اطلع عليه بتاريخ 2024-11-23.
- ^ Gingrich، Oliver M. (05 يوليو 2021). "GENDER*UCK: Reframing gender & media art". Proceedings of EVA London 2021 (EVA 2021). Electronic Workshops in Computing. DOI:10.14236/ewic/EVA2021.25. S2CID:236918199. اطلع عليه بتاريخ 2024-11-23.
- ^ Fletcher، John (2018). "Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance". Theatre Journal. ج. 70 ع. 4: 455–471. DOI:10.1353/tj.2018.0097. ISSN:1086-332X. S2CID:191988083. اطلع عليه بتاريخ 2024-11-23.
- ^ Öhman، Carl (01 يونيو 2020). "Introducing the pervert's dilemma: a contribution to the critique of Deepfake Pornography". Ethics and Information Technology. ج. 22 ع. 2: 133–140. DOI:10.1007/s10676-019-09522-1. ISSN:1572-8439. S2CID:208145457. اطلع عليه بتاريخ 2024-11-23.
- ^ van der Nagel، Emily (01 أكتوبر 2020). "Verifying images: deepfakes, control, and consent". Porn Studies. ج. 7 ع. 4: 424–429. DOI:10.1080/23268743.2020.1741434. ISSN:2326-8743. S2CID:242891792. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-02-09.
- ^ Fallis، Don (01 ديسمبر 2021). "The Epistemic Threat of Deepfakes". Philosophy & Technology. ج. 34 ع. 4: 623–643. DOI:10.1007/s13347-020-00419-2. ISSN:2210-5433. PMC:7406872. PMID:32837868. اطلع عليه بتاريخ 2024-11-23.
- ^ Chesney، Robert؛ Citron، Danielle Keats (2018). "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security". SSRN Electronic Journal. DOI:10.2139/ssrn.3213954. ISSN:1556-5068. مؤرشف من الأصل في 2019-12-21. اطلع عليه بتاريخ 2022-02-09.
- ^ Yadlin-Segal، Aya؛ Oppenheim، Yael (فبراير 2021). "Whose dystopia is it anyway? Deepfakes and social media regulation". Convergence: The International Journal of Research into New Media Technologies. ج. 27 ع. 1: 36–51. DOI:10.1177/1354856520923963. ISSN:1354-8565. S2CID:219438536. مؤرشف من الأصل في 2022-02-09. اطلع عليه بتاريخ 2022-02-09.
- ^ Hwang، Yoori؛ Ryu، Ji Youn؛ Jeong، Se-Hoon (01 مارس 2021). "Effects of Disinformation Using Deepfake: The Protective Effect of Media Literacy Education". Cyberpsychology, Behavior, and Social Networking. ج. 24 ع. 3: 188–193. DOI:10.1089/cyber.2020.0174. ISSN:2152-2715. PMID:33646021. S2CID:232078561. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-02-09.
- ^ Hight، Craig (12 نوفمبر 2021). "Deepfakes and documentary practice in an age of misinformation". Continuum. ج. 36 ع. 3: 393–410. DOI:10.1080/10304312.2021.2003756. ISSN:1030-4312. S2CID:244092288. مؤرشف من الأصل في 2022-02-09. اطلع عليه بتاريخ 2022-02-09.
- ^ Hancock، Jeffrey T.؛ Bailenson، Jeremy N. (01 مارس 2021). "The Social Impact of Deepfakes". Cyberpsychology, Behavior, and Social Networking. ج. 24 ع. 3: 149–152. DOI:10.1089/cyber.2021.29208.jth. ISSN:2152-2715. PMID:33760669. S2CID:232356146. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-02-09.
- ^ de Seta، Gabriele (30 يوليو 2021). "Huanlian, or changing faces: Deepfakes on Chinese digital media platforms". Convergence: The International Journal of Research into New Media Technologies. ج. 27 ع. 4: 935–953. DOI:10.1177/13548565211030185. hdl:11250/2833613. ISSN:1354-8565. S2CID:237402447. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-02-09.
- ^ ا ب Bregler، Christoph؛ Covell، Michele؛ Slaney، Malcolm (1997). "Video Rewrite: Driving visual speech with audio". Proceedings of the 24th annual conference on Computer graphics and interactive techniques – SIGGRAPH '97. ج. 24. ص. 353–360. DOI:10.1145/258734.258880. ISBN:0897918967. S2CID:2341707. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-11-23.
- ^ ا ب ج Suwajanakorn، Supasorn؛ Seitz، Steven M.؛ Kemelmacher-Shlizerman، Ira (يوليو 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. ج. 36 ع. 4: 95:1–95:13. DOI:10.1145/3072959.3073640. S2CID:207586187. مؤرشف من الأصل في 2020-05-19. اطلع عليه بتاريخ 2023-07-10.
- ^ ا ب ج Thies، Justus؛ Zollhöfer، Michael؛ Stamminger، Marc؛ Theobalt، Christian؛ Nießner، Matthias (يونيو 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. ص. 2387–2395. arXiv:2007.14808. DOI:10.1109/CVPR.2016.262. ISBN:9781467388511. S2CID:206593693. اطلع عليه بتاريخ 2024-11-23.
- ^ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. مؤرشف من الأصل في 2019-05-17. اطلع عليه بتاريخ 2018-08-27.
- ^ Farquhar، Peter (27 أغسطس 2018). "An AI program will soon be here to help your deepface dancing – just don't call it deepfake". Business Insider Australia. مؤرشف من الأصل في 2019-04-10. اطلع عليه بتاريخ 2018-08-27.
- ^ Mirsky، Yisroel؛ Mahler، Tom؛ Shelef، Ilan؛ Elovici، Yuval (2019). CT-GAN: Malicious Tampering of 3D Medical Imagery using Deep Learning. ص. 461–478. arXiv:1901.03597. ISBN:978-1-939133-06-9. مؤرشف من الأصل في 2020-06-20. اطلع عليه بتاريخ 2020-06-18.
- ^ O'Neill، Patrick Howell (03 أبريل 2019). "Researchers Demonstrate Malware That Can Trick Doctors Into Misdiagnosing Cancer". Gizmodo. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-06-03.
- ^ Mirsky، Yisroel؛ Lee، Wenke (12 مايو 2020). "The Creation and Detection of Deepfakes: A Survey". ACM Computing Surveys. arXiv:2004.11138. DOI:10.1145/3425780. S2CID:216080410. اطلع عليه بتاريخ 2024-11-23.
- ^ Karnouskos، Stamatis (2020). "Artificial Intelligence in Digital Media: The Era of Deepfakes" (pdf). IEEE Transactions on Technology and Society. ج. 1 ع. 3: 1. DOI:10.1109/TTS.2020.3001312. S2CID:221716206. مؤرشف (PDF) من الأصل في 2021-07-14. اطلع عليه بتاريخ 2020-07-09.
- ^ ا ب ج د Cole، Samantha (24 يناير 2018). "We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now". Vice. مؤرشف من الأصل في 2019-09-07. اطلع عليه بتاريخ 2019-05-04. وسم
<ref>
غير صالح؛ الاسم ":3" معرف أكثر من مرة بمحتويات مختلفة. - ^ Haysom، Sam (31 يناير 2018). "People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018". Mashable. مؤرشف من الأصل في 2019-07-24. اطلع عليه بتاريخ 2019-04-04.
- ^ Cole، Samantha (11 ديسمبر 2017). "AI-Assisted Fake Porn Is Here and We're All Fucked". Vice. مؤرشف من الأصل في 2019-09-07. اطلع عليه بتاريخ 2018-12-19.
- ^ ا ب ج د Hathaway، Jay (8 فبراير 2018). "Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban". The Daily Dot. مؤرشف من الأصل في 2019-07-06. اطلع عليه بتاريخ 2018-12-22. وسم
<ref>
غير صالح؛ الاسم ":4" معرف أكثر من مرة بمحتويات مختلفة. - ^ "r/SFWdeepfakes". Reddit. مؤرشف من الأصل في 2019-08-09. اطلع عليه بتاريخ 2018-12-12.
- ^ "What is a Deepfake and How Are They Made?". Online Tech Tips. 23 مايو 2019. مؤرشف من الأصل في 2019-11-08. اطلع عليه بتاريخ 2019-11-08.
- ^ Robertson، Adi (11 فبراير 2018). "I'm using AI to face-swap Elon Musk and Jeff Bezos, and I'm really bad at it". The Verge. مؤرشف من الأصل في 2018-03-24. اطلع عليه بتاريخ 2019-11-08.
- ^ ا ب ج Britta Bauchmüller، "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!، Berliner-Kurier.de، مؤرشف من الأصل في 2019-08-28، اطلع عليه بتاريخ 2024-11-24 وسم
<ref>
غير صالح؛ الاسم ":2" معرف أكثر من مرة بمحتويات مختلفة. - ^ Eike Kühl (26 يناير 2018)، Künstliche Intelligenz: Auf Fake News folgt Fake Porn، Die Zeit، ISSN:0044-2070، مؤرشف من الأصل في 2019-05-24، اطلع عليه بتاريخ 2024-11-24
- ^ heise online، "Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien"، heise online، مؤرشف من الأصل في 2019-12-12، اطلع عليه بتاريخ 2024-11-24
- ^ Chandler، Simon. "Why Deepfakes Are A Net Positive For Humanity". Forbes. مؤرشف من الأصل في 2020-11-16. اطلع عليه بتاريخ 2020-11-03.
- ^ Pangburn، D. J. (21 سبتمبر 2019). "You've been warned: Full body deepfakes are the next step in AI-based human mimicry". Fast Company. مؤرشف من الأصل في 2019-11-08. اطلع عليه بتاريخ 2019-11-08.
- ^ Lyons، Kim (29 يناير 2020). "FTC says the tech behind audio deepfakes is getting better". The Verge. مؤرشف من الأصل في 2020-01-30. اطلع عليه بتاريخ 2020-02-08.
- ^ "Audio samples from "Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis"". google.github.io. مؤرشف من الأصل في 2019-11-14. اطلع عليه بتاريخ 2020-02-08.
- ^ Jia، Ye؛ Zhang، Yu؛ Weiss، Ron J.؛ Wang، Quan؛ Shen، Jonathan؛ Ren، Fei؛ Chen، Zhifeng؛ Nguyen، Patrick؛ Pang، Ruoming؛ Moreno، Ignacio Lopez؛ Wu، Yonghui (2 يناير 2019). "Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis". arXiv:1806.04558 [cs.CL].
{{استشهاد بأرخايف}}
: الوسيط|arxiv=
مطلوب (مساعدة) - ^ "TUM Visual Computing: Prof. Matthias Nießner". www.niessnerlab.org. مؤرشف من الأصل في 2020-02-21. اطلع عليه بتاريخ 2020-02-08.
- ^ "Full Page Reload". IEEE Spectrum: Technology, Engineering, and Science News. 11 ديسمبر 2019. مؤرشف من الأصل في 2020-06-26. اطلع عليه بتاريخ 2020-02-08.
- ^ "Contributing Data to Deepfake Detection Research". Google Research, Brain Team. 24 سبتمبر 2019. مؤرشف من الأصل في 2020-02-05. اطلع عليه بتاريخ 2020-02-08.
- ^ Thalen، Mikael. "You can now deepfake yourself into a celebrity with just a few clicks". daily dot. مؤرشف من الأصل في 2020-04-06. اطلع عليه بتاريخ 2020-04-03.
- ^ Matthews، Zane (6 مارس 2020). "Fun or Fear: Deepfake App Puts Celebrity Faces In Your Selfies". Kool1079. مؤرشف من الأصل في 2020-03-24. اطلع عليه بتاريخ 2020-03-06.
- ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". غيت هاب. 19 يونيو 2019. مؤرشف من الأصل في 2019-05-09. اطلع عليه بتاريخ 2024-11-24.
- ^ "Build software better, together". GitHub. مؤرشف من الأصل في 2019-06-20. اطلع عليه بتاريخ 2024-11-24.
- ^ "Bitbucket". bitbucket.org. مؤرشف من الأصل في 2019-04-10. اطلع عليه بتاريخ 2024-11-24.
- ^ Fiske، Tormod. "Imagining Deceptive Deepfakes" (PDF). www.duo.uio.no. مؤرشف من الأصل (PDF) في 2019-03-07. اطلع عليه بتاريخ 2019-06-19.
- ^ "Deepfakes web | The best online faceswap app". Deepfakes web. مؤرشف من الأصل في 2021-07-14. اطلع عليه بتاريخ 2021-02-21.
- ^ "Faceswap is the leading free and Open Source multi-platform Deepfakes software". 15 أكتوبر 2019. مؤرشف من الأصل في 2021-05-31. اطلع عليه بتاريخ 2021-07-14 – عبر WordPress.
- ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". غيت هاب. 19 يونيو 2019. مؤرشف من الأصل في 2019-05-09. اطلع عليه بتاريخ 2019-03-06 – عبر GitHub.
- ^ "Kanye West, Kim Kardashian and her dad: Should we make holograms of the dead?". BBC News. 31 أكتوبر 2020. مؤرشف من الأصل في 2020-11-15. اطلع عليه بتاريخ 2020-11-11.
- ^ "Kanye West Gave Kim Kardashian a Hologram of Her Father for Her Birthday". themodems. 30 أكتوبر 2020. مؤرشف من الأصل في 2020-11-11. اطلع عليه بتاريخ 2020-11-11.
- ^ "Parkland victim Joaquin Oliver comes back to life in heartbreaking plea to voters". adage.com. 02 أكتوبر 2020. مؤرشف من الأصل في 2020-11-11. اطلع عليه بتاريخ 2020-11-11.
- ^ Bowenbank، Starr (14 سبتمبر 2022). "Simon Cowell Duets With Elvis in Metaphysic's Latest Deepfake 'AGT' Performance: Watch". Billboard. مؤرشف من الأصل في 2022-09-15. اطلع عليه بتاريخ 2022-11-08.
- ^ "John Lennon 'One Laptop per Child' Commecial". يوتيوب. 26 ديسمبر 2008. مؤرشف من الأصل في 2023-03-09. اطلع عليه بتاريخ 2023-03-09.
- ^ Zucconi، Alan (14 مارس 2018). "Understanding the Technology Behind DeepFakes". Alan Zucconi. مؤرشف من الأصل في 2019-11-01. اطلع عليه بتاريخ 2019-11-08.
- ^ "What is a Deepfake?". Blog - Synthesys. 03 مايو 2022. مؤرشف من الأصل في 2022-06-26. اطلع عليه بتاريخ 2022-05-17.
- ^ ا ب "These New Tricks Can Outsmart Deepfake Videos—for Now". Wired. ISSN:1059-1028. مؤرشف من الأصل في 2019-10-03. اطلع عليه بتاريخ 2019-11-09.
- ^ Kemp، Luke (08 يوليو 2019). "In the age of deepfakes, could virtual actors put humans out of business?". The Guardian. ISSN:0261-3077. مؤرشف من الأصل في 2019-10-20. اطلع عليه بتاريخ 2019-10-20.
- ^ Verma، Pranshu (21 يوليو 2023). "Digital clones made by AI tech could make Hollywood extras obsolete". Washington Post. مؤرشف من الأصل في 2023-07-20. اطلع عليه بتاريخ 2024-01-04.
- ^ ا ب "High-Resolution Neural Face Swapping for Visual Effects | Disney Research Studios". مؤرشف من الأصل في 2020-11-27. اطلع عليه بتاريخ 2020-10-07.
- ^ ا ب "Disney's deepfake technology could be used in film and TV". Blooloop. 21 يوليو 2020. مؤرشف من الأصل في 2020-11-12. اطلع عليه بتاريخ 2020-10-07.
- ^ Lindley، Jon A. (02 يوليو 2020). "Disney Ventures Into Bringing Back 'Dead Actors' Through Facial Recognition". Tech Times. مؤرشف من الأصل في 2021-07-14. اطلع عليه بتاريخ 2020-10-07.
- ^ Radulovic، Petrana (17 أكتوبر 2018). "Harrison Ford is the star of Solo: A Star Wars Story thanks to deepfake technology". Polygon. مؤرشف من الأصل في 2019-10-20. اطلع عليه بتاريخ 2019-10-20.
- ^ Winick، Erin. "How acting as Carrie Fisher's puppet made a career for Rogue One's Princess Leia". MIT Technology Review. مؤرشف من الأصل في 2019-10-23. اطلع عليه بتاريخ 2019-10-20.
- ^ "Deepfake Luke Skywalker is another step down a ghoulish CGI path". British GQ. 10 فبراير 2022. مؤرشف من الأصل في 2022-05-22. اطلع عليه بتاريخ 2022-06-03.
- ^ Dazed (10 فبراير 2022). "Will deepfakes rewrite history as we know it?". Dazed. مؤرشف من الأصل في 2022-06-08. اطلع عليه بتاريخ 2022-06-03.
- ^ Schwartzel، Erich (21 ديسمبر 2023). "Behind the Making of My AI Digital Double". Wall Street Journal. مؤرشف من الأصل في 2024-01-06. اطلع عليه بتاريخ 2024-01-04.
- ^ Coffee، Patrick (18 يونيو 2023). "Celebrities Use AI to Take Control of Their Own Images". Wall Street Journal. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-04.
- ^ Prescott, Katie Prescott (23 Aug 2024). "The man who creates fake people – like David Beckham speaking nine languages". ذا تايمز (بالإنجليزية). Retrieved 2024-10-22.
- ^ "Not Vijay, Here's Who Played the Younger Version of Him in The GOAT". english.tupaki.com/ (بالإنجليزية). 08 Sep 2024. Retrieved 2024-11-08.
- ^ https://web.archive.org/web/20200304015015/https://wip.mitpress.mit.edu/pub/collective-wisdom-part-6. مؤرشف من الأصل في 2020-03-04. اطلع عليه بتاريخ 2024-11-23.
{{استشهاد ويب}}
: الوسيط|title=
غير موجود أو فارغ (مساعدة) - ^ "ANSA | Ornella Muti in cortometraggio a Firenze". Agenzia ANSA. 3 نوفمبر 2017. مؤرشف من الأصل في 2020-02-27. اطلع عليه بتاريخ 2020-02-27.
- ^ "'South Park' creators launch new deepfake satire series 'Sassy Justice'". NME. 27 أكتوبر 2020. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-06-07.
- ^ ا ب Tayler، Kelley M.؛ Harris، Laurie A. (8 يونيو 2021). Deep Fakes and National Security (Report). Congressional Research Service. ص. 1. مؤرشف من الأصل في 2022-06-14. اطلع عليه بتاريخ 2021-07-19.
- ^ Limberg، Peter (24 مايو 2020). "Blackmail Inflation". CultState. مؤرشف من الأصل في 2021-01-24. اطلع عليه بتاريخ 2021-01-18.
- ^ "For Kappy". Telegraph. 24 مايو 2020. مؤرشف من الأصل في 2021-01-24. اطلع عليه بتاريخ 2021-01-18.
- ^ Marr، Bernard. "Can A Metaverse AI Win America's Got Talent? (And What That Means For The Industry)". Forbes. مؤرشف من الأصل في 2022-08-30. اطلع عليه بتاريخ 2022-08-30.
- ^ Morales، Jowi (10 يونيو 2022). "Deepfakes Go Mainstream: How Metaphysic's AGT Entry Will Impact Entertainment". MUO. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-08-29.
- ^ Carter، Rebecca (01 يونيو 2019). "BGT viewers slam Simon Cowell for 'rude' and 'nasty' remark to contestant". Entertainment Daily. مؤرشف من الأصل في 2022-08-31. اطلع عليه بتاريخ 2022-08-31.
- ^ "Simon Cowell Sings on Stage?! Metaphysic Will Leave You Speechless | AGT 2022"، i24News English، مؤرشف من الأصل في 2022-08-29، اطلع عليه بتاريخ 2022-08-29
- ^ Segarra، Edward. "'AGT' judges Simon Cowell, Howie Mandel get 'deepfake' treatment by AI act Metaphysic: Watch here". USA TODAY. مؤرشف من الأصل في 2022-08-31. اطلع عليه بتاريخ 2022-08-31.
- ^ Bowenbank، Starr (14 سبتمبر 2022). "Simon Cowell Duets With Elvis in Metaphysic's Latest Deepfake 'AGT' Performance: Watch". Billboard. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-09-15.
- ^ Zwiezen، Zack (18 يناير 2021). "Website Lets You Make GLaDOS Say Whatever You Want". كوتاكو. مؤرشف من الأصل في 2021-01-17. اطلع عليه بتاريخ 2021-01-18.
- ^ Ruppert، Liana (18 يناير 2021). "Make Portal's GLaDOS And Other Beloved Characters Say The Weirdest Things With This App". غيم إنفورمر. مؤرشف من الأصل في 2021-01-18. اطلع عليه بتاريخ 2021-01-18.
- ^ Clayton، Natalie (19 يناير 2021). "Make the cast of TF2 recite old memes with this AI text-to-speech tool". بي سي غيمر. مؤرشف من الأصل في 2021-01-19. اطلع عليه بتاريخ 2021-01-19.
- ^ Sherman، Maria (3 ديسمبر 2023). "Kiss say farewell to live touring, become first US band to go virtual and become digital avatars". AP News. Associated Press. مؤرشف من الأصل في 2024-01-01. اطلع عليه بتاريخ 2024-01-04.
- ^ ا ب ج د ه و Cerullo، Megan (9 يناير 2024). "AI-generated ads using Taylor Swift's likeness dupe fans with fake Le Creuset giveaway". سي بي إس نيوز. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10. وسم
<ref>
غير صالح؛ الاسم ":0" معرف أكثر من مرة بمحتويات مختلفة. - ^ ا ب ج د ه و ز Hsu، Tiffany؛ Lu، Yiwen (9 يناير 2024). "No, That's Not Taylor Swift Peddling Le Creuset Cookware". نيويورك تايمز. ص. B1. اطلع عليه بتاريخ 2024-01-10. وسم
<ref>
غير صالح؛ الاسم ":1" معرف أكثر من مرة بمحتويات مختلفة. - ^ Gerken، Tom (4 أكتوبر 2023). "MrBeast and BBC stars used in deepfake scam videos". بي بي سي نيوز. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-10.
- ^ ا ب Lim، Kimberly (29 ديسمبر 2023). "Singapore PM Lee warns of 'very convincing' deepfakes 'spreading disinformation' after fake video of him emerges". جريدة جنوب الصين الصباحية. مؤرشف من الأصل في 2024-01-09. اطلع عليه بتاريخ 2024-01-10.
- ^ Taylor، Josh (30 نوفمبر 2023). "Scammer paid Facebook 7c per view to circulate video of deepfake Jim Chalmers and Gina Rinehart". الغارديان. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-10.
- ^ Palmer، Joseph Olbrycht (14 ديسمبر 2023). "Deepfake of Australian treasury, central bank officials used to promote investment scam". وكالة فرانس برس. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
- ^ ا ب ج Koebler، Jason (9 يناير 2024). "Deepfaked Celebrity Ads Promoting Medicare Scams Run Rampant on YouTube". 404 Media. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
- ^ ا ب ج Rosenblatt، Kalhan (3 أكتوبر 2023). "MrBeast calls TikTok ad showing an AI version of him a 'scam'". إن بي سي نيوز. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
- ^ Koebler، Jason (25 يناير 2024). "YouTube Deletes 1,000 Videos of Celebrity AI Scam Ads". 404 Media. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-02-02.
- ^ Bucci، Nino (27 نوفمبر 2023). "Dick Smith criticises Facebook after scammers circulate deepfake video ad". الغارديان. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-10.
- ^ Lomas، Natasha (7 يوليو 2023). "Martin Lewis warns over 'first' deepfake video scam ad circulating on Facebook". تك كرانش. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
- ^ Lopatto، Elizabeth (3 يناير 2024). "Fun new deepfake consequence: more convincing crypto scams". ذا فيرج. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
- ^ Spoto، Maia؛ Poritz، Isaiah (11 أكتوبر 2023). "MrBeast, Tom Hanks Stung by AI Scams as Law Rushes to Keep Pace". Bloomberg Law. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
- ^ Statt، Nick (5 سبتمبر 2019). "Thieves are now using AI deepfakes to trick companies into sending them money". The Verge. مؤرشف من الأصل في 2019-09-15. اطلع عليه بتاريخ 2019-09-13.
- ^ Damiani، Jesse. "A Voice Deepfake Was Used To Scam A CEO Out Of $243,000". Forbes. مؤرشف من الأصل في 2019-09-14. اطلع عليه بتاريخ 2019-11-09.
- ^ "Deepfakes, explained". MIT Sloan. 5 مارس 2024. مؤرشف من الأصل في 2024-03-05. اطلع عليه بتاريخ 2024-03-06.
- ^ Schwartz، Christopher؛ Wright، Matthew (17 مارس 2023). "Voice deepfakes are calling – here's what they are and how to avoid getting scammed". The Conversation. مؤرشف من الأصل في 2024-01-04. اطلع عليه بتاريخ 2024-01-04.
- ^ ا ب Somers، Meredith (21 يوليو 2020). "Deepfakes, explained". MIT Sloan. مؤرشف من الأصل في 2024-03-05. اطلع عليه بتاريخ 2024-03-06.
- ^ C، Kim (22 أغسطس 2020). "Coffin Dance and More: The Music Memes of 2020 So Far". Music Times. مؤرشف من الأصل في 2021-06-26. اطلع عليه بتاريخ 2020-08-26.
- ^ Sholihyn، Ilyas (7 أغسطس 2020). "Someone deepfaked Singapore's politicians to lip-sync that Japanese meme song". AsiaOne. مؤرشف من الأصل في 2020-09-03. اطلع عليه بتاريخ 2020-08-26.
- ^ Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل في 2018-09-09.
- ^ ا ب ج "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 03 فبراير 2018. مؤرشف من الأصل في 2019-04-13. اطلع عليه بتاريخ 2018-04-09.
- ^ Gensing، Patrick. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل في 2018-10-11. اطلع عليه بتاريخ 2018-04-09.
- ^ Romano، Aja (18 أبريل 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 2019-06-11. اطلع عليه بتاريخ 2018-09-10.
- ^ Romano، Aja (18 أبريل 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 2019-06-11. اطلع عليه بتاريخ 2018-09-10.
- ^ Swenson, Kyle (11 Jan 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (بالإنجليزية). Archived from the original on 2019-04-15. Retrieved 2019-01-11.
- ^ O'Sullivan، Donie (4 يونيو 2019). "Congress to investigate deepfakes as doctored Pelosi video causes stir". CNN. مؤرشف من الأصل في 2019-06-29. اطلع عليه بتاريخ 2019-11-09.
- ^ Holubowicz, Gerald (15 Apr 2020). "Extinction Rebellion s'empare des deepfakes". Journalism.design (بالفرنسية). Archived from the original on 2020-07-29. Retrieved 2020-04-21.
- ^ Carnahan، Dustin (16 سبتمبر 2020). "Faked videos shore up false beliefs about Biden's mental health". The Conversation. مؤرشف من الأصل في 2022-04-09. اطلع عليه بتاريخ 2022-04-09.
- ^ Parker، Ashley (07 سبتمبر 2020). "Trump and allies ramp up efforts to spread disinformation and fake news". The Independent. اطلع عليه بتاريخ 2022-04-09.
- ^ Christopher، Nilesh (18 فبراير 2020). "We've Just Seen the First Use of Deepfakes in an Indian Election Campaign". Vice. مؤرشف من الأصل في 2020-02-19. اطلع عليه بتاريخ 2020-02-19.
- ^ "Amabie: the mythical creature making a coronavirus comeback". The Economist. 28 أبريل 2020. ISSN:0013-0613. مؤرشف من الأصل في 2021-05-20. اطلع عليه بتاريخ 2021-06-03.
- ^ Roth، Andrew (22 أبريل 2021). "European MPs targeted by deepfake video calls imitating Russian opposition". الغارديان. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-29.
- ^ Ivanov، Maxim؛ Rothrock، Kevin (22 أبريل 2021). "Hello, this is Leonid Volkov* Using deepfake video and posing as Navalny's right-hand man, Russian pranksters fool Latvian politicians and journalists into invitation and TV interview". Meduza. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-29.
- ^ "Dutch MPs in video conference with deep fake imitation of Navalny's Chief of Staff". nltimes.nl. 24 أبريل 2021. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-03-29.
- ^ "'Deepfake' Navalny Aide Targets European Lawmakers". موسكو تايمز. 23 أبريل 2021. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-29.
- ^ Vincent، James (30 أبريل 2021). "'Deepfake' that supposedly fooled European politicians was just a look-alike, say pranksters". ذا فيرج. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-29.
- ^ Novak، Matt (8 مايو 2023). "Viral Video Of Kamala Harris Speaking Gibberish Is Actually A Deepfake". Forbes. مؤرشف من الأصل في 2023-07-18. اطلع عليه بتاريخ 2023-07-18.
- ^ "PolitiFact - Kamala Harris wasn't slurring about today, yesterday or tomorrow. This video is altered". Politifact. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-07-18.
- ^ Shuham، Matt (08 يونيو 2023). "DeSantis Campaign Ad Shows Fake AI Images Of Trump Hugging Fauci". HuffPost. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-06-08.
- ^ "AI Deepfakes Pose Major Threat to Elections in US and India". The Washington Post. ISSN:0190-8286. مؤرشف من الأصل في 2024-05-20. اطلع عليه بتاريخ 2024-10-22.
- ^ Christopher، Nilesh (مارس 2024). "Indian Voters Are Being Bombarded With Millions of Deepfakes. Political Candidates Approve". Wired. مؤرشف من الأصل في 2024-03-12. اطلع عليه بتاريخ 2024-10-20.
- ^ "What an Indian Deepfaker Tells Us About Global Election Security". Bloomberg. مؤرشف من الأصل في 2024-04-01. اطلع عليه بتاريخ 2024-10-20.
- ^ Roettgers, Janko (21 Feb 2018). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (بالإنجليزية الأمريكية). Archived from the original on 2019-06-10. Retrieved 2018-02-28.
- ^ "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (بالإنجليزية). Archived from the original on 2019-04-10. Retrieved 2018-02-20.
- ^ Kharpal، Arjun (8 فبراير 2018). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. مؤرشف من الأصل في 2019-04-10. اطلع عليه بتاريخ 2018-02-20.
- ^ "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (بالإنجليزية). Archived from the original on 2019-04-10. Retrieved 2018-02-20.
- ^ AI-Assisted Fake Porn Is Here and We’re All Fucked، Motherboard، 11 ديسمبر 2017، مؤرشف من الأصل في 2019-05-05
- ^ "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'". The Washington Post. 31 ديسمبر 2018. مؤرشف من الأصل في 2019-06-13. اطلع عليه بتاريخ 2019-06-19.
- ^ Damiani، Jesse. "Chinese Deepfake App Zao Goes Viral, Faces Immediate Criticism Over User Data And Security Policy". Forbes. مؤرشف من الأصل في 2019-09-14. اطلع عليه بتاريخ 2019-11-18.
- ^ "Ahead of Irish and US elections, Facebook announces new measures against 'deepfake' videos". Independent.ie. 7 يناير 2020. مؤرشف من الأصل في 2020-01-08. اطلع عليه بتاريخ 2020-01-07.
- ^ "How Belgian visual expert Chris Ume masterminded Tom Cruise's deepfakes". The Statesman. 06 مارس 2021. مؤرشف من الأصل في 2022-08-24. اطلع عليه بتاريخ 2022-08-24.
- ^ Metz، Rachel. "How a deepfake Tom Cruise on TikTok turned into a very real AI company". CNN. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-03-17.
- ^ Corcoran، Mark؛ Henry، Matt (23 يونيو 2021). "This is not Tom Cruise. That's what has security experts so worried". ABC News. مؤرشف من الأصل في 2022-03-28. اطلع عليه بتاريخ 2022-03-28.
- ^ "Deepfake Used to Attack Activist Couple Shows New Disinformation Frontier". Reuters. مؤرشف من الأصل في 2020-09-26. اطلع عليه بتاريخ 2024-11-23.
- ^ ""'Leftists for Bibi'? Deepfake Pro-Netanyahu Propaganda Exposed: According to a Series of Facebook Posts, the Israeli Prime Minister is Winning over Left-Wing Followers--Except that None of the People in Question Exist"". +972 Magazine. مؤرشف من الأصل في 2020-08-14. اطلع عليه بتاريخ 2024-11-23.
- ^ "הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית". مؤرشف من الأصل في 2020-08-18. اطلع عليه بتاريخ 2024-11-23.
- ^ ا ب "Perfect Deepfake Tech Could Arrive Sooner Than Expected". www.wbur.org. 2 أكتوبر 2019. مؤرشف من الأصل في 2019-10-30. اطلع عليه بتاريخ 2019-11-09.
- ^ Sonnemaker، Tyler. "As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring". Business Insider. مؤرشف من الأصل في 2021-04-14. اطلع عليه بتاريخ 2021-04-14.
- ^ ا ب ج Bateman، Jon (2020). "Summary". Deepfakes and Synthetic Media in the Financial System: 1–2. مؤرشف من الأصل في 2021-04-20. اطلع عليه بتاريخ 2020-10-28.
- ^ Kelion، Leo (سبتمبر 2020). "Deepfake detection tool unveiled by Microsoft". BBC News. مؤرشف من الأصل في 2021-04-14. اطلع عليه بتاريخ 2021-04-15.
- ^ Cohen، Ariel؛ Rimon، Inbal؛ Aflalo، Eran؛ Permuter، Haim H. (يونيو 2022). "A study on data augmentation in voice anti-spoofing". Speech Communication. ج. 141: 56–67. arXiv:2110.10491. DOI:10.1016/j.specom.2022.04.005. S2CID:239050551. اطلع عليه بتاريخ 2024-11-23.
- ^ Künstliche Intelligenz: Selfies sind eine gute Quelle، Die Zeit، 26 يناير 2018، ISSN:0044-2070، مؤرشف من الأصل في 2019-05-25
- ^ „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?، WILDE BEUGER SOLMECKE Rechtsanwälte، 2 فبراير 2018، مؤرشف من الأصل في 2019-04-13
- ^ "Pornhub hasn't been actively enforcing its deepfake ban". Engadget (بالإنجليزية الأمريكية). Archived from the original on 2019-04-10. Retrieved 2018-04-21.
- ^ "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed (بالإنجليزية). Archived from the original on 2018-06-20. Retrieved 2018-04-21.
- ^ barbara.wimmer، Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos، مؤرشف من الأصل في 2018-02-08
- ^ heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn". مؤرشف من الأصل في 2019-04-10.
- ^ "Reddit verbannt Deepfake-Pornos". مؤرشف من الأصل في 2019-04-10.
- ^ Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". مؤرشف من الأصل في 2019-06-14.