انتقل إلى المحتوى

تزييف عميق

من ويكيبيديا، الموسوعة الحرة

التزييف العميق[1] (بالإنجليزية: Deepfake)‏[ا][3] هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.[4][5]

على الرغم من أن إنشاء المحتوى الزائف ليس ظاهرة جديدة، فإن التزييف العميق يتميز باستخدام أدوات وتقنيات التعلم الآلي والذكاء الاصطناعي، [6][7][8] بما في ذلك خوارزميات التعرف على الوجه والشبكات العصبية الاصطناعية مثل المشفرات التلقائية التباينية (VAEs) والشبكات التوليدية التنافسية (GANs).[7][7] وفي المقابل، يعمل مجال الطب الشرعي الرقمي على تطوير تقنيات للكشف عن الصور المعدلة.[9]

كما أثار الأكاديميون مخاوف بشأن احتمالية استخدام التزييف العميق للترويج للمعلومات المضللة وخطاب الكراهية والتدخل في الانتخابات. وقد استجابت صناعة تكنولوجيا المعلومات والحكومات لهذه المخاوف بتقديم توصيات للكشف عن هذه التقنية والحد من استخدامها.[10][11]

استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير،[12][13] كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة،[14][15] ومُحاولة خدع القُرّاء والانتقام الاباحي.[16][17]

التاريخ

[عدل]
صورة للممثلة سيدني سويني تم إنشاؤها بواسطة ستيبل ديفيوجن

طُورت تقنيات التلاعب بالصور في القرن التاسع عشر، وسرعان ما وجدت طريقها إلى عالم السينما. وشهدت هذه التقنيات تطورًا تدريجيًا على مدار القرن العشرين، قبل أن تشهد تسارعًا ملحوظًا مع ظهور الفيديو الرقمي.

أما تقنية التزييف العميق، فقد بدأت تظهر في أبحاث المؤسسات الأكاديمية منذ تسعينيات القرن العشرين، ثم تبعها الهواة في المجتمعات الرقمية عبر الإنترنت.[18][19] وفي الآونة الأخيرة، تبنت الصناعة هذه التقنيات واستخدمتها على نطاق واسع.[20]

لقد حدث تطويرٌ كبيرٌ لهذه التقنيّة على مستويينِ؛ الأول أكاديمي وقانوني نوعًا ما والثاني غير قانوني حيثُ يقومُ فيهِ مبرمجون هواة بعمليات التطوير لا غير.

البحث الأكاديمي

[عدل]

يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبيّة وهو حقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي بحيثُ يركز على معالجة الكمبيوتر للصور ومقاطع الفيديو الرقمية بشكلٍ آلي. يُعدّ برنامج فيديو ريرايت (بالإنجليزية: Video Rewrite)‏ الذي صدرَ في عام 1997 أوّل معالم هذه القنية حيثُ قام بتعديل فيديو لشخصٍ يتحدث في موضوع مُعيّن إلى فيديو لنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياقٍ مختلف لتكوين جملٍ جديدة لم يقلها الشخص في الفيديو أصلًا.[21]

ركّزت المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديو أكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. بحلول عام 2017؛ ظهر للوجود برنامجُ سانثيسيزينغ أوباما (بالإنجليزية: Synthesizing Obama)‏ الذي نشرَ فيديو للرئيس الأمريكي السابق باراك أوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهو ما لم يفعلهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الكلمات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الفيديو الوهميّ الجديد.[22] عَرفت هذه التقنية تطورًا إضافيًا بعد ظهور برنامج فايس تو فايس (بالإنجليزية: Face2Face)‏ الذي صدرَ عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه شخص في فيديو قديم مُحولًا إيّاها إلى تعبيرات جديدة حسبَ رغبة المستخدم.[23]

مناهج العلوم الاجتماعية والإنسانية في التعامل مع التزييف العميق

[عدل]

في دراسات السينما، تكشف تقنيات التزييف العميق عن الوجه البشري ككيان مركزي للتناقض في العصر الرقمي.[24] وقد استغل فنانو السينما هذه التقنيات لإعادة صياغة تاريخ السينما بطريقة مرحة، وذلك بإعادة مزج الأفلام الكلاسيكية مع وجوه نجوم جدد.[25] وبدوره، يحلل الناقد السينمائي كريستوفر هوليداي كيف يؤدي استبدال جنس وعرق الممثلين في مشاهد سينمائية مألوفة إلى زعزعة ثوابت التصنيفات الجنسية.[25] كما نجد أن فكرة "تحويل" التزييف العميق إلى انحراف قد حظيت باهتمام أوليفر م. جينجريتش في تحليله للأعمال الفنية الإعلامية التي تستغل التزييف العميق لإعادة تشكيل الجنس.[26] ومن الأمثلة على ذلك عمل الفنان البريطاني جيك إلويس زيزي: تحويل مجموعة البيانات إلى شاذة، والذي يستخدم تقنيات التزييف العميق لملكات السحب في لعبة جندرية متعمدة. وبالتوازي مع ذلك، بدأ الباحثون في استكشاف الأبعاد الجمالية لتقنيات التزييف العميق. ويشير مؤرخ المسرح جون فليتشر إلى أن العروض الأولى للتزييف العميق قد قدمت كأداء مسرحي، مما يفتح آفاقًا جديدة للنقاش حول "التحولات المزعجة" التي تمثلها هذه التقنية كنوع أدائي جديد.[27]

ناقش الفلاسفة وعلماء الإعلام أخلاقيات التزييف العميق خاصة فيما يتعلق بالمواد الإباحية.[28] تستعين عالمة الإعلام إميلي فان دير ناجل بالبحث في دراسات التصوير الفوتوغرافي للصور المُتلاعب بها لمناقشة أنظمة التحقق، التي تسمح للنساء بالموافقة على استخدام صورهن.[29]

بعيدًا عن المواد الإباحية، صاغ الفلاسفة التزييف العميق باعتباره "تهديدًا معرفيًا" للمعرفة، وبالتالي للمجتمع.[30] وهناك العديد من الاقتراحات الأخرى حول كيفية التعامل مع المخاطر التي تطرحها تقنية التزييف العميق، والتي تتجاوز المواد الإباحية لتشمل الشركات والسياسيين وغيرهم، من "الاستغلال والترهيب والتخريب الشخصي".[31] وقد حظيت هذه التقنية بنصيب وافر من المناقشات العلمية حول الاستجابات القانونية والتنظيمية المحتملة في كل من الدراسات القانونية ودراسات الإعلام.[32] وفي سياق دراسات علم النفس والإعلام، يناقش الباحثون آثار التضليل الذي يستخدم تقنية التزييف العميق،[33][34] والتأثير الاجتماعي لهذه التقنية.[35]

في حين تركز معظم الدراسات الأكاديمية باللغة الإنجليزية حول تقنية التزييف العميق على المخاوف الغربية بشأن التضليل والمواد الإباحية، قام عالم الأنثروبولوجيا الرقمية غابرييل دي سيتا بتحليل الاستقبال الصيني لتقنية التزييف العميق، والتي تُعرف باسم هوانليان، والتي تُترجم إلى "تغيير الوجوه". لا يحتوي المصطلح الصيني على كلمة "مزيف" الموجودة في المصطلح الإنجليزي، ويزعم دي سيتا أن هذا السياق الثقافي قد يفسر سبب تركيز الاستجابة الصينية بشكل أكبر على الاستجابات التنظيمية العملية لـ "مخاطر الاحتيال، وحقوق الصورة، والربح الاقتصادي، واختلال التوازن الأخلاقي".[36]

أبحاث علوم الحاسوب حول التزييف العميق

[عدل]

كان من أبرز المشاريع المبكرة في هذا المجال برنامج إعادة كتابة الفيديو الذي نُشر عام 1997. وقد عُدلت فيه لقطات فيديو لشخص يتحدث لتصويره وهو ينطق كلمات مسار صوتي مختلف.[37] وكان أول نظام أتمتة هذا النوع من إعادة تنشيط الوجه بالكامل، وقد استخدم تقنيات التعلم الآلي لإيجاد صلات بين الأصوات التي يصدرها الشخص وشكل وجهه.[37]

ركزت المشاريع الأكاديمية اللاحقة على إنتاج مقاطع فيديو أكثر واقعية وتحسين التقنيات المستخدمة.[38][39] ومن الأمثلة على ذلك برنامج "توليف أوباما" الذي نُشر عام 2017، والذي عُدلت فيه لقطات فيديو للرئيس الأمريكي السابق باراك أوباما لتصويره وهو ينطق كلمات مسار صوتي آخر.[38] وقد اعتبر الباحثون أن المساهمة الرئيسية لهذا المشروع هي التقنية الواقعية التي استخدمها لتوليد حركات الشفاه من الصوت.[38] كما ظهر برنامج "وجه لوجه" (بالإنجليزية: Face2Face)‏ عام 2016 والذي عُدلت فيه لقطات فيديو لوجه شخص ما لتصويره وهو يقلد تعبيرات وجه شخص آخر بشكل فوري.[39] وقد اعتبر الباحثون أن المساهمة الرئيسية لهذا المشروع هي إيجاد طريقة جديدة لإعادة تمثيل تعبيرات الوجه بشكل فوري باستخدام كاميرا لا تلتقط العمق، مما يجعل هذه التقنية متاحة للاستخدام مع الكاميرات الشائعة.[39]

في أغسطس 2018 نشر باحثون من جامعة كاليفورنيا في بيركلي بحثًا قدموا فيه تطبيقًا مبتكرًا لإنشاء رقصة وهمية، حيث يمكن للذكاء الاصطناعي أن يُوهم المشاهد بمهارة رقص عالية.[40] يوسع هذا المشروع نطاق تقنية التزييف العميق لتشمل الجسم بأكمله، على عكس الأعمال السابقة التي كانت تركز على الوجه أو أجزاء منه فقط.[41]

أظهر الباحثون كذلك أن تقنية التزييف العميق تتعدى ذلك لتصل إلى مجالات أخرى، مثل التلاعب بالصور الطبية.[42] في هذا السياق، بيّنوا كيف يمكن للمخترقين أن يقوموا بزرع أو حذف ورم رئوي بشكل آلي في فحص التصوير المقطعي المحوسب ثلاثي الأبعاد للمريض. كانت النتيجة محاكاة واقعية للغاية لدرجة أنها استطاعت تضليل ثلاثة أخصائيين في الأشعة والذكاء الاصطناعي متخصصين في اكتشاف سرطان الرئة. وللتأكيد على خطورة هذا التهديد، نفذ الباحثون هجومًا مماثلًا بنجاح على أحد المستشفيات في اختبار اختراق أخلاقي.[43]

أجرى استطلاع للرأي نُشر في مايو 2020 مسحًا زمنيًا لتطور تقنيات توليد المحتوى المزيف واكتشافه على مدى السنوات القليلة الماضية.[44] وقد حدد هذا الاستطلاع التحديات الجوهرية التي يواجهها الباحثون في هذا المجال، والتي يمكن تلخيصها فيما يلي:

  1. التعميم: تطوير نماذج قادرة على توليد محتوى مزيف بجودة عالية وباستخدام كمية بيانات تدريب أقل، مع القدرة على التعامل مع هويات جديدة.
  2. التدريب المقترن: التغلب على الصعوبات المرتبطة بإقران البيانات المطلوبة لتدريب النماذج، وذلك من خلال استخدام تقنيات مثل التدريب الذاتي الإشرافي أو الشبكات غير المقترنة.
  3. تسرب الهوية: معالجة مشكلة انتقال بعض خصائص "السائق" إلى الوجه الناتج، باستخدام تقنيات مثل آليات الانتباه وفك التشابك.
  4. الانسدادات: التعامل مع العقبات التي تسببها العناصر التي تحجب الوجه، مثل الأيدي أو النظارات، وذلك من خلال تقنيات مثل تجزئة الصور أثناء التدريب.
  5. التماسك الزمني: تحسين واقعية الفيديوهات المزيفة من خلال تضمين سياق الإطارات السابقة أو استخدام دالات خسارة مخصصة لتحقيق التماسك بين الإطارات.

بشكل عام، يتوقع الخبراء أن يكون لتقنية التزييف العميق آثار عميقة على مختلف المجالات، بما في ذلك: وسائل الإعلام، وإنتاج المحتوى الإعلامي، وتمثيل الأفراد في الإعلام، وجمهور الإعلام، والجنس، والقانون، والتنظيم، والسياسة.[45]

تطوير الهواة

[عدل]

نشأَ مصطلح التزييف العميق في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه ديب فايكس (بالإنجليزية: deepfakes)‏.[46] قام هذا المستخدم وآخرون بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير؛[46] حيثُ قاموا مثلًا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجهَ الممثل الإباحي بوجهِ ممثل أمريكي مشهور. حقّقت تلك الفيديوهات نسب مشاهدات عاليّة كما تمّ تداولها على نطاقٍ كبيرٍ في مواقع التواصل كونها «مُتقنَة نوعًا ما» ومن الصعبِ معرفة ما إذا كانت مزيّفة أم لا وخاصّة الفيديو المزيّف للممثل الأمريكي نيكولاس كيج والذي كان «واقعيًا» وصدقهُ الكثير.[47] في ديسمبر 2017؛ نشرت سامانثا كول مقالةً حول موضوع التزييف العَميق في مجلّة فيس ولفتت الانتباه فيها إلى الفيديوهات التي يتمّ مشاركتها على مواقع التواصل وكيفَ تُساهم في ترويج الأخبار الكاذبة أو المُزيّفة.[48]

بحلول فبراير 2018 وبعد أن كَثُر الحديث حول هذه التقنيّة قام موقع ريديت بحظر المُستخدم ديب فايكس (بالإنجليزية: deepfakes)‏ بدعوى نشرهِ لمقاطع فيديو إباحية مزيّفة كما قامت باقي المواقع بحظرِ كل من يروّج لهذهِ التقنيّة بما في ذلك موقع التواصل الاجتماعي المُصغّر تويتر وكذا موقع بورن هاب الإباحي.[49] ومع ذلك؛ لا تزال هناك مجتمعات أخرى على الإنترنت – بما في ذلك مجتمعات ريديت – تعملُ على مشاركة الفيديوهات المصنوعة بهذهِ التقنيّة بل يقومُ بعضٌ من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعددٍ من المشاهير والسياسيين ولا تمّت للحقيقة بصلة،[50] في حين تُواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بعلمٍ أو بدونِ علم.[49]

التطوير التجاري

[عدل]

في يناير 2018؛ أُطلق برنامج فايك آب (بالإنجليزية: FakeApp)‏ للحواسيب.[51] يسمحُ هذا البرنامج للمستخدمين بإنشاء ومشاركة مقاطع الفيديو بسهولة مع تغيير الوجوه،[52] حيثُ يستخدم شبكة عصبية اصطناعية وقوة معالج رسومات وثلاثة إلى أربعة جيجا بايت من مساحة التخزين لإنشاء الفيديو المزيف؛ وَللحصول على معلومات مفصلة يحتاج البرنامج إلى إدخال الكثير من المواد المرئية لنفسِ الشخص لمعرفة جوانب الصورة التي يجب تبادلها باستخدام خوارزمية التزييف العميق القائمة على تسلسل الفيديو والصور. يستخدم البرنامج عددًا من التقنيّات بما في ذلك تنسرفلو من جوجل كما يعتمدُ على خوارزميّة برنامج ديب دريم (بالإنجليزية: DeepDream)‏.[53] بشكلٍ عام؛ يُعدّ المشاهير الموضوع الرئيسي لمقاطع الفيديو المزيفة هذه لعدّة أسباب من بينها سهولة جمع فيديوهات عنهم من النت على عكسِ الأشخاص العاديين.[54][55]

وقد بدأت الشركات الكبرى في استخدام تقنية التزييف العميق.[20] فمن الممكن الآن إنشاء مقاطع فيديو تدريبية للشركات باستخدام صور رمزية مزيفة وأصواتهم، مثلما تفعل شركة "سينثيسيا" التي تستخدم تقنية التزييف العميق مع الصور الرمزية لإنشاء مقاطع فيديو مخصصة.[56] كما أن الشركة المشغلة لتطبيق "مومو" للهواتف الذكية قد أنشأت تطبيقًا آخر يسمى "زاو" (بالإنجليزية: Zao)‏ والذي يسمح للمستخدمين بفرض وجوههم على مقاطع تلفزيونية وأفلام بضغطة زر واحدة.[20] وأعلنت شركة "داتا غريد" اليابانية المتخصصة في الذكاء الاصطناعي تمكنها من إنشاء تزييف عميق للجسم بالكامل، مما يمكنه من توليد شخص كامل من الصفر.[57]

في عام 2020 ظهرت أيضًا مقاطع صوتية مزيفة،[58][59] وبرامج ذكاء اصطناعي قادرة على اكتشاف هذه المقاطع الصوتية المزيفة،[60][61] واستنساخ الأصوات البشرية بعد خمس ثوانٍ فقط من الاستماع إليها.[62][63] وتم إطلاق تطبيق "إمبريشنز" (بالإنجليزية: Impressions)‏ للهواتف المحمولة والذي يتخصص في إنشاء مقاطع صوتية مزيفة في مارس 2020. وقد كان هذا التطبيق هو الأول من نوعه في مجال إنشاء مقاطع فيديو مزيفة للمشاهير من الهواتف المحمولة.[64][65]

هناك أيضًا بدائل مفتوحة المصدر لبرنامج فايك آب الأصلي مثلَ ديب فايس (بالإنجليزية: DeepFace)‏،[66] فايس سواب (بالإنجليزية: FaceSwap)‏ المُستضاف حاليًا على غيت هاب،[67] وماي فايك آب (بالإنجليزية: myFakeApp)‏ المستضاف حاليًا على موقع بيت باكيت.[68][69][70][71][72]

تجسيد الأموات

[عدل]

إن قدرة تقنية التزييف العميق على اختلاق رسائل وأفعال الآخرين قد امتدت لتشمل حتى الأفراد المتوفين. ففي 29 أكتوبر 2020، نشرت كيم كارداشيان مقطع فيديو يظهر تصوير تجسيمي لوالدها الراحل، روبرت كارداشيان، أنتجته شركة كاليدا، والتي استخدمت مزيجًا من الأداء وتتبع الحركة والمؤثرات الصوتية والبصرية وتقنيات التزييف العميق لخلق هذا الوهم.[73][74]

وفي عام 2020 تم إنشاء مقطع فيديو مزيف لخواكين أوليفر، ضحية إطلاق النار في باركلاند، كجزء من حملة سلامة الأسلحة. وقد تعاون والدا أوليفر مع منظمة "غيّر المرجع" غير الربحية و"ميكان هيلث" لإنتاج مقطع فيديو يشجع فيه أوليفر الناس على دعم تشريعات سلامة الأسلحة والسياسيين المؤيدين لها.[75]

وفي عام 2022 استُخدم مقطع فيديو مزيف لإلفيس بريسلي في برنامج "أمريكا غوت تالنت" في موسمه السابع عشر.[76] كما استخدم إعلان تلفزيوني مقطع فيديو مزيفًا لعضو فرقة البيتلزجون لينون الذي قُتل عام 1980.[77]

التقنيات

[عدل]

تعتمد تقنية التزييف العميق على نوع خاص من الشبكات العصبية يُعرف بالمشفر التلقائي.[78] تتألف هذه الشبكات من مرحلتين رئيسيتين: الأولى هي المشفر الذي يعمل على تقليص الصورة إلى تمثيل كامن ذي أبعاد أقل، والثانية هي فك التشفير الذي يقوم بإعادة بناء الصورة من هذا التمثيل الكامن.[79] تستغل تقنية التزييف العميق هذه البنية من خلال استخدام مشفر عالمي يقوم بتشفير وجه الشخص في هذا التمثيل الكامن.[بحاجة لمصدر] يحتوي هذا التمثيل الكامن على السمات الأساسية لملامح الوجه وحركة الجسم. يمكن بعد ذلك استخدام نموذج مدرب خصيصًا للشخص المستهدف لفك تشفير هذا التمثيل، مما يعني أن الملامح التفصيلية للشخص المستهدف ستُفرض على ملامح الوجه والجسم الأساسية للفيديو الأصلي الممثلة في التمثيل الكامن.[بحاجة لمصدر]

يشمل أحد التطويرات الشائعة لهذه البنية ربط شبكة توليدية تنافسية بمرحلة فك التشفير. تتكون شبكة تعلم الآلة العدائي من مولد، وهو في هذه الحالة مرحلة فك التشفير، ومميز يتنافسان مع بعضهما البعض. يقوم المولد بإنشاء صور جديدة من التمثيل الكامن للمادة المصدرية، بينما يحاول المميز تحديد ما إذا كانت الصورة حقيقية أم مزيفة.[بحاجة لمصدر] يؤدي هذا التنافس إلى تحسين قدرة المولد على إنشاء صور واقعية للغاية، حيث يتم اكتشاف أي عيوب من قبل المميز وتصحيحها باستمرار.[80] هذا التطور المتبادل بين المولد والمميز يجعل من الصعب مكافحة التزييف العميق، حيث أنه يتطور باستمرار؛ فكلما تم اكتشاف عيب جديد، يتم إيجاد حل له.[80]

التطبيقات

[عدل]

التمثيل

[عدل]

ظهرت في الأفلام من قبل نسخ رقمية لممثلين محترفين، ومن المتوقع أن يؤدي التقدم في تقنية التزييف العميق إلى زيادة إمكانية الوصول إلى هذه النسخ وتطوير فعاليتها.[81] وقد شكل استخدام تقنيات الذكاء الاصطناعي قضية رئيسية في إضراب نقابة ممثلي الشاشة ورابطة ممثلي الشاشة لعام 2023، حيث أتاحت التقنيات الحديثة إمكانية إنشاء وتخزين صور رقمية للاستعاضة عن الممثلين أنفسهم.[82]

حسنت شركة والت ديزني مؤثراتها البصرية بشكل ملحوظ من خلال اعتماد تقنية متطورة لتبديل الوجوه بدقة عالية.[83] وقد تمكنت ديزني من تطوير هذه التقنية من خلال تدريب خوارزمياتها بشكل متكرر لتحديد تعبيرات الوجه بدقة، ومن ثم تنفيذ عملية تبديل الوجوه وتكرارها لتحسين النتائج بشكل مستمر.[83] وتوفر هذه التقنية المبتكرة لتزييف الوجوه بدقة عالية وفورات كبيرة في التكاليف التشغيلية والإنتاجية.[84] إذ يستطيع نموذج ديزني لتوليد التزييف العميق إنتاج وسائط رقمية عالية الدقة بحجم 1024 × 1024 بكسل، مقارنة بالنماذج التقليدية التي تنتج وسائط بدقة أقل بكثير (256 × 256 بكسل).[84] وتتيح هذه التقنية لشركة ديزني إمكانية إزالة آثار الشيخوخة من الشخصيات أو حتى إحياء شخصيات ممثلين رحلوا عن عالمنا.[85] وقد سبق للمعجبين استخدام تقنيات مماثلة، وإن كانت بشكل غير رسمي، لإدراج وجوه شخصيات محببة في أعمال فنية موجودة، مثل إدراج وجه هاريسون فورد الشاب على وجه شخصية هان سولو في فيلم سولو: قصة من حرب النجوم.[86] كما استخدمت ديزني نفسها تقنية التزييف العميق في فيلم روج ون: قصة من حرب النجوم لإعادة ظهور شخصيتي الأميرة ليا وغراند موف تاركين.[87][88]

استعان الفيلم الوثائقي "أهلًا بكم في الشيشان" لعام 2020 بتقنية التزييف العميق لإخفاء هويات المشاركين في المقابلات، وذلك بهدف حمايتهم من الانتقام المحتمل.[89]

طورت وكالة "كرييتيف آرتيستس إيجنسي" مرفقًا لالتقاط صورة للممثل "في يوم واحد" بغرض تطوير نسخة رقمية منه، تخضع لسيطرة الممثل أو ورثته إلى جانب حقوق شخصيته الأخرى.[90]

شملت قائمة الشركات التي استخدمت نسخًا رقمية لممثلين محترفين في إعلاناتها كلًا من بوما ونايكي وبروكتر وغامبل.[91]

أتاح التزييف العميق إمكانية تصوير ديفيد بيكهام بعدة لغات بلغت قرابة التسع لغات، وذلك في حملة توعية مكافحة الملاريا.[92]

في فيلم الخيال العلمي الهندي التاميلي لعام 2024 الأعظم على مر العصور، تم تصوير النسخة المراهقة من شخصية فيجاي جيفان بواسطة أياز خان، ثم تم استخلاص وجه فيجاي المراهق من خلال تقنية التزييف العميق المعتمدة على الذكاء الاصطناعي.[93]

الفن

[عدل]

في مارس 2018 قدم الفنان المتعدد المواهب جوزيف إيرلي عملًا فنيًا بصرياً يحمل عنوان "العاطفة الأبدية 2.0". وقد ابتكر إيرلي شخصية افتراضية مستخدمًا تقنية التزييف العميق، وهي نسخة مُصطنعة من أورنيلا موتي النجمة السينمائية الإيطالية الشهيرة في الثمانينيات. هذه التقنية، التي تجد تطبيقات واسعة في مجالات التعليم والإعلام، تتيح إنتاج مقاطع فيديو واقعية ومحتوى تفاعلي، مما يفتح آفاقًا جديدة للتواصل مع الجماهير. ومع ذلك، فإن هذه التقنية تحمل في طياتها مخاطر، لا سيما في مجال نشر المعلومات المضللة، مما يستدعي ضرورة استخدامها بحذر ووضع ضوابط صارمة لها.

أشار معهد ماساتشوستس للتقانة إلى هذا العمل في دراسة حول "الحكمة الجماعية".[94] واستغل الفنان هذه القفزة الزمنية لشخصية أورنيلا موتي لاستكشاف الانعكاسات الثقافية بين الأجيال، كما طرح تساؤلات حول دور الاستفزاز في عالم الفن.[95] من الناحية التقنية، استخدم إيرلي لقطات لعارضة الأزياء كيندال جينر، ثم استبدل برنامج الحاسوب وجه جينر بوجه أورنيلا موتي المُنشأ باستخدام تقنيات الذكاء الاصطناعي. وبهذه الطريقة، حصلت الشخصية الافتراضية على وجه الممثلة الإيطالية وجسد عارضة الأزياء الأمريكية.

انتشرت تقنية التزييف العميق انتشارًا واسعًا في ميدان السخرية والتقليد، حيث استخدمت لمحاكاة المشاهير والسياسيين. ويمثل مسلسل "العدالة المتكبرة" (Sassy Justice) الذي أنتج عام 2020 على يد تري باركر ومات ستون مثالًا صارخًا على ذلك، إذ استخدم المسلسل شخصيات عامة مزيفة بشكل كبير للسخرية من الأحداث الجارية والتوعية بمخاطر تقنية التزييف العميق.[96]

الابتزاز

[عدل]

يمكن استغلال المواد المزيفة في ابتزاز افتراضي بهدف تشويه سمعة الأبرياء ظلماً. وقد حذر تقرير صادر عن مجلس البحوث التابع للكونغرس الأمريكي من احتمال استغلال هذه المواد لابتزاز المسؤولين المنتخبين أو أصحاب الولوج إلى معلومات سرية بغرض التجسس أو التأثير عليهم.[97]

بيد أن صعوبة التمييز بين الحقيقة والزيف قد مكّنت ضحايا الابتزاز الحقيقي من الادعاء بأن الأدلة المقدمة ضدهم مزيفة، مما يمنحهم حجة قوية للإنكار. ونتيجة لذلك، تضعف مصداقية مواد الابتزاز، ويقل بذلك تأثير المبتزين وتهديداتهم. ويمكن إطلاق تسمية "تضخم الابتزاز" على هذه الظاهرة، حيث يؤدي إلى تقليل قيمة الابتزاز الحقيقي وجعله عديم الجدوى.[98] ومن الجدير بالذكر أنه يمكن الاستعانة بوحدات معالجة الرسومات التجارية وبرامج بسيطة لتوليد كميات هائلة من محتوى الابتزاز المزيف لأي شخص، مما يؤدي إلى زيادة غير محدودة في إمدادات هذا النوع من المحتوى بطريقة سهلة وقابلة للتطوير.[99]

الترفيه

[عدل]

في يونيو 2022 تعاون دانييل إيميت، أحد المتسابقين السابقين في برنامج المواهب أمريكا غوت تالنت، مع شركة "ميتافيزيك إيه آي" الناشئة[100][101] لإنتاج مقطع فيديو مزيف بشكل واقعي شديد ليظهر وكأنه سايمون كاول. اشتهر كويل بنقده اللاذع للمتسابقين، [102] وفي هذا المقطع، بدا وكأنه على خشبة المسرح يغني أغنية "أنت الإلهام" لفرقة شيكاغو. وبينما كان إيميت يؤدي الأغنية على المسرح، ظهرت صورة سيمون كويل على الشاشة خلفه بتزامن مثالي.[103] وفي 30 أغسطس قلدت الشركة كل من سيمون كويل وهاوي مانديل وتيري كروز وهم يؤدون أغنيات الأوبرا على خشبة المسرح.[104] وقدمت في سبتمبر عرضًا بحيث ظهرت نسخة اصطناعية من إلفيس بريسلي في نهائيات برنامج المواهب الأمريكي.[105]

استُخدم مشروع الذكاء الاصطناعي "15.أيه آي" التابع لمعهد ماساتشوستس للتكنولوجيا في إنتاج محتوى لكثير من مستخدمي الإنترنت، وخاصة على منصات التواصل الاجتماعي.[106][107][108]

وفي عام 2023 دخلت فرقتا "أبا" وكيس في شراكة مع إندستريال لايت آند ماجيك و"بوبهاوس إنترتينمنت" لتطوير صور رمزية مزيفة قادرة على تقديم حفلات موسيقية افتراضية.[109]

الاحتيال والخداع

[عدل]

يستخدم المحتالون تقنية التزييف العميق لخداع الناس وإفرازهم في خطط الاستثمار الزائفة، والنزاهة المالية، والعملات الرقمية، وإرسال المال، واتباع التأييدات الزائفة. تم استخدام صور وأفعال شخصيات مشهورة وسياسيين لتنفيذ هذه الاحتيالات على نطاق واسع، بالإضافة إلى تلك الخاصة بالأفراد العاديين، التي تُستخدم في هجمات التصيد الاحتيالي. ووفقًا لمكتب الأعمال الأفضل، تزداد شعبية الاحتيالات التي تستخدم تقنية التزييف العميق.[110]

استُغِلَّت صور المشاهير بصورة مشينة في عمليات تأييد مزيفة، حيث حُوِّرت هوياتهم لخدمة أغراض احتيالية. فقد ظهرت مقاطع فيديو مزيفة لنجوم كبار مثل تايلور سويفت، [110][111] وتوم هانكس، [112] وأوبرا وينفري، [113] وإيلون ماسك، [114] بالإضافة إلى مذيعي أخبار بارزين مثل غايل كينغ، [112] وسالي بوندوك،[115] وحتى سياسيون أمثال لي هسين لونغ، [116] وجيم تشالمرز.[117][118] انتشرت هذه المقاطع المزيفة عبر منصات التواصل الاجتماعي مثل يوتيوب وفيسبوك وتيك توك، على الرغم من وجود سياسات صارمة في هذه المنصات تحظر المحتوى المزيف والمتلاعب به.[111][119][120] وقد حظيت هذه المقاطع بملايين المشاهدات، مما يشير إلى مدى انتشار هذه الظاهرة الخطيرة.[119][121]

تُستخدم تقنية التزييف العميق لعمليات احتيال مختلفة، مثل: تقديم هدايا زائفة من أدوات الطهي من لو كروسيه مقابل "رسوم شحن" دون تسليم المنتجات، إلا مع رسوم شهرية مخفية؛[111] حلويات إنقاص الوزن التي تُفرض تكاليف أكثر بكثير مما قيل؛ 19] هدايا مزيفة لهواتف آيفون؛ [111][120] ومخططات احتيالية للثراء السريع، [114][122] والاستثمار، [123] والعملات الرقمية.[116][124]

تُزود العديد من الإعلانات تقنية استنساخ الصوت بالذكاء الاصطناعي بـ"مقاطع فيديو منزوعة السياق لشخصيات مشهورة" لمحاكاة الأصالة. وتستخدم إعلانات أخرى مقطعًا كاملًا من فيديو لشخصية بارزة قبل الانتقال إلى ممثل أو صوت مختلف.[119] وقد تتضمن بعض الاحتيالات تقنيات التزييف العميق في الوقت الفعلي.[120]

يحذر المشاهير الناس من هذه التأييدات الزائفة ويحثونهم على توخي الحذر ضدها.[110][111] من غير المرجح أن يقوم المشاهير برفع دعاوى قضائية ضد كل شخص يستخدم تزييف عميق احتيالية، لأن "العثور على المستخدمين المجهولين لوسائل التواصل الاجتماعي ومقاضاتهم يتطلب موارد كثيفة"،[113] على الرغم من أن خطابات التوقف والكف الموجهة لشركات وسائل التواصل الاجتماعي تكون فعالة في إزالة الفيديوهات والإعلانات.[125]

تُستخدم تقنية التزييف العميق الصوتي كجزء من احتيالات الهندسة الاجتماعية، حيث تخدع الأشخاص ليظنوا أنهم يتلقون تعليمات من شخصية موثوق بها.[126] في عام 2019 تعرّض الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة لعملية احتيال عبر الهاتف، حيث طُلب منه تحويل مبلغ قدره 220 ألف يورو إلى حساب مصرفي في هنغاريا من قبل شخص استخدم تقنية التزييف العميق الصوتي لانتحال صوت الرئيس التنفيذي لشركة الأم.[127][128]

ابتداءً من عام 2023، أسهمت التطورات المتسارعة في تقنية التزييف العميق، والتي باتت قادرة على استنساخ صوت الفرد بدقة عالية من تسجيل صوتي لا يتجاوز بضع ثوانٍ أو حتى دقيقة واحدة، بالإضافة إلى ظهور أدوات متقدمة لتوليد النصوص، في تمكين عمليات الاحتيال الآلي التي تستهدف الضحايا من خلال استخدام نسخ رقمية مقنعة لأصدقاء أو أقارب الضحية.[129]

إخفاء الهوية

[عدل]

يمكن استغلال تقنيات التزييف العميقي الصوتية لإخفاء الهوية الحقيقية للمستخدم. ففي عالم الألعاب الإلكترونية على سبيل المثال، قد يرغب اللاعب في انتحال صوت شخصية اللعبة عند التفاعل مع اللاعبين الآخرين. كما يمكن للأفراد المعرضين للمضايقات، مثل النساء والأطفال، أن يستعينوا بـ "جلود الأصوات" هذه لإخفاء جنسهم أو أعمارهم.[130]

الميمات

[عدل]

شهد عام 2020 ظهور لقيفة إنترنت (ميمٍ إلكتروني) يستند إلى تقنيات التزييف العميقي، حيث تم إنتاج مقاطع فيديو لأشخاص يؤدون جوقة أغنية "باكا ميتاي" (بمعنى "أحمق للغاية") المستمدة من لعبة ياكوزا زيرو ضمن سلسلة ألعاب الفيديو ياكوزا. في اللعبة الأصلية، يؤدي اللاعب هذه الأغنية الحزينة في لعبة كاراوكيمصغرة. وقد استخدمت معظم نسخ هذا الميم مقطع فيديو عام 2017 نشره المستخدم "دوبسيرول"، والذي قام بمزامنة الأغنية مع حركاته الشفوية، كقالب أساسي.[131][132]

السياسة

[عدل]

استُخدمت تقنيّة التزييف العميق لتشويه صورة بعض السياسيين المعروفين فعلى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيو ماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بوجه دونالد ترامب.[133][134][135][136] في أبريل 2018؛ نشرَ جوردان بيل وبزفيد فيديو على شكلِ إعلان خدمة عامّة يظهرُ فيه الرئيس الأمريكي السابق باراك أوباما وهوَ يتحدث حولَ خطر التزييف العميق.[137][138] وفي يناير 2019، بثت شبكة فوكس التلفزيونية هي الأخرى فيديو مصنوع بتقنيّة التزييف العميق «بنيّة حسنة» للرئيس ترامب خلال خطابه في المكتب البيضاوي.[139]

في يونيو 2019، عقدت لجنة الاستخبارات بمجلس النواب الأمريكي جلسات استماع بشأن الاستخدام الخبيث المحتمل لمقاطع الفيديو المزيفة للتأثير على الانتخابات.[140]

في أبريل 2020 نشر الفرع البلجيكي لحركة تمرد ضد الانقراض مقطع فيديو مزيف عميق على منصة فيسبوك، يظهر فيه رئيسة الوزراء البلجيكية صوفي ويلميس. وقد روّج هذا الفيديو لوجود صلة محتملة بين ظاهرة إزالة الغابات وظهور فيروس كورونا المستجد لعام 2019. وقد حقق هذا الفيديو انتشارًا واسعًا. وعلى صفحة فيسبوك التي نشر فيها هذا الفيديو، اعتقد الكثير من المستخدمين أن هذا المقطع مصور بشكل حقيقي، ولم يدركوا أنه من صنع تقنيات التزييف العميق.[141]

شهدت الحملة الرئاسية الأمريكية لعام 2020 انتشارًا واسعًا للمقاطع المزيفة التي زعمت إصابة جو بايدن بتدهور معرفي، حيث صورته هذه المقاطع وهو ينام أثناء المقابلات، أو يضل طريقه، أو يخطئ في التعبير عن أفكاره، الأمر الذي ساهم في تعزيز الشائعات المتعلقة بتدهور حالته الصحية.[142][143]

خلال الحملة الانتخابية للجمعية التشريعية في دلهي لعام 2020، لجأ حزب بهاراتيا جاناتا في دلهي إلى استخدام تقنية متطورة لتوزيع نسخة معدلة من إعلان انتخابي باللغة الإنجليزية لمانوج تيواري، حيث تم ترجمته إلى لغة هاريانا لتوجيه رسالة مباشرة إلى الناخبين المنحدرين من ولاية هاريانا. وقد تم الاستعانة بممثل لتوفير التعليق الصوتي، ثم تم توظيف تقنيات الذكاء الاصطناعي المدربة على مقاطع فيديو سابقة لخطب تيواري لمزامنة الفيديو مع التعليق الصوتي الجديد. وقد وصف أحد أعضاء الطاقم الحزبي هذا الإجراء بأنه "استخدام إيجابي" لتقنية التزييف العميق، حيث أتاحت لهم الفرصة "للتواصل بشكل مقنع مع شريحة واسعة من الجمهور المستهدف، حتى وإن لم يكن المرشح يتحدث لغة الناخبين".[144]

في عام 2020 أنتج برونو سارتوري مقاطع تزييف عميقة تسخر من سياسيين مثل جايير بولسونارو ودونالد ترامب.[145]

في أبريل من عام 2021، قام شخصان محتالان، يُعرفان باسم فوفان ولكزس ويُتهمَان بالعمل لصالح الدولة الروسية، بالتواصل مع عدد من السياسيين الأوروبيين،[146][147] مُنتحلَين شخصية ليونيد فولكوف، السياسي الروسي المعارض ورئيس أركان حملة أليكسي نافالني، زعيم المعارضة الروسية. وقد تم ذلك باستخدام تقنية التزييف العميق، كما جاء في مصادر متعددة.[148][149] مع ذلك، نفى الثنائي في تصريحات لصحيفة ذا فيرج استخدامهما لتقنية التزييف العميق، مدعيين أنهما استعانا بشخص يشبه فولكوف في المظهر فقط.[150]

في مايو 2023 انتشر مقطع فيديو مزيف لنائبة الرئيس كامالا هاريس على وسائل التواصل الاجتماعي، حيث يزعم أنها تتلعثم في كلماتها وتتحدث بشكل لا معنى له عن اليوم والغد والأمس.[151][152] وفي يونيو 2023 استخدمت الحملة الرئاسية لرون دي سانتيس تقنية التزييف العميق لتحريف صورة دونالد ترامب.[153]

في مارس 2024 شهدت الانتخابات التشريعية في الهند استخدامًا واسع النطاق لتقنية التزييف العميق من قِبل المرشحين السياسيين بهدف الوصول إلى شريحة أوسع من الناخبين. وقد لجأ العديد من هؤلاء المرشحين إلى استغلال تقنيات التزييف العميق المدعومة بالذكاء الاصطناعي والتي ابتكرتها شركة هندية ناشئة تُعرف باسم "ذا إنديان ديب فيكر" أسسها ديفيندرا سينغ جادون، [154] وذلك لترجمة خطاباتهم السياسية إلى لغات إقليمية متعددة، مما أتاح لهم التواصل بفاعلية مع مختلف المجتمعات اللغوية المنتشرة في أرجاء البلاد. وقد شكل هذا الارتفاع في استخدام تقنية التزييف العميق في الحملات الانتخابية تحولًا جذريًا في أساليب الدعاية السياسية في الهند.[155][156]

الإباحية

[عدل]

ظهرت المواد الإباحية المُنتَجة عبر تقنيّة التزييف العميق على الإنترنت في عام 2017 ولا سيما على موقع ريديت،[157] لكنّ هذا الأخير قام بحظرها ونفس الأمر فعلهُ موقعي تويتر وبورن هاب.[158][159][160] في خريف عام 2017؛ نشر مستخدم مجهولٌ على موقع ريديت العديد من مقاطع الفيديو الإباحية المُنتجة بتلك التقنيّة وتُعدّ الممثلة ديزي ريدلي أوّل من لفتت الانتباه إلى حساب ذاك المستخدم وما يقومُ به فتبيّن فيما بعد أنّه ذو خِبرة في مجال صناعة مثل هذه الفيديوهات حيثُ كان قد نشرَ مقطعًا إباحيًا مزيفًا تظهرُ فيه عارضة الأزياء الإسرائيلية غال غادوت وهي تُمارس الجنس مع شقيق زوجها كما نشرَ فيديوهات إباحية أخرى مزيّفة لكل من إيما واتسون، كيتي بيري، تايلور سويفت وَسكارليت جوهانسون. كلّ المشاهد لم تكن حقيقية بالطبع؛ حيثُ تمّ إنشاؤها عبر الذكاء الاصطناعي وقد تمّ اكتشافها بعد وقتٍ قصيرٍ من قِبل خُبراء في مجال علوم الكمبيوتر.

مع مرور الوقت؛ قامَ مجتمع ريديت بإصلاح العديد من الأخطاء في مقاطع الفيديو المزيفة ما جعلَ من الصعبِ اكتشافها أو التمييز بينها وبينَ المحتوى الحقيقي. في المُقابل حاول آخرون تطوير برامج تقومُ بجمعِ الفيديوهات والصور الحقيقيّة على النت وتخزنها كبيانات من أجل التدريب على التمييز بين المحتوى الوهمي والمحتوى الحقيقي. جديرٌ بالذكر هنا أنّ القسم الفني والعلمي في مجال فيس هو أول من أبلغَ عن هذه الظاهرة لأوّل مرة في ديسمبر 2017 فقامت باقي وسائل الإعلام الأخرى بتغطية الموضوع.[161][162]

تحدثت سكارليت جوهانسون علنًا عن موضوع التزييف العميق خِلال مقابلة لها معَ واشنطن بوست في ديسمبر من عام 2018 حيثُ أعربت عن قلقها إزاء هذه «الظاهرة» ووصفت عالمَ الإنترنت بأنهُ «ثقبٌ كبيرٌ من الظلام يأكل نفسه». ومع ذلك؛ قالت سكارليت أيضًا بأنها لن تحاول إزالة أي من الفيديوهات خاصتها المُنشئة بهذه التقنيّة نظرًا لاعتقادها أنها لا تؤثر على صورتها العامة وأن القوانين في مختلف البلدان وطبيعة ثقافة الإنترنت تَجعل أيّ محاولة لإزالة هذا النوع من المُحتوى «قضية فاشلة»؛ كما استرسلت: «نحنُ معشر المشاهير نحظى بحمايةٍ بسببِ شهرتنا لكنّ قضية التزييف العميق قد تؤثر وبشكلٍ كبيرٍ على النساء ذوات الشهرة الأقل والذي يمكن أن تتعرض سمعتهنّ للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أو شيء من هذا القَبيل.[163]»

وسائل التواصل الاجتماعي

[عدل]

بدأت تقنية التزييف العميق تنتشر انتشارًا واسعًا على منصات التواصل الاجتماعي، وبرز تطبيق "زاو" الصيني مثالًا واضحًا على ذلك. فقد أتاح هذا التطبيق للمستخدمين استبدال وجوههم بوجوه شخصيات مشهورة في أعمال فنية كلاسيكية ومعاصرة مثل روميو وجولييت وصراع العروش، مما أثار جدلًا واسعًا حول خصوصية البيانات واستخدام هذه التقنية.[164] ورغم أن الشركة المطورة للتطبيق زعمت لاحقًا أنها ستراجع سياستها حيال هذا الشأن، إلا أن المخاوف ظلت قائمة.[20]

وفي سياق متصل، أعلنت شركة فيسبوك عن اتخاذها تدابير جديدة لمواجهة التزييف العميق على منصاتها، وذلك في يناير من عام 2020.[165] كما أشارت دائرة أبحاث الكونجرس إلى أدلة غير مباشرة تشير إلى استخدام أجهزة استخبارات أجنبية لتقنية التزييف العميق في إنشاء حسابات وهمية على وسائل التواصل الاجتماعي بهدف تجنيد أفراد ذوي صلة بمعلومات حساسة.[97]

وفي تطور مثير للاهتمام، انتشرت على منصة تيك توك في عام 2021 مقاطع فيديو واقعية مزيفة للممثل توم كروز، حصدت ملايين المشاهدات. وقد تمكن فنان المؤثرات البصرية البلجيكي كريس أومي من إنشاء نسخة طبق الأصل للممثل باستخدام تقنيات الذكاء الاصطناعي، ظهرت فيها شخصية كروز وهي تقوم بأنشطة يومية مختلفة.[166] وقد أبدى أومي اهتمامًا كبيرًا بتقنية التزييف العميق منذ عام 2018، مؤكدًا على إمكاناتها الإبداعية الواسعة.[167][168]

الحسابات الوهمية

[عدل]

يمكن استخدام صور التزييف العميق لإنشاء شخصيات وهمية، يتفاعلون على الإنترنت وفي وسائل الإعلام التقليدية. ويبدو أن صورة تزييف عميق قد صُنعت مع قصة لشخص غير موجود يدعى أوليفر تايلور، وُصِف بأنه طالب جامعي في المملكة المتحدة. وقد قدمت شخصية أوليفر تايلور مقالات رأي في العديد من الصحف، وكانت نشطة على وسائل الإعلام الإلكترونية حيث هاجمت أكاديميًا قانونيًا بريطانيًا وزوجته، ووصفتهما بأنهما "متعاطفان مع الإرهابيين". وقد لفت الأكاديمي الانتباه الدولي في عام 2018 عندما رفع دعوى قضائية في إسرائيل ضد شركة إن إس أو، وهي شركة مراقبة، نيابة عن أشخاص في المكسيك زعموا أنهم ضحايا لتقنية قرصنة الهواتف التابعة للشركة. ولم تتمكن رويترز من العثور إلا على سجلات قليلة لأوليفر تايلور، ولم تجد جامعته أي سجلات عنه. واتفق العديد من الخبراء على أن الصورة الشخصية هي صورة تزييف عميق. ولم تسحب العديد من الصحف المقالات المنسوبة إليه أو تزيلها من مواقعها الإلكترونية. ويخشى أن تكون هذه التقنيات ساحة معركة جديدة في التضليل.[169]

نُشرت صور مزيفة لأشخاص غير موجودين على صفحة "الربيع الصهيوني" على فيسبوك كجزء من الدعاية الحزبية الإسرائيلية. تضمنت الصور شهادات تزعم تخلي أصحابها عن سياساتهم اليسارية لتبني اليمينية، مع منشورات من بنيامين نتنياهو ومصادر يمينية. تم إنشاء الصور باستخدام تقنية "تركيب الصور البشرية"، وروّجت محطات التلفزيون اليمينية لهذه الشهادات رغم عدم وجود أصحابها، مبررة ذلك بأن الأصل غير مهم. كما زُعم وجود تحريض ضد رئيس الوزراء، الذي اشتكى من مؤامرة تستهدفه.[170][171]

المخاوف والتدابير المضادة

[عدل]

رغم شيوع الصور المزيفة منذ أمد بعيد، كان تزوير الأفلام أكثر تعقيدًا، إلا أن ظهور تقنية التزييف العميق قد زاد من صعوبة تمييز مقاطع الفيديو الحقيقية عن المزيفة.[135] وقد حذر الباحث في مجال الذكاء الاصطناعي أليكس شامباندارد من سرعة إفساد هذه التقنية للأشياء، مؤكدًا أن المشكلة ليست تقنية بقدر ما هي مشكلة تتعلق بالثقة في المعلومات والصحافة.[135] ومن جانبه، أكد أستاذ علوم الحاسوب هاو لي من جامعة جنوب كاليفورنيا أن استخدام التزييف العميق لأغراض ضارة، كالترويج للأخبار الزائفة، سيؤدي إلى عواقب وخيمة إن لم يتم توعية الناس بهذه التقنية.[172] وتوقع لي أن يصبح التمييز بين مقاطع الفيديو الأصلية والمزيفة مستحيلًا خلال نصف عام من أكتوبر 2019، وذلك بسبب التقدم السريع في مجالي الذكاء الاصطناعي والرسومات الحاسوبية.[172] كما وصف شومان غوسيماجومدار، أحد كبار مسؤولي مكافحة الاحتيال في جوجل، تقنية التزييف العميق بأنها مصدر قلق مجتمعي، متوقعًا أن تتطور هذه التقنية لدرجة تمكن أي فرد من إنتاج ملايين مقاطع الفيديو المزيفة تلقائيًا.[173]

المصداقية

[عدل]

إنّ الفشل في التمييز بين الفيديو المزيّف والآخر الحقيقي قد يؤثر بشكلٍ كبيرٍ جدًا على كل الفيديوهات المنشورة على الويب كما سيخلق الكثير من الجدل عندَ نشر كل فيديو حتى لو كانَ صحيحًا. في هذا السياق؛ يقولُ الباحث في الذكاء الاصطناعى أليكس شامباندارد «إنه يجب على كل شخص أن يعرفَ أن المشكلة ليست مشكلة تقنية بقدرِ ما هي مُشكلة ثقة في المعلومات التي تُقدّمها وسائل الإعلام وَالصحافة.» ويُواصل: «المشكلة الأساسية هي أن الإنسانية يمكن أن تقع في عصرٍ لم يعد فيهِ من الممكن تحديد ما إذا كان محتوى صورة أو فيديو ما حقيقيًا أم لا![110]»

التشهير

[عدل]

تُتيح تقنية التزييف العميق إمكانية الإضرار بالكيانات الفردية بشكل بالغ.[174] ذلك أن هذه التقنية غالبًا ما تستهدف فردًا بعينه، أو علاقاته بالآخرين، بهدف نسج سردية قوية بما يكفي لتأثير على الرأي العام أو المعتقدات. ويمكن تحقيق ذلك من خلال ما يُعرف بالتصيد الصوتي بتقنية التزييف العميق، والذي يتلاعب بالصوت لإنتاج مكالمات هاتفية أو محادثات مزيفة.[174] وهناك أسلوب آخر لاستخدام هذه التقنية يتمثل في التعليقات الخاصة المصطنعة، التي تتلاعب بالوسائط لنقل تعليقات ضارة إلى أفراد بعينهم.[174] ولا يشترط أن تكون جودة الفيديو أو الصوت السلبي عالية جدًّا. فما دام بالإمكان التعرف على مظهر شخص ما وأفعاله، فإن تقنية التزييف العميق قد تضر بسمعته.[130]

وفي سبتمبر من عام 2020، أعلنت شركة مايكروسوفت عن عملها على تطوير أداة برمجية للكشف عن تقنية التزييف العميق.[175]

الكشف

[عدل]

الصوت

[عدل]

تُعد مهمة كشف الصوت المزيف مهمة بالغة التعقيد تتطلب تركيزًا شديدًا على إشارات الصوت لتحقيق نتائج مرضية. وقد أثبتت الدراسات أن الاستعانة بالتعلم العميق ومعالجة البيانات الأولية لتصميم الميزات وتقليل الضوضاء يسهم بشكل كبير في رفع كفاءة أنظمة الكشف.[176]

الفيديو

[عدل]

تركز معظم الأبحاث الأكاديمية المتعلقة بالتزييف العميق على اكتشاف المقاطع المرئية المزيفة.[177] ومن الأساليب المتبعة في هذا الصدد استخدام الخوارزميات للتعرف على الأنماط والتقاط التناقضات الدقيقة التي تظهر في تلك المقاطع.[177] فعلى سبيل المثال، طور الباحثون أنظمة آلية تفحص المقاطع المرئية بحثًا عن أخطاء مثل أنماط الوميض غير المنتظمة للإضاءة.[18][178] غير أن هذا النهج واجه انتقادات، إذ يرى بعض الباحثين أن اكتشاف التزييف العميق يشبه "هدفًا متحركًا"، حيث يستمر إنتاج التزييف العميق في التطور والتحسن بالتوازي مع تطور الخوارزميات المستخدمة في اكتشافه.[177]

ولتقييم أكثر الخوارزميات فعالية في اكتشاف التزييف العميق، أطلق تحالف من شركات التكنولوجيا الرائدة تحدي اكتشاف التزييف العميق بهدف تسريع تطوير التكنولوجيا المستخدمة في تحديد المحتوى المتلاعب به.[179] وقد بلغت دقة النموذج الفائز في هذا التحدي 65% على مجموعة اختبار تضمنت 4000 مقطع فيديو.[180] ومن جهة أخرى، أظهرت دراسة أجراها فريق من معهد ماساتشوستس للتكنولوجيا ونشرت في ديسمبر 2021 أن البشر العاديين يتمتعون بدقة تتراوح بين 69% و72% في تحديد عينة عشوائية مكونة من 50 مقطعًا من هذه الفيديوهات.[181]

في شهر أكتوبر 2020، نشر فريق من جامعة بافالو بحثًا علميًا يبيّن تقنيتهم المبتكرة في استغلال انعكاسات الضوء في عيون الأشخاص المصوّرين لفضح التزييف العميق بدقة عالية، حتى دون الحاجة إلى الاعتماد على أدوات الكشف بالذكاء الاصطناعي، على الأقل في الوقت الراهن.[182] أما في حالة الشخصيات البارزة ذات التوثيق الوافي، مثل القادة السياسيين، فقد تم تطوير خوارزميات متخصصة للتمييز بين السمات الهوياتية المميزة لكل فرد، مثل أنماط الحركات الوجهية والإيماءات والصوت، مما يمكن من كشف المزيفين الذين يستخدمون تقنية التزييف العميق.[183]

أجرى فريق بحثي برئاسة الدكتور وائل عبد المجيد في مختبر الرؤية الحاسوبية وتحليل الوسائط المتعددة (VIMAL) بمعهد علوم المعلوماتبجامعة جنوب كاليفورنيا تطويرًا متتاليًا لجيلين [184][185] من الكاشفات المصممة لكشف التزييف العميق في مقاطع الفيديو، وذلك بالاعتماد على الشبكات العصبية التلافيفية. استهدف الجيل الأول من هذه الكاشفات تحديد التناقضات المكانية والزمانية في الفيديوهات المزيفة من خلال الاستعانة بالشبكات العصبية المتكررة، [184] بهدف كشف الشوائب البصرية المتبقية جراء عملية التزييف العميق. وقد حققت هذه الخوارزمية دقة وصلت إلى 96% على مجموعة البيانات الشاملة FaceForensics++، والتي كانت تعتبر المرجع الأساسي في تقييم كفاءة كاشفات التزييف العميق في ذلك الحين.

أما الجيل الثاني من هذه الكاشفات فاستند إلى الشبكات العصبية العميقة الشاملة لتقسيم الشوائب البصرية عن المعلومات الدلالية الوجوهية عالية المستوى.[185] وتم ذلك باستعمال شبكة عصبية ذات شقين: ينقل الشق الأول معلومات اللون، بينما يكبح الشق الآخر محتوى الوجه ويعزز الترددات المنخفضة باستعمال مرشح لابلاس غاوسي. علاوة على ذلك، طُورت دالة خسارة جديدة تهدف إلى تعلم تمثيل مضغوط للوجوه الحقيقية، بينما تعمل على تفريق تمثيلات الفيديوهات المزيفة.

تبين التقنيات الحديثة أن سلسلة الكتل قادرة على مساعدتنا في التأكد من مصدر أي مقطع فيديو أو صورة بصريّة.[186] فقبل نشر أي مقطع فيديو على منصات التواصل الاجتماعي، يمكننا الرجوع إلى سجله الخاص لمعرفة صاحبه الأصيل.[186] وبهذه الطريقة، لا تُقبل إلا المقاطع الفيديوية الصادرة عن مصادر موثوقة، مما يحد من انتشار المقاطع المزيفة الضارة التي تُصنع باستخدام تقنيات الذكاء الاصطناعي.[186]

وقد اقترح بعض الخبراء إضافة نوع من التوقيع الرقمي لكل صورة أو مقطع فيديو يُلتقط بكاميرا، حتى تلك الملحقة بالهواتف الذكية، وذلك لمنع التلاعب بها.[187] وبفضل هذا التوقيع، يمكننا معرفة الشخص الذي قام بتصوير الصورة أو الفيديو، مما يساعدنا في مكافحة نشر المعلومات الزائفة.[187] وللكشف عن المكالمات الفيديوية المزيفة، يمكننا باتباع طريقة بسيطة أن نطلب من محدثنا تحريك رأسه قليلًا، وبهذه الطريقة يمكننا التأكد من أنه شخص حقيقي وليس مجرد صورة متحركة.[188]

الوقاية

[عدل]

يذكر هنري أجدر، العامل في شركة "ديب تريس" المتخصصة في كشف عمليات التزييف العميق، وجود عدة وسائل للوقاية من هذه العمليات في بيئة العمل. من بين هذه الوسائل، استخدام كلمات السر الدلالية أو الأسئلة السرية أثناء إجراء المحادثات الحساسة. كما ينبغي تحديث مصادقة الصوت وغيرها من خصائص الأمان الحيوية بشكل دوري. بالإضافة إلى ذلك، يلعب تثقيف الموظفين حول مخاطر التزييف العميق دورًا حيويًا في مواجهة هذا التهديد.[130]

الجدل

[عدل]

في مارس 2024 عُرض شريط مرئي صادر عن قصر بكنغهام يظهر فيه كاثرين أميرة ويلز وهي تعاني من مرض السرطان وتخضع لعلاج كيميائي. إلا أن هذا الشريط قد أثار جدلًا واسعًا، إذ ادعى البعض أن المرأة الظاهرة فيه ليست سوى صورة مُصنَّعة بالذكاء الاصطناعي.[189] وقد شكك جونثان بيركنز، مدير سباقات جامعة كاليفورنيا في لوس أنجلوس، في صحة إصابتها بالسرطان، وتقدّم بتخمينات مفادها أنها قد تكون في حالة حرجة أو حتى فارقت الحياة.[190]

الانتهاكات

[عدل]

يقول الخبير في علوم الكمبيوتر آرجوير زيتونغ (بالإنجليزية: Aargauer Zeitung)‏ أن التلاعب بالصور ومقاطع الفيديو باستخدام الذكاء الاصطناعي يُمكن أن يصبح ظاهرة جماعية خطيرة. ومع ذلك؛ فإن هذا التخوّف هو نفسه الذي شعرَ به الكل حينما ظهرت للوجود برامج تحرير الفيديو وبرامج تحرير الصور.[110] بشكلٍ عام؛ تبقى قُدرة البشر على التمييز بين الفيديو المزوّر والآخر الحقيقي هي العامِل الأهم في التأثير إيجابيًا أم سلبيًا على هذه التقنيّة.[191][192]

أمثلة

[عدل]
صورة مزيفة تم إنشاؤها بواسطة ميدجورني لدونالد ترامب أثناء اعتقاله.[193]
فيديو مزيف: فلاديمير بوتن يحذر الأميركيين من التدخل في الانتخابات والانقسام السياسي المتزايد
الصورة المزيفة التي تم إنشاؤها بواسطة ميدجورني للبابا فرانسيس وهو يرتدي سترة منفوخة
باراك أوباما
في 17 أبريل 2018، نشر الممثل الأمريكي جوردان بيل بالتعاون مع موقع بزفيد وشركة مونكي باو برودكشنز مقطع فيديو مزيفًا على منصة يوتيوب، يظهر فيه الرئيس السابق باراك أوباما وهو يوجه إهانات لدونالد ترامب ويطلق عليه ألقابًا مهينة.[194] في هذا المقطع، تم تعديل صوت ووجه بيل ليحاكيا صوت وملامح أوباما بشكل دقيق. كان الهدف من هذا الفيديو تسليط الضوء على العواقب الخطيرة وقوة تأثير المقاطع المزيفة، وكيف يمكنها أن تُظهر أي شخص وهو يقول أي شيء.
دونالد ترامب
في 5 مايو 2019، نشر حساب ديربفيك مقطع فيديو مزيفًا على منصة يوتيوب يظهر فيه دونالد ترامب، مستندًا إلى مشهد كوميدي قدمه جيمي فالون في برنامج برنامج الليلة.[186] في المشهد الأصلي، الذي عُرض في 4 مايو 2016، كان جيمي فالون يرتدي زيًّا يُحاكي دونالد ترامب ويبدو وكأنه يجري مكالمة هاتفية مع باراك أوباما، حيث تحدث بأسلوب يتفاخر فيه بفوزه في الانتخابات التمهيدية بولاية إنديانا.[186] أما في المقطع المزيف، فقد تم تعديل وجه جيمي فالون ليبدو كوجه دونالد ترامب، مع بقاء الصوت دون تغيير. أُنتج هذا الفيديو المزيف من قِبَل ديربفيك بغرض كوميدي. في مارس 2023، انتشرت سلسلة صور تُظهر ضباط شرطة نيويورك وهم يضعون الأصفاد على دونالد ترامب.[195] أُنشئت هذه الصور باستخدام برنامج ميدجورني ونُشرت في البداية عبر تويتر بواسطة ألين هيغينز، لكنها أُعيدت مشاركتها لاحقًا بدون أي سياق، مما دفع بعض المشاهدين إلى الاعتقاد بأنها صور حقيقية.[193]
نانسي بيلوسي
في عام 2019، انتشر مقطع من خطاب نانسي بيلوسي في مركز التقدم الأمريكي (الذي ألقته في 22 مايو 2019) حيث تم إبطاء الفيديو، بالإضافة إلى تغيير درجة الصوت، ليبدو الأمر كما لو كانت في حالة سكر، على نطاق واسع على وسائل التواصل الاجتماعي. يزعم المنتقدون أن هذا لم يكن تزييفًا عميقًا، بل تزييفًا سطحيًا - وهو شكل أقل تعقيدًا من التلاعب بالفيديو.[196][197]
مارك زوكربيرغ
في مايو 2019 تعاون فنانان مع شركة كاني آي في إنتاج مقطع فيديو مزيف لمؤسس منصة فيسبوك، مارك زوكربيرغ، يتحدث فيه عن جمع البيانات والسيطرة عليها من مليارات الأفراد. وقد جاء هذا الفيديو كجزء من معرضٍ هدفه توعية الجمهور بمخاطر الذكاء الاصطناعي.[198][199]
كيم جونغ أون وفلاديمير بوتين
في 29 سبتمبر 2020، حمّلت مجموعة "تمثيلنا" غير الحزبية مقاطع فيديو مزيفة على يوتيوب تصور كيم جونغ أون وفلاديمير بوتين،[200] بهدف التحذير من تدخلهم في الانتخابات الأمريكية وتهديد الديمقراطية.[200][200] رغم توضيح زيف اللقطات، لم تُبث الإعلانات خشية رد فعل الجمهور. وفي 5 يونيو 2023، نشر مصدر مجهول فيديو مزيفًا لبوتين يعلن غزوًا روسيًا وتعبئة عامة عبر شبكات إعلامية.[201]
فولوديمير زيلينسكي
في 16 مارس 2022، انتشر مقطع فيديو مزيف يصور الرئيس الأوكراني فولوديمير زيلينسكي يدعو جنوده للاستسلام خلال الغزو الروسي. روجت له وسائل التواصل الروسية، وحُذف لاحقًا من فيسبوك ويوتيوب، بينما سمح تويتر بنشره مع كشف زيفه.[202] اخترق المتسللون قناة أوكرانيا 24 لإدخال الفيديو والمزاعم الكاذبة بأن زيلينسكي فر من كييف. رد زيلينسكي بفيديو يؤكد صمود بلاده حتى النصر.[203]
وولف نيوز
في أواخر 2022، نشر مروجون مؤيدون للصين مقاطع فيديو مزيفة تحمل شعار "وولف نيوز" باستخدام ممثلين اصطناعيين، تم تطويرهم بتقنية من شركة Synthesia في لندن، التي تسوقها كخيار اقتصادي لمقاطع التدريب والموارد البشرية.[204]
البابا فرانسيس
في شهر مارس 2023 استغل عامل بناء مجهول الهوية من مدينة شيكاغو منصة ميدجورني لتوليد صورة مزيفة للبابا فرنسيس وهو يرتدي سترة منفوخة باللون الأبيض من علامة بالينسياغا. انتشرت هذه الصورة بشكل واسع، وحصدت أكثر من عشرين مليون مشاهدة.[205] وصف الكاتب ريان برودريك هذه الصورة بأنها "أول حالة تضليل حقيقية على مستوى الجماهير باستخدام الذكاء الاصطناعي".[206] وقد وصف الخبراء الذين استشارتهم مجلة سلايت هذه الصورة بأنها "غير متطورة"، مشيرين إلى أنه "كان بإمكان أي شخص أن ينتج صورة مماثلة باستخدام برنامج الفوتوشوب قبل خمس سنوات".[207]
كير ستارمر
في أكتوبر 2023، انتشر مقطع صوتي مزيف يُظهر زعيم حزب العمال البريطانيكير ستارمر وهو يسيء معاملة موظفيه، بالتزامن مع اليوم الأول من مؤتمر الحزب.[208]
راشميكا ماندانا
في مطلع نوفمبر 2023 تعرضت الممثلة الهندية المعروفة، راشميكا ماندانا، إلى عملية تزوير رقمية متقدمة حينما انتشر مقطع فيديو مفبرك على نطاق واسع عبر منصات التواصل الاجتماعي. وقد ظهر في هذا المقطع وجه الممثلة راشميكا وقد تم استبداله بوجه المؤثرة الهندية البريطانية الشهيرة، زارا باتيل. وقد نفت المؤثرة زارا باتيل بشكل قاطع أي علاقة لها بإنتاج هذا المقطع.[209]
بونغ بونغ ماركوس
في أبريل 2024، نُشر فيديو مزيف يُظهر الرئيس الفلبيني بونغ بونغ ماركوس في موقف مغاير للحقيقة. الفيديو هو عرض شرائح مصحوب بتسجيل صوتي مزيف يُنسب إلى ماركوس، حيث يُزعم أنه يأمر القوات المسلحة الفلبينية وقوة المهام الخاصة بالتحرك "كما يقتضي الموقف" في حال تعرضت الفلبين لهجوم من الصين. تم نشر الفيديو في وقت كانت فيه التوترات تتصاعد بسبب النزاع في بحر الصين الجنوبي.[210] وأعلنت دائرة الاتصالات الرئاسية أن الرئيس لم يصدر أي توجيه من هذا القبيل، مشيرة إلى أن جهة أجنبية قد تكون وراء هذا المحتوى المفبرك.[211] كما تم تقديم اتهامات جنائية من قبل "كابيسانان نغ ماي بروكاستر نغ فلبيناس" فيما يتعلق بهذا المحتوى المزيف.[212] في 22 يوليو 2024، تم نشر فيديو يظهر ماركوس وهو يستنشق مواد مخدرة غير قانونية، على يد كلير كونتريراس، وهي من مؤيدي ماركوس السابقين. أُطلق على هذا الفيديو اسم "فيديو البولفرون"، وقد أشار الإعلام إلى تطابقه مع التلميحات التي قدمها سلف ماركوس، رودريغو دوتيرتي، بأن ماركوس مدمن على المخدرات؛ كما تم عرض الفيديو في تجمع "هاكبانغ نغ ماي سوج" الذي نظمته جماعات مؤيدة لدوتيرتي.[213] وبعد يومين، توصلت الشرطة الوطنية الفلبينية والمكتب الوطني للتحقيقات، بناءً على نتائج تحقيقاتهم الخاصة، إلى أن الفيديو تم إنشاؤه باستخدام الذكاء الاصطناعي، وأشاروا إلى وجود تناقضات بين الشخص في الفيديو وماركوس، مثل التفاصيل الخاصة بأذني الشخصين.[214]
جو بايدن
قبل الانتخابات الرئاسية الأمريكية لعام 2024، تم إجراء مكالمات هاتفية باستخدام تقنية تحاكي صوت الرئيس الحالي جو بايدن بهدف ثني الناخبين عن التصويت له. تم اتهام الشخص المسؤول عن هذه المكالمات بممارسة قمع الناخبين وانتحال شخصية المرشح. اقترحت لجنة الاتصالات الفيدرالية فرض غرامة قدرها 6 ملايين دولار أمريكي على الشخص المسؤول، بينما اقترحت فرض غرامة قدرها 2 مليون دولار على شركة "لينغو تليكوم"، الشركة التي يُزعم أنها قامت بنقل المكالمات.[215][216]

الردود

[عدل]

ردود الفعل على الإنترنت

[عدل]

تتخذ منصة تويتر (المعروفة حاليًا باسم X) إجراءات صارمة لمواجهة انتشار الوسائط المزيفة والمعدلة. ومن بين هذه الإجراءات، تقوم تويتر بوضع علامة تحذير على التغريدات التي تحتوي على محتوى مرئي أو صوتي تم التلاعب به أو توليده بواسطة تقنيات التزييف العميق، مما يوضح للمشاهدين طبيعة التلاعب الذي طرأ على هذا المحتوى.[217] كما تظهر إشعارات تحذيرية للمستخدمين قبل التفاعل مع مثل هذه التغريدات، سواء بإعادة نشرها أو الإعجاب بها أو التعليق عليها.[217] بالإضافة إلى ذلك، توفر المنصة رابطًا إضافيًا بجوار التغريدة، يوجه المستخدمين إلى مصادر موثوقة مثل لحظات تويتر أو مقالات إخبارية، مما يساعد على كشف حقيقة هذه الوسائط وتوضيح السياق الصحيح لها.[217] وفي الحالات التي تشكل فيها هذه الوسائط تهديدًا لسلامة المستخدمين، تحتفظ تويتر بحق إزالة التغريدات التي تحتوي عليها.[217] ولتعزيز قدرتها على اكتشاف المحتوى المزيف والمعدل، تدعو تويتر الخبراء والمختصين في هذا المجال إلى التعاون معها من خلال ملء نموذج مخصص، بهدف تطوير حلول تكنولوجية أكثر فعالية لكشف هذه الأنواع من التلاعب بالوسائط.[218]

في شهر أغسطس 2024 قام وزراء ولايات مينيسوتا وبنسلفانيا وواشنطن وميشيغان ونيو مكسيكو بتوجيه رسالة مفتوحة إلى مالك منصة إكس إيلون ماسك يحثونه فيها على إدخال تعديلات على أداة توليد النصوص إلى مقاطع فيديو الجديدة والتي تحمل اسم "جروك"، والتي تم إضافتها إلى المنصة في الشهر ذاته. وقد أشار الوزراء في رسالتهم إلى قيام هذه الأداة بنشر معلومات مضللة حول الانتخابات الرئاسية، الأمر الذي أثار مخاوفهم.[219][220][221]

بذلت منصة فيسبوك مساعٍ حثيثة لتشجيع إنتاج مقاطع فيديو مزيفة، وذلك بغية تطوير أحدث البرامج القادرة على كشف هذه المقاطع المزورة. وقد لعبت فيسبوك دورًا محوريًا في استضافة "تحدي الكشف عن مقاطع الفيديو المزيفة" (DFDC) الذي أُقيم في ديسمبر من عام 2019، حيث شارك فيه 2114 متسابقًا قدموا أكثر من 35 ألف نموذج.[222] وقد تم تحليل أفضل هذه النماذج التي حققت أعلى دقة في كشف أوجه التشابه والاختلاف بين المقاطع الحقيقية والمزيفة؛ وهذه النتائج تمثل مجالات ذات أهمية بالغة في المزيد من الأبحاث الهادفة إلى تحسين وصقل نماذج الكشف عن مقاطع الفيديو المزورة.[222] كما أوضحت منصة فيسبوك أنها ستقوم بإزالة أي وسائط تم إنشاؤها باستخدام تقنيات الذكاء الاصطناعي بهدف تغيير خطاب الفرد.[223] ومع ذلك، فإن الوسائط التي تم تعديلها لتغيير ترتيب أو سياق الكلمات في رسالة معينة ستبقى على المنصة ولكن سيتم تصنيفها على أنها مزيفة، وذلك لأنها لم يتم إنشاؤها بالاعتماد على تقنيات الذكاء الاصطناعي.[223]

في 31 يناير 2018 شرعت منصة جي إف واي كات في إزالة جميع التزييفات العميقة من على منصتها.[224][225] وعلى منصة ريديت حُظرت الصفحة الفرعية المعنية بالتزييف العميق لانتهاكها سياسة المنصة المتعلقة بالإباحية غير الطوعية.[226][227][228][229][230]

وفي الشهر ذاته، صرح ممثلو منصة تويتر بأنهم سيقومون بتعليق الحسابات المشتبه في نشرها لمحتوى مزيف عميق مخالف للشروط.[231] كما اتخذ موقع الدردشة ديسكورد إجراءات صارمة ضد التزييف العميق في الماضي، [232] وأعلن موقفًا واضحًا معارضًا لهذه التقنية.[225][233] وفي سبتمبر من العام نفسه، أضافت شركة جوجل مفهوم "الصور الإباحية الاصطناعية غير الطوعية" إلى قائمة محظوراتها، مما يتيح لأي فرد طلب حظر النتائج التي تعرض صورًا عارية مزيفة له.[234]

أعلنت منصة بورن هاب عن عزمها حظر مقاطع الفيديو المزيفة على موقعها الإلكتروني، معتبرة إياها "محتوى مخالفاً" لما تضمنته شروط الخدمة التي وضعتها المنصة.[235] كما سبق وأن صرحت المنصة لموقع ماسابل بأنها ستقوم بحذف أي محتوى يتم الإبلاغ عنه على أنه مزيف عميق.[236] وقد أشار باحثون من موقع "مذر بورد" إلى أن البحث عن مصطلح "ديبفيكس" على منصة بورنهاب لا يزال يعرض العديد من مقاطع الفيديو المزيفة الحديثة.[235]

أعلنت شركة فيسبوك في وقت سابق أنها لن تقوم بحذف مقاطع الفيديو المزيفة التي يتم إنشاؤها باستخدام تقنيات التزييف العميق من على منصاتها.[237] وبدلًا من ذلك، ستقوم بوضع علامة على هذه المقاطع لتحديدها بأنها مزيفة من قبل جهات خارجية، مما سيؤدي إلى تقليل ظهورها في خلاصات المستخدمين.[238] وقد جاء هذا الرد في يونيو عام 2019، بعد تداول مقطع فيديو مزيف بشكل واسع على منصتي فيسبوك وإنستغرام، يظهر فيه مارك زوكربيرغ في مقطع فيديو قديم يعود إلى عام 2016.[237]

في مايو 2022 عدلت شركة جوجل شروط الخدمة الخاصة بمختبراتها التعاونية "جوبيتر" بشكل رسمي، وحظرت استخدام هذه الخدمة في إنتاج مقاطع الفيديو المزيفة.[239] جاء ذلك بعد مقال في مجلة "فايس" ذكر أن برنامج "ديب فيس لاب" الشهير، الذي يُستخدم لإنتاج مقاطع فيديو مزيفة، كان يُستغل بشكل رئيسي لإنشاء صور إباحية غير توافقية، ويستغل خدمات جوجل التعاونية لهذا الغرض.[240]

التشريعات

[عدل]

برزت ردود فعل تشريعية في الولايات المتحدة لمواجهة التحديات التي تطرحها تقنية التزييف العميق. فقد شهد عام 2018 تقديم مشروع قانون إلى مجلس الشيوخ الأمريكي يقضي بحظر التزييف العميق ذي الأغراض الخبيثة،[241] تلاه في عام 2019 تقديم قانون مساءلة التزييف العميق إلى الكونغرس الأمريكي من قبل عضوة مجلس النواب إيفيت كلارك.[242] وعلى مستوى الولايات، تبنت عدة ولايات تشريعات خاصة بالتزييف العميق، من بينها فرجينيا وتكساس وكاليفورنيا ونيويورك،[243][244] حيث تم تتبع اتهامات متنوعة كسرقة الهوية والمطاردة الإلكترونية والانتقام الإباحي، مع الدعوة إلى تشريعات أكثر شمولية.[234]

ومن أبرز الإنجازات التشريعية في هذا الصدد، توقيع حاكم كاليفورنيا غافن نيوسوم في الثالث من أكتوبر عام 2019 على قانوني الجمعية رقم 602 ورقم 730.[245][246] يمنح القانون الأول للأفراد المستهدفين بمحتوى جنسي مزيف حق مقاضاة منشئي هذا المحتوى،[245] بينما يحظر القانون الثاني توزيع محتوى صوتي أو مرئي مزيف يهدف إلى التأثير على نتائج الانتخابات خلال فترة محددة.[246] وفي محاولة لمواجهة التهديدات التي يشكلها التزييف العميق على الأمن القومي، قدمت عضوة مجلس النواب إيفيت كلارك مشروع قانون مساءلة التزييف العميق إلى الكونغرس الأمريكي في سبتمبر 2023.[247] كما قدمت عضوة أخرى هي ماريا إيلفيرا سالازار مشروع قانون في يناير 2024 يهدف إلى حماية حقوق الملكية الفردية، بما في ذلك الصوت، في ظل تزايد استخدام الذكاء الاصطناعي.[248]

في شهر نوفمبر 2019 أعلنت السلطات الصينية أنه يجب أن تحمل المقاطع المرئية المزيفة وغيرها من المحتويات المصنعة إشعارًا واضحًا يبين زيفها ابتداءً من العام 2020م. وقد أوضحت إدارة الفضاء الإلكتروني الصينية عبر موقعها الإلكتروني أن عدم الامتثال لهذا الإجراء قد يُعَد جريمة.[249] ويبدو أن الحكومة الصينية تحتفظ لنفسها بالحق في مقاضاة كل من المستخدمين ومنصات الفيديو عبر الإنترنت المخالفة لهذه القواعد.[250] وقد أصدرت إدارة الفضاء الإلكتروني الصينية بالاشتراك مع وزارة الصناعة وتكنولوجيا المعلومات ووزارة الأمن العام "الأحكام المتعلقة بإدارة خدمات المعلومات عبر الإنترنت ذات التركيب العميق" في شهر نوفمبر من عام 2022.[251] ودخلت أحكام التركيب العميق المحدثة في الصين (الأحكام الإدارية المتعلقة بالتركيب العميق في خدمات المعلومات القائمة على الإنترنت) حيز التنفيذ في شهر يناير من عام 2023م.[252]

في المملكة المتحدة، يمكن مساءلة منتجي المواد المزيفة العميقة قضائيًا بتهمة التحرش، إلا أن إنتاج مثل هذه المواد لم يكن جنحة محددة بموجب القانون حتى عام 2023،[253] حيث صدر قانون السلامة عبر الإنترنت الذي جرّم صناعة المواد المزيفة العميقة. وتعتزم المملكة المتحدة توسيع نطاق هذا القانون ليشمل تجريم المواد المزيفة العميقة المنتجة "بقصد التسبب في ضائقة" في عام 2024.[254][255]

في كندا، خلال عام 2019، أصدرت وكالة أمن الاتصالات تقريرًا أفاد بأن تقنية التزييف العميق يمكن توظيفها للتدخل في الشأن السياسي الكندي، لا سيما لتشويه سمعة السياسيين والتأثير على توجهات الناخبين.[256][257] وبناءً على ذلك، توجد سبل متعددة يتسنى للمواطنين الكنديين اتباعها للتصدي لمثل هذه التزييفات حال استهدافهم بها.[258] وفي فبراير من عام 2024، قدم البرلمان الكندي في دورته الرابعة والأربعين مشروع القانون رقم C-63، والذي يهدف إلى سن قانون لمكافحة الأضرار الناجمة عن الإنترنت، وذلك بتعديل القوانين الجنائية وقوانين أخرى. وقد تم التخلي عن نسخة سابقة من هذا المشروع، ألا وهي C-36، مع حل البرلمان الكندي في دورته الثالثة والأربعين في سبتمبر من عام 2021.[259][260]

لا توجد في الهند حاليًا تشريعاتٌ صريحةٌ تنظم تقنيات الذكاء الاصطناعي والتزييف العميق بشكل مباشر. ومع ذلك، فإن بعض أحكام القانون الجنائي الهندي وقانون تكنولوجيا المعلومات لسنة 2000/2008 يمكن أن تُستدعى لتقديم حلول قانونية في هذا الصدد. ومن الجدير بالذكر أن مشروع قانون الهند الرقمي الجديد المقترح يتضمن فصلًا خاصًا مخصصًا لتقنيات الذكاء الاصطناعي والتزييف العميق، وذلك وفقًا لما صرح به وزير الدولة راجيف شاندراسيخار.[261]

يتبنى الاتحاد الأوروبي نهجًا قائمًا على تقييم المخاطر في تنظيم أنظمة الذكاء الاصطناعي، وذلك من خلال قانون الذكاء الاصطناعي لعام 2024. يقسم هذا القانون أنظمة الذكاء الاصطناعي إلى فئاتٍ عدة بناءً على مستوى المخاطر التي تشكلها، مثل الفئات ذات المخاطر غير المقبولة والعالية والمحدودة والدنيا. ويهدف هذا التصنيف إلى تحديد الالتزامات التنظيمية التي تقع على عاتق مقدمي ومستخدمي هذه الأنظمة. ومع ذلك، يواجه هذا القانون تحديات في تطبيقه على تقنيات التزييف العميق، وذلك لعدم وجود تعريفات واضحة ومحددة لمفهوم "المخاطر" في سياق هذه التقنيات. فقد أثار فقهاء القانون تساؤلات حول تصنيف أنظمة التزييف العميق المستخدمة في الأغراض السياسية التضليلية أو في إنشاء محتوى بصري حميمي دون موافقة، وحول ما إذا كانت هذه الاستخدامات تستدعي تصنيفها ضمن أنظمة الذكاء الاصطناعي "عالية المخاطر"، مما يستوجب بالتالي تطبيق معايير تنظيمية أكثر صرامة عليها.[262]

في آب (أغسطس) من عام 2024م، شرعت لجنة حماية البيانات الأيرلندية (DPC) في اتخاذ إجراءات قانونية ضد منصة إكس لاستغلالها غير المشروع للبيانات الشخصية لأكثر من ستين مليون مستخدم في الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية، وذلك بهدف تدريب تقنيات الذكاء الاصطناعي التابعة لها، ومن بينها روبوت الدردشة (غروك).[263]

وكالة داربا

[عدل]

في عام 2016 أطلقت وكالة مشاريع الأبحاث الدفاعية المتقدمة (داربا) برنامج "ميدي فور" الذي استمر حتى عام 2020.[264] وكان الهدف من هذا البرنامج اكتشاف التلاعب الرقمي في الصور ومقاطع الفيديو، بما في ذلك التزييف العميق، بطريقة آلية.[265][266] وفي صيف 2018 نظمت ميدي فور مسابقة لتشجيع الأفراد على ابتكار مقاطع فيديو وصوت وصور تعتمد على الذكاء الاصطناعي، إلى جانب أدوات للكشف عن هذه التزييفات.[267] وقد اقترحت ميدي فور إطارًا ثلاثي الطبقات لتقييم مدى مصداقية الوسائط الرقمية، وذلك بدمج النزاهة الرقمية والمادية والدلالية في مؤشر واحد، بهدف تمكين الكشف الدقيق عن التلاعب بالوسائط.[268]

وفي عام 2019 استضافت داربا "يوم المقترحين" لبرنامج "سيما فور" لتشجيع الباحثين على تطوير حلول لمنع انتشار الوسائط المزيفة التي تعتمد على الذكاء الاصطناعي.[269] كما تعاونت وكالة مشاريع الأبحاث الدفاعية المتقدمة وبرنامج "سيما فور" على تطوير خوارزميات تستند إلى المنطق السليم للكشف عن هذه الوسائط.[269] وبناءً على تقنيات ميدي فور، تستطيع خوارزميات الإسناد في "سيما فور" تحديد مصدر الوسائط الرقمية، بينما تحدد خوارزميات التوصيف الغرض من إنشاء هذه الوسائط أو التلاعب بها.[270] وفي مارس 2024 نشرت "سيما فور" كتالوجًا تحليليًا يوفر للجمهور إمكانية الوصول إلى الموارد مفتوحة المصدر التي طورتها.[271][272]

اللجنة الدولية لبيئة المعلومات

[عدل]

أُنشئت اللجنة الدولية للبيئة المعلوماتية في 2023 كتحالف يضم أكثر من مائتين وخمسين عالِماً يعملون جاهدين على وضع تدابير فعالة لمكافحة التزييف العميق وغيره من المشكلات الناتجة عن التحيزات الخاطئة في المؤسسات التي تنشر المعلومات عبر شبكة الإنترنت.[273]

في الثقافة الشعبية

[عدل]

انظر أيضًا

[عدل]

ملاحظات

[عدل]
  1. ^ تُعدّ هذه العبارة حديثة العهد في اللغة الإنجليزية؛ حيثُ صِيغت أوّل مرة عام 2017.[2]

المراجع

[عدل]
  1. ^ معجم البيانات والذكاء الاصطناعي (PDF) (بالعربية والإنجليزية)، الهيئة السعودية للبيانات والذكاء الاصطناعي، 2022، ص. 62، QID:Q111421033
  2. ^ Brandon, John (16 Feb 2018). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (بالإنجليزية). Archived from the original on 2018-06-15. Retrieved 2018-02-20.
  3. ^ Brandon، John (16 فبراير 2018). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News. مؤرشف من الأصل في 2018-06-15. اطلع عليه بتاريخ 2018-02-20.
  4. ^ Schwartz, Oscar (12 Nov 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (بالإنجليزية). Archived from the original on 2019-06-16. Retrieved 2018-11-14.
  5. ^ Kalpokas, Ignas; Kalpokiene, Julija (2022). Deepfakes (بالإنجليزية). Springer Cham. pp. 1–2. DOI:10.1007/978-3-030-93802-4. ISBN:978-3-030-93801-7. Archived from the original on 2024-08-27. Retrieved 2024-11-23.
  6. ^ Juefei-Xu، Felix؛ Wang، Run؛ Huang، Yihao؛ Guo، Qing؛ Ma، Lei؛ Liu، Yang (01 يوليو 2022). "Countering Malicious DeepFakes: Survey, Battleground, and Horizon". International Journal of Computer Vision. ج. 130 ع. 7: 1678–1734. DOI:10.1007/s11263-022-01606-8. ISSN:1573-1405. PMC:9066404. PMID:35528632. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-07-15.
  7. ^ ا ب ج Kietzmann، J.؛ Lee، L. W.؛ McCarthy، I. P.؛ Kietzmann، T. C. (2020). "Deepfakes: Trick or treat?" (pdf). Business Horizons. ج. 63 ع. 2: 135–146. DOI:10.1016/j.bushor.2019.11.006. S2CID:213818098. مؤرشف (PDF) من الأصل في 2022-12-29. اطلع عليه بتاريخ 2022-12-30.
  8. ^ Waldrop، M. Mitchell (16 مارس 2020). "Synthetic media: The real trouble with deepfakes". Knowable Magazine. Annual Reviews. DOI:10.1146/knowable-031320-1. مؤرشف من الأصل في 2022-11-19. اطلع عليه بتاريخ 2022-12-19.
  9. ^ Schwartz، Oscar (12 نوفمبر 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian. مؤرشف من الأصل في 2019-06-16. اطلع عليه بتاريخ 2018-11-14.
  10. ^ Schreyer، Marco؛ Sattarov، Timur؛ Reimer، Bernd؛ Borth، Damian (أكتوبر 2019). "Adversarial Learning of Deepfakes in Accounting". arXiv:1910.03810 [cs.LG]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  11. ^ Caramancion، Kevin Matthe (21 أبريل 2021). "The Demographic Profile Most at Risk of being Disinformed". 2021 IEEE International IOT, Electronics and Mechatronics Conference (IEMTRONICS). IEEE. ص. 1–7. DOI:10.1109/iemtronics52119.2021.9422597. ISBN:978-1-6654-4067-7. S2CID:234499888. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-11-23.
  12. ^ Christian، Jon. "Experts fear face swapping tech could start an international showdown". The Outline. مؤرشف من الأصل في 2020-01-16. اطلع عليه بتاريخ 2018-02-28.
  13. ^ Roose، Kevin (04 مارس 2018). "Here Come the Fake Videos, Too". The New York Times. ISSN:0362-4331. مؤرشف من الأصل في 2019-06-18. اطلع عليه بتاريخ 2018-03-24.
  14. ^ Farid، Hany (15 سبتمبر 2019). "Image Forensics". Annual Review of Vision Science. ج. 5 ع. 1: 549–573. DOI:10.1146/annurev-vision-091718-014827. ISSN:2374-4642. PMID:31525144. S2CID:263558880. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-09-20.
  15. ^ Banks، Alec (20 فبراير 2018). "What Are Deepfakes & Why the Future of Porn is Terrifying". Highsnobiety. مؤرشف من الأصل في 2021-07-14. اطلع عليه بتاريخ 2018-02-20.
  16. ^ "Experts fear face swapping tech could start an international showdown". The Outline (بالإنجليزية). Archived from the original on 2019-04-10. Retrieved 2018-02-28.
  17. ^ Roose, Kevin (04 Mar 2018). "Here Come the Fake Videos, Too". The New York Times (بالإنجليزية). ISSN:0362-4331. Archived from the original on 2019-06-18. Retrieved 2018-03-24.
  18. ^ ا ب Harwell، Drew (12 يونيو 2019). "Top AI researchers race to detect 'deepfake' videos: 'We are outgunned'". The Washington Post. مؤرشف من الأصل في 2019-10-31. اطلع عليه بتاريخ 2019-11-08.
  19. ^ Sanchez، Julian (8 فبراير 2018). "Thanks to AI, the future of 'fake news' is being pioneered in homemade porn". NBC News. مؤرشف من الأصل في 2019-11-09. اطلع عليه بتاريخ 2019-11-08.
  20. ^ ا ب ج د Porter، Jon (02 سبتمبر 2019). "Another convincing deepfake app goes viral prompting immediate privacy backlash". The Verge. مؤرشف من الأصل في 2019-09-03. اطلع عليه بتاريخ 2019-11-08.
  21. ^ Bregler، Christoph؛ Covell، Michele؛ Slaney، Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. ج. 24: 353–360. مؤرشف من الأصل في 2020-05-19. اطلع عليه بتاريخ 2024-11-24 – عبر ACM Digital Library.
  22. ^ Suwajanakorn، Supasorn؛ Seitz، Steven M.؛ Kemelmacher-Shlizerman، Ira (يوليو 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. ج. 36.4: 95:1–95:13. مؤرشف من الأصل في 2020-05-19. اطلع عليه بتاريخ 2024-11-24 – عبر ACM Digital Library.
  23. ^ Thies، Justus؛ Zollhöfer، Michael؛ Stamminger، Marc؛ Theobalt، Christian؛ Nießner، Matthias (يونيو 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". IEEE: 2387–2395. DOI:10.1109/CVPR.2016.262. ISBN:9781467388511. مؤرشف من الأصل في 2019-08-24. اطلع عليه بتاريخ 2024-11-24.
  24. ^ Bode، Lisa؛ Lees، Dominic؛ Golding، Dan (29 يوليو 2021). "The Digital Face and Deepfakes on Screen". Convergence: The International Journal of Research into New Media Technologies. ج. 27 ع. 4: 849–854. DOI:10.1177/13548565211034044. ISSN:1354-8565. S2CID:237402465. اطلع عليه بتاريخ 2024-11-23.
  25. ^ ا ب Holliday، Christopher (26 يوليو 2021). "Rewriting the stars: Surface tensions and gender troubles in the online media production of digital deepfakes". Convergence: The International Journal of Research into New Media Technologies. ج. 27 ع. 4: 899–918. DOI:10.1177/13548565211029412. ISSN:1354-8565. S2CID:237402548. اطلع عليه بتاريخ 2024-11-23.
  26. ^ Gingrich، Oliver M. (05 يوليو 2021). "GENDER*UCK: Reframing gender & media art". Proceedings of EVA London 2021 (EVA 2021). Electronic Workshops in Computing. DOI:10.14236/ewic/EVA2021.25. S2CID:236918199. اطلع عليه بتاريخ 2024-11-23.
  27. ^ Fletcher، John (2018). "Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance". Theatre Journal. ج. 70 ع. 4: 455–471. DOI:10.1353/tj.2018.0097. ISSN:1086-332X. S2CID:191988083. مؤرشف من الأصل في 2024-06-05. اطلع عليه بتاريخ 2024-11-23.
  28. ^ Öhman، Carl (01 يونيو 2020). "Introducing the pervert's dilemma: a contribution to the critique of Deepfake Pornography". Ethics and Information Technology. ج. 22 ع. 2: 133–140. DOI:10.1007/s10676-019-09522-1. ISSN:1572-8439. S2CID:208145457. اطلع عليه بتاريخ 2024-11-23.
  29. ^ van der Nagel، Emily (01 أكتوبر 2020). "Verifying images: deepfakes, control, and consent". Porn Studies. ج. 7 ع. 4: 424–429. DOI:10.1080/23268743.2020.1741434. ISSN:2326-8743. S2CID:242891792. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-02-09.
  30. ^ Fallis، Don (01 ديسمبر 2021). "The Epistemic Threat of Deepfakes". Philosophy & Technology. ج. 34 ع. 4: 623–643. DOI:10.1007/s13347-020-00419-2. ISSN:2210-5433. PMC:7406872. PMID:32837868. اطلع عليه بتاريخ 2024-11-23.
  31. ^ Chesney، Robert؛ Citron، Danielle Keats (2018). "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security". SSRN Electronic Journal. DOI:10.2139/ssrn.3213954. ISSN:1556-5068. مؤرشف من الأصل في 2019-12-21. اطلع عليه بتاريخ 2022-02-09.
  32. ^ Yadlin-Segal، Aya؛ Oppenheim، Yael (فبراير 2021). "Whose dystopia is it anyway? Deepfakes and social media regulation". Convergence: The International Journal of Research into New Media Technologies. ج. 27 ع. 1: 36–51. DOI:10.1177/1354856520923963. ISSN:1354-8565. S2CID:219438536. مؤرشف من الأصل في 2022-02-09. اطلع عليه بتاريخ 2022-02-09.
  33. ^ Hwang، Yoori؛ Ryu، Ji Youn؛ Jeong، Se-Hoon (01 مارس 2021). "Effects of Disinformation Using Deepfake: The Protective Effect of Media Literacy Education". Cyberpsychology, Behavior, and Social Networking. ج. 24 ع. 3: 188–193. DOI:10.1089/cyber.2020.0174. ISSN:2152-2715. PMID:33646021. S2CID:232078561. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-02-09.
  34. ^ Hight، Craig (12 نوفمبر 2021). "Deepfakes and documentary practice in an age of misinformation". Continuum. ج. 36 ع. 3: 393–410. DOI:10.1080/10304312.2021.2003756. ISSN:1030-4312. S2CID:244092288. مؤرشف من الأصل في 2022-02-09. اطلع عليه بتاريخ 2022-02-09.
  35. ^ Hancock، Jeffrey T.؛ Bailenson، Jeremy N. (01 مارس 2021). "The Social Impact of Deepfakes". Cyberpsychology, Behavior, and Social Networking. ج. 24 ع. 3: 149–152. DOI:10.1089/cyber.2021.29208.jth. ISSN:2152-2715. PMID:33760669. S2CID:232356146. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-02-09.
  36. ^ de Seta، Gabriele (30 يوليو 2021). "Huanlian, or changing faces: Deepfakes on Chinese digital media platforms". Convergence: The International Journal of Research into New Media Technologies. ج. 27 ع. 4: 935–953. DOI:10.1177/13548565211030185. hdl:11250/2833613. ISSN:1354-8565. S2CID:237402447. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-02-09.
  37. ^ ا ب Bregler، Christoph؛ Covell، Michele؛ Slaney، Malcolm (1997). "Video Rewrite: Driving visual speech with audio". Proceedings of the 24th annual conference on Computer graphics and interactive techniques – SIGGRAPH '97. ج. 24. ص. 353–360. DOI:10.1145/258734.258880. ISBN:0897918967. S2CID:2341707. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-11-23.
  38. ^ ا ب ج Suwajanakorn، Supasorn؛ Seitz، Steven M.؛ Kemelmacher-Shlizerman، Ira (يوليو 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. ج. 36 ع. 4: 95:1–95:13. DOI:10.1145/3072959.3073640. S2CID:207586187. مؤرشف من الأصل في 2020-05-19. اطلع عليه بتاريخ 2023-07-10.
  39. ^ ا ب ج Thies، Justus؛ Zollhöfer، Michael؛ Stamminger، Marc؛ Theobalt، Christian؛ Nießner، Matthias (يونيو 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE. ص. 2387–2395. arXiv:2007.14808. DOI:10.1109/CVPR.2016.262. ISBN:9781467388511. S2CID:206593693. اطلع عليه بتاريخ 2024-11-23.
  40. ^ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. مؤرشف من الأصل في 2019-05-17. اطلع عليه بتاريخ 2018-08-27.
  41. ^ Farquhar، Peter (27 أغسطس 2018). "An AI program will soon be here to help your deepface dancing – just don't call it deepfake". Business Insider Australia. مؤرشف من الأصل في 2019-04-10. اطلع عليه بتاريخ 2018-08-27.
  42. ^ Mirsky، Yisroel؛ Mahler، Tom؛ Shelef، Ilan؛ Elovici، Yuval (2019). CT-GAN: Malicious Tampering of 3D Medical Imagery using Deep Learning. ص. 461–478. arXiv:1901.03597. ISBN:978-1-939133-06-9. مؤرشف من الأصل في 2020-06-20. اطلع عليه بتاريخ 2020-06-18.
  43. ^ O'Neill، Patrick Howell (03 أبريل 2019). "Researchers Demonstrate Malware That Can Trick Doctors Into Misdiagnosing Cancer". Gizmodo. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-06-03.
  44. ^ Mirsky، Yisroel؛ Lee، Wenke (12 مايو 2020). "The Creation and Detection of Deepfakes: A Survey". ACM Computing Surveys. arXiv:2004.11138. DOI:10.1145/3425780. S2CID:216080410. اطلع عليه بتاريخ 2024-11-23.
  45. ^ Karnouskos، Stamatis (2020). "Artificial Intelligence in Digital Media: The Era of Deepfakes" (pdf). IEEE Transactions on Technology and Society. ج. 1 ع. 3: 1. DOI:10.1109/TTS.2020.3001312. S2CID:221716206. مؤرشف (PDF) من الأصل في 2021-07-14. اطلع عليه بتاريخ 2020-07-09.
  46. ^ ا ب Cole، Samantha (24 يناير 2018). "We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now". Vice. مؤرشف من الأصل في 2019-09-07. اطلع عليه بتاريخ 2019-05-04.
  47. ^ Haysom، Sam (31 يناير 2018). "People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018". Mashable. مؤرشف من الأصل في 2019-07-24. اطلع عليه بتاريخ 2019-04-04.
  48. ^ Cole، Samantha (11 ديسمبر 2017). "AI-Assisted Fake Porn Is Here and We're All Fucked". Vice. مؤرشف من الأصل في 2019-09-07. اطلع عليه بتاريخ 2018-12-19.
  49. ^ ا ب Hathaway، Jay (8 فبراير 2018). "Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban". The Daily Dot. مؤرشف من الأصل في 2019-07-06. اطلع عليه بتاريخ 2018-12-22.
  50. ^ "r/SFWdeepfakes". Reddit. مؤرشف من الأصل في 2019-08-09. اطلع عليه بتاريخ 2018-12-12.
  51. ^ "What is a Deepfake and How Are They Made?". Online Tech Tips. 23 مايو 2019. مؤرشف من الأصل في 2019-11-08. اطلع عليه بتاريخ 2019-11-08.
  52. ^ Robertson، Adi (11 فبراير 2018). "I'm using AI to face-swap Elon Musk and Jeff Bezos, and I'm really bad at it". The Verge. مؤرشف من الأصل في 2018-03-24. اطلع عليه بتاريخ 2019-11-08.
  53. ^ Britta Bauchmüller، "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!، Berliner-Kurier.de، مؤرشف من الأصل في 2019-08-28، اطلع عليه بتاريخ 2024-11-24
  54. ^ Eike Kühl (26 يناير 2018)، Künstliche Intelligenz: Auf Fake News folgt Fake Porn، Die Zeit، ISSN:0044-2070، مؤرشف من الأصل في 2019-05-24، اطلع عليه بتاريخ 2024-11-24
  55. ^ heise online، "Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien"، heise online، مؤرشف من الأصل في 2019-12-12، اطلع عليه بتاريخ 2024-11-24
  56. ^ Chandler، Simon. "Why Deepfakes Are A Net Positive For Humanity". Forbes. مؤرشف من الأصل في 2020-11-16. اطلع عليه بتاريخ 2020-11-03.
  57. ^ Pangburn، D. J. (21 سبتمبر 2019). "You've been warned: Full body deepfakes are the next step in AI-based human mimicry". Fast Company. مؤرشف من الأصل في 2019-11-08. اطلع عليه بتاريخ 2019-11-08.
  58. ^ Lyons، Kim (29 يناير 2020). "FTC says the tech behind audio deepfakes is getting better". The Verge. مؤرشف من الأصل في 2020-01-30. اطلع عليه بتاريخ 2020-02-08.
  59. ^ "Audio samples from "Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis"". google.github.io. مؤرشف من الأصل في 2019-11-14. اطلع عليه بتاريخ 2020-02-08.
  60. ^ Jia، Ye؛ Zhang، Yu؛ Weiss، Ron J.؛ Wang، Quan؛ Shen، Jonathan؛ Ren، Fei؛ Chen، Zhifeng؛ Nguyen، Patrick؛ Pang، Ruoming؛ Moreno، Ignacio Lopez؛ Wu، Yonghui (2 يناير 2019). "Transfer Learning from Speaker Verification to Multispeaker Text-To-Speech Synthesis". arXiv:1806.04558 [cs.CL]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  61. ^ "TUM Visual Computing: Prof. Matthias Nießner". www.niessnerlab.org. مؤرشف من الأصل في 2020-02-21. اطلع عليه بتاريخ 2020-02-08.
  62. ^ "Full Page Reload". IEEE Spectrum: Technology, Engineering, and Science News. 11 ديسمبر 2019. مؤرشف من الأصل في 2020-06-26. اطلع عليه بتاريخ 2020-02-08.
  63. ^ "Contributing Data to Deepfake Detection Research". Google Research, Brain Team. 24 سبتمبر 2019. مؤرشف من الأصل في 2020-02-05. اطلع عليه بتاريخ 2020-02-08.
  64. ^ Thalen، Mikael. "You can now deepfake yourself into a celebrity with just a few clicks". daily dot. مؤرشف من الأصل في 2020-04-06. اطلع عليه بتاريخ 2020-04-03.
  65. ^ Matthews، Zane (6 مارس 2020). "Fun or Fear: Deepfake App Puts Celebrity Faces In Your Selfies". Kool1079. مؤرشف من الأصل في 2020-03-24. اطلع عليه بتاريخ 2020-03-06.
  66. ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". غيت هاب. 19 يونيو 2019. مؤرشف من الأصل في 2019-05-09. اطلع عليه بتاريخ 2024-11-24.
  67. ^ "Build software better, together". GitHub. مؤرشف من الأصل في 2019-06-20. اطلع عليه بتاريخ 2024-11-24.
  68. ^ "Bitbucket". bitbucket.org. مؤرشف من الأصل في 2019-04-10. اطلع عليه بتاريخ 2024-11-24.
  69. ^ Fiske، Tormod. "Imagining Deceptive Deepfakes" (PDF). www.duo.uio.no. مؤرشف من الأصل (PDF) في 2019-03-07. اطلع عليه بتاريخ 2019-06-19.
  70. ^ "Deepfakes web | The best online faceswap app". Deepfakes web. مؤرشف من الأصل في 2021-07-14. اطلع عليه بتاريخ 2021-02-21.
  71. ^ "Faceswap is the leading free and Open Source multi-platform Deepfakes software". 15 أكتوبر 2019. مؤرشف من الأصل في 2021-05-31. اطلع عليه بتاريخ 2021-07-14 – عبر WordPress.
  72. ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". غيت هاب. 19 يونيو 2019. مؤرشف من الأصل في 2019-05-09. اطلع عليه بتاريخ 2019-03-06 – عبر GitHub.
  73. ^ "Kanye West, Kim Kardashian and her dad: Should we make holograms of the dead?". BBC News. 31 أكتوبر 2020. مؤرشف من الأصل في 2020-11-15. اطلع عليه بتاريخ 2020-11-11.
  74. ^ "Kanye West Gave Kim Kardashian a Hologram of Her Father for Her Birthday". themodems. 30 أكتوبر 2020. مؤرشف من الأصل في 2020-11-11. اطلع عليه بتاريخ 2020-11-11.
  75. ^ "Parkland victim Joaquin Oliver comes back to life in heartbreaking plea to voters". adage.com. 02 أكتوبر 2020. مؤرشف من الأصل في 2020-11-11. اطلع عليه بتاريخ 2020-11-11.
  76. ^ Bowenbank، Starr (14 سبتمبر 2022). "Simon Cowell Duets With Elvis in Metaphysic's Latest Deepfake 'AGT' Performance: Watch". Billboard. مؤرشف من الأصل في 2022-09-15. اطلع عليه بتاريخ 2022-11-08.
  77. ^ "John Lennon 'One Laptop per Child' Commecial". يوتيوب. 26 ديسمبر 2008. مؤرشف من الأصل في 2023-03-09. اطلع عليه بتاريخ 2023-03-09.
  78. ^ Zucconi، Alan (14 مارس 2018). "Understanding the Technology Behind DeepFakes". Alan Zucconi. مؤرشف من الأصل في 2019-11-01. اطلع عليه بتاريخ 2019-11-08.
  79. ^ "What is a Deepfake?". Blog - Synthesys. 03 مايو 2022. مؤرشف من الأصل في 2022-06-26. اطلع عليه بتاريخ 2022-05-17.
  80. ^ ا ب "These New Tricks Can Outsmart Deepfake Videos—for Now". Wired. ISSN:1059-1028. مؤرشف من الأصل في 2019-10-03. اطلع عليه بتاريخ 2019-11-09.
  81. ^ Kemp، Luke (08 يوليو 2019). "In the age of deepfakes, could virtual actors put humans out of business?". The Guardian. ISSN:0261-3077. مؤرشف من الأصل في 2019-10-20. اطلع عليه بتاريخ 2019-10-20.
  82. ^ Verma، Pranshu (21 يوليو 2023). "Digital clones made by AI tech could make Hollywood extras obsolete". Washington Post. مؤرشف من الأصل في 2023-07-20. اطلع عليه بتاريخ 2024-01-04.
  83. ^ ا ب "High-Resolution Neural Face Swapping for Visual Effects | Disney Research Studios". مؤرشف من الأصل في 2020-11-27. اطلع عليه بتاريخ 2020-10-07.
  84. ^ ا ب "Disney's deepfake technology could be used in film and TV". Blooloop. 21 يوليو 2020. مؤرشف من الأصل في 2020-11-12. اطلع عليه بتاريخ 2020-10-07.
  85. ^ Lindley، Jon A. (02 يوليو 2020). "Disney Ventures Into Bringing Back 'Dead Actors' Through Facial Recognition". Tech Times. مؤرشف من الأصل في 2021-07-14. اطلع عليه بتاريخ 2020-10-07.
  86. ^ Radulovic، Petrana (17 أكتوبر 2018). "Harrison Ford is the star of Solo: A Star Wars Story thanks to deepfake technology". Polygon. مؤرشف من الأصل في 2019-10-20. اطلع عليه بتاريخ 2019-10-20.
  87. ^ Winick، Erin. "How acting as Carrie Fisher's puppet made a career for Rogue One's Princess Leia". MIT Technology Review. مؤرشف من الأصل في 2019-10-23. اطلع عليه بتاريخ 2019-10-20.
  88. ^ "Deepfake Luke Skywalker is another step down a ghoulish CGI path". British GQ. 10 فبراير 2022. مؤرشف من الأصل في 2022-05-22. اطلع عليه بتاريخ 2022-06-03.
  89. ^ Dazed (10 فبراير 2022). "Will deepfakes rewrite history as we know it?". Dazed. مؤرشف من الأصل في 2022-06-08. اطلع عليه بتاريخ 2022-06-03.
  90. ^ Schwartzel، Erich (21 ديسمبر 2023). "Behind the Making of My AI Digital Double". Wall Street Journal. مؤرشف من الأصل في 2024-01-06. اطلع عليه بتاريخ 2024-01-04.
  91. ^ Coffee، Patrick (18 يونيو 2023). "Celebrities Use AI to Take Control of Their Own Images". Wall Street Journal. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-04.
  92. ^ Prescott, Katie Prescott (23 Aug 2024). "The man who creates fake people – like David Beckham speaking nine languages". ذا تايمز (بالإنجليزية). Archived from the original on 2024-08-23. Retrieved 2024-10-22.
  93. ^ "Not Vijay, Here's Who Played the Younger Version of Him in The GOAT". english.tupaki.com/ (بالإنجليزية). 08 Sep 2024. Archived from the original on 2024-12-15. Retrieved 2024-11-08.
  94. ^ "PART 6: MEDIA CO-CREATION WITH NON-HUMAN SYSTEMS" (بالإنجليزية). Archived from the original on 2020-03-04. Retrieved 2024-11-23.
  95. ^ "ANSA | Ornella Muti in cortometraggio a Firenze". Agenzia ANSA. 3 نوفمبر 2017. مؤرشف من الأصل في 2020-02-27. اطلع عليه بتاريخ 2020-02-27.
  96. ^ "'South Park' creators launch new deepfake satire series 'Sassy Justice'". NME. 27 أكتوبر 2020. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-06-07.
  97. ^ ا ب Tayler، Kelley M.؛ Harris، Laurie A. (8 يونيو 2021). Deep Fakes and National Security (Report). Congressional Research Service. ص. 1. مؤرشف من الأصل في 2022-06-14. اطلع عليه بتاريخ 2021-07-19.
  98. ^ Limberg، Peter (24 مايو 2020). "Blackmail Inflation". CultState. مؤرشف من الأصل في 2021-01-24. اطلع عليه بتاريخ 2021-01-18.
  99. ^ "For Kappy". Telegraph. 24 مايو 2020. مؤرشف من الأصل في 2021-01-24. اطلع عليه بتاريخ 2021-01-18.
  100. ^ Marr، Bernard. "Can A Metaverse AI Win America's Got Talent? (And What That Means For The Industry)". Forbes. مؤرشف من الأصل في 2022-08-30. اطلع عليه بتاريخ 2022-08-30.
  101. ^ Morales، Jowi (10 يونيو 2022). "Deepfakes Go Mainstream: How Metaphysic's AGT Entry Will Impact Entertainment". MUO. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-08-29.
  102. ^ Carter، Rebecca (01 يونيو 2019). "BGT viewers slam Simon Cowell for 'rude' and 'nasty' remark to contestant". Entertainment Daily. مؤرشف من الأصل في 2022-08-31. اطلع عليه بتاريخ 2022-08-31.
  103. ^ "Simon Cowell Sings on Stage?! Metaphysic Will Leave You Speechless | AGT 2022"، i24News English، مؤرشف من الأصل في 2022-08-29، اطلع عليه بتاريخ 2022-08-29
  104. ^ Segarra، Edward. "'AGT' judges Simon Cowell, Howie Mandel get 'deepfake' treatment by AI act Metaphysic: Watch here". USA TODAY. مؤرشف من الأصل في 2022-08-31. اطلع عليه بتاريخ 2022-08-31.
  105. ^ Bowenbank، Starr (14 سبتمبر 2022). "Simon Cowell Duets With Elvis in Metaphysic's Latest Deepfake 'AGT' Performance: Watch". Billboard. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-09-15.
  106. ^ Zwiezen، Zack (18 يناير 2021). "Website Lets You Make GLaDOS Say Whatever You Want". كوتاكو. مؤرشف من الأصل في 2021-01-17. اطلع عليه بتاريخ 2021-01-18.
  107. ^ Ruppert، Liana (18 يناير 2021). "Make Portal's GLaDOS And Other Beloved Characters Say The Weirdest Things With This App". غيم إنفورمر. مؤرشف من الأصل في 2021-01-18. اطلع عليه بتاريخ 2021-01-18.
  108. ^ Clayton، Natalie (19 يناير 2021). "Make the cast of TF2 recite old memes with this AI text-to-speech tool". بي سي غيمر. مؤرشف من الأصل في 2021-01-19. اطلع عليه بتاريخ 2021-01-19.
  109. ^ Sherman، Maria (3 ديسمبر 2023). "Kiss say farewell to live touring, become first US band to go virtual and become digital avatars". AP News. Associated Press. مؤرشف من الأصل في 2024-01-01. اطلع عليه بتاريخ 2024-01-04.
  110. ^ ا ب ج د ه Cerullo، Megan (9 يناير 2024). "AI-generated ads using Taylor Swift's likeness dupe fans with fake Le Creuset giveaway". سي بي إس نيوز. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
  111. ^ ا ب ج د ه Hsu، Tiffany؛ Lu، Yiwen (9 يناير 2024). "No, That's Not Taylor Swift Peddling Le Creuset Cookware". نيويورك تايمز. ص. B1. اطلع عليه بتاريخ 2024-01-10.
  112. ^ ا ب Taylor، Derrick Bryson (02 أكتوبر 2023). "Tom Hanks Warns of Dental Ad Using A.I. Version of Him". The New York Times. ISSN:0362-4331. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-10-12.
  113. ^ ا ب Johnson، Kirsten (11 ديسمبر 2023). "Arizona woman falls victim to deepfake scam using celebrities on social media". ABC 15 Arizona. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
  114. ^ ا ب Kulundu، Mary (4 يناير 2024). "Deepfake videos of Elon Musk used in get-rich-quick scam". وكالة فرانس برس. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-10.
  115. ^ Gerken، Tom (4 أكتوبر 2023). "MrBeast and BBC stars used in deepfake scam videos". بي بي سي نيوز. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-10.
  116. ^ ا ب Lim، Kimberly (29 ديسمبر 2023). "Singapore PM Lee warns of 'very convincing' deepfakes 'spreading disinformation' after fake video of him emerges". جريدة جنوب الصين الصباحية. مؤرشف من الأصل في 2024-01-09. اطلع عليه بتاريخ 2024-01-10.
  117. ^ Taylor، Josh (30 نوفمبر 2023). "Scammer paid Facebook 7c per view to circulate video of deepfake Jim Chalmers and Gina Rinehart". الغارديان. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-10.
  118. ^ Palmer، Joseph Olbrycht (14 ديسمبر 2023). "Deepfake of Australian treasury, central bank officials used to promote investment scam". وكالة فرانس برس. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
  119. ^ ا ب ج Koebler، Jason (9 يناير 2024). "Deepfaked Celebrity Ads Promoting Medicare Scams Run Rampant on YouTube". 404 Media. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
  120. ^ ا ب ج Rosenblatt، Kalhan (3 أكتوبر 2023). "MrBeast calls TikTok ad showing an AI version of him a 'scam'". إن بي سي نيوز. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
  121. ^ Koebler، Jason (25 يناير 2024). "YouTube Deletes 1,000 Videos of Celebrity AI Scam Ads". 404 Media. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-02-02.
  122. ^ Bucci، Nino (27 نوفمبر 2023). "Dick Smith criticises Facebook after scammers circulate deepfake video ad". الغارديان. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-01-10.
  123. ^ Lomas، Natasha (7 يوليو 2023). "Martin Lewis warns over 'first' deepfake video scam ad circulating on Facebook". تك كرانش. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
  124. ^ Lopatto، Elizabeth (3 يناير 2024). "Fun new deepfake consequence: more convincing crypto scams". ذا فيرج. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
  125. ^ Spoto، Maia؛ Poritz، Isaiah (11 أكتوبر 2023). "MrBeast, Tom Hanks Stung by AI Scams as Law Rushes to Keep Pace". Bloomberg Law. مؤرشف من الأصل في 2024-01-10. اطلع عليه بتاريخ 2024-01-10.
  126. ^ Statt، Nick (5 سبتمبر 2019). "Thieves are now using AI deepfakes to trick companies into sending them money". The Verge. مؤرشف من الأصل في 2019-09-15. اطلع عليه بتاريخ 2019-09-13.
  127. ^ Damiani، Jesse. "A Voice Deepfake Was Used To Scam A CEO Out Of $243,000". Forbes. مؤرشف من الأصل في 2019-09-14. اطلع عليه بتاريخ 2019-11-09.
  128. ^ "Deepfakes, explained". MIT Sloan. 5 مارس 2024. مؤرشف من الأصل في 2024-03-05. اطلع عليه بتاريخ 2024-03-06.
  129. ^ Schwartz، Christopher؛ Wright، Matthew (17 مارس 2023). "Voice deepfakes are calling – here's what they are and how to avoid getting scammed". The Conversation. مؤرشف من الأصل في 2024-01-04. اطلع عليه بتاريخ 2024-01-04.
  130. ^ ا ب ج Somers، Meredith (21 يوليو 2020). "Deepfakes, explained". MIT Sloan. مؤرشف من الأصل في 2024-03-05. اطلع عليه بتاريخ 2024-03-06.
  131. ^ C، Kim (22 أغسطس 2020). "Coffin Dance and More: The Music Memes of 2020 So Far". Music Times. مؤرشف من الأصل في 2021-06-26. اطلع عليه بتاريخ 2020-08-26.
  132. ^ Sholihyn، Ilyas (7 أغسطس 2020). "Someone deepfaked Singapore's politicians to lip-sync that Japanese meme song". AsiaOne. مؤرشف من الأصل في 2020-09-03. اطلع عليه بتاريخ 2020-08-26.
  133. ^ "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 03 فبراير 2018. مؤرشف من الأصل في 2019-04-13. اطلع عليه بتاريخ 2024-11-24.
  134. ^ Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل في 2018-09-09. اطلع عليه بتاريخ 2024-11-24.
  135. ^ ا ب ج "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 03 فبراير 2018. مؤرشف من الأصل في 2019-04-13. اطلع عليه بتاريخ 2018-04-09.
  136. ^ Gensing، Patrick. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل في 2018-10-11. اطلع عليه بتاريخ 2018-04-09.
  137. ^ Romano، Aja (18 أبريل 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 2019-06-11. اطلع عليه بتاريخ 2018-09-10.
  138. ^ Romano، Aja (18 أبريل 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 2019-06-11. اطلع عليه بتاريخ 2018-09-10.
  139. ^ Swenson, Kyle (11 Jan 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired". The Washington Post (بالإنجليزية). Archived from the original on 2019-04-15. Retrieved 2019-01-11.
  140. ^ O'Sullivan، Donie (4 يونيو 2019). "Congress to investigate deepfakes as doctored Pelosi video causes stir". CNN. مؤرشف من الأصل في 2019-06-29. اطلع عليه بتاريخ 2019-11-09.
  141. ^ Holubowicz, Gerald (15 Apr 2020). "Extinction Rebellion s'empare des deepfakes". Journalism.design (بالفرنسية). Archived from the original on 2020-07-29. Retrieved 2020-04-21.
  142. ^ Carnahan، Dustin (16 سبتمبر 2020). "Faked videos shore up false beliefs about Biden's mental health". The Conversation. مؤرشف من الأصل في 2022-04-09. اطلع عليه بتاريخ 2022-04-09.
  143. ^ Parker، Ashley (07 سبتمبر 2020). "Trump and allies ramp up efforts to spread disinformation and fake news". The Independent. مؤرشف من الأصل في 2024-02-24. اطلع عليه بتاريخ 2022-04-09.
  144. ^ Christopher، Nilesh (18 فبراير 2020). "We've Just Seen the First Use of Deepfakes in an Indian Election Campaign". Vice. مؤرشف من الأصل في 2020-02-19. اطلع عليه بتاريخ 2020-02-19.
  145. ^ "Amabie: the mythical creature making a coronavirus comeback". The Economist. 28 أبريل 2020. ISSN:0013-0613. مؤرشف من الأصل في 2021-05-20. اطلع عليه بتاريخ 2021-06-03.
  146. ^ Roth، Andrew (22 أبريل 2021). "European MPs targeted by deepfake video calls imitating Russian opposition". الغارديان. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-29.
  147. ^ Ivanov، Maxim؛ Rothrock، Kevin (22 أبريل 2021). "Hello, this is Leonid Volkov* Using deepfake video and posing as Navalny's right-hand man, Russian pranksters fool Latvian politicians and journalists into invitation and TV interview". Meduza. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-29.
  148. ^ "Dutch MPs in video conference with deep fake imitation of Navalny's Chief of Staff". nltimes.nl. 24 أبريل 2021. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-03-29.
  149. ^ "'Deepfake' Navalny Aide Targets European Lawmakers". موسكو تايمز. 23 أبريل 2021. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-29.
  150. ^ Vincent، James (30 أبريل 2021). "'Deepfake' that supposedly fooled European politicians was just a look-alike, say pranksters". ذا فيرج. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-29.
  151. ^ Novak، Matt (8 مايو 2023). "Viral Video Of Kamala Harris Speaking Gibberish Is Actually A Deepfake". Forbes. مؤرشف من الأصل في 2023-07-18. اطلع عليه بتاريخ 2023-07-18.
  152. ^ "PolitiFact - Kamala Harris wasn't slurring about today, yesterday or tomorrow. This video is altered". Politifact. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-07-18.
  153. ^ Shuham، Matt (08 يونيو 2023). "DeSantis Campaign Ad Shows Fake AI Images Of Trump Hugging Fauci". HuffPost. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-06-08.
  154. ^ "AI Deepfakes Pose Major Threat to Elections in US and India". The Washington Post. ISSN:0190-8286. مؤرشف من الأصل في 2024-05-20. اطلع عليه بتاريخ 2024-10-22.
  155. ^ Christopher، Nilesh (مارس 2024). "Indian Voters Are Being Bombarded With Millions of Deepfakes. Political Candidates Approve". Wired. مؤرشف من الأصل في 2024-03-12. اطلع عليه بتاريخ 2024-10-20.
  156. ^ "What an Indian Deepfaker Tells Us About Global Election Security". Bloomberg. مؤرشف من الأصل في 2024-04-01. اطلع عليه بتاريخ 2024-10-20.
  157. ^ Roettgers, Janko (21 Feb 2018). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (بالإنجليزية). Archived from the original on 2019-06-10. Retrieved 2018-02-28.
  158. ^ "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet". ذا رجستر (بالإنجليزية). Archived from the original on 2019-04-10. Retrieved 2018-02-20.
  159. ^ Kharpal، Arjun (08 فبراير 2018). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. مؤرشف من الأصل في 2019-04-10. اطلع عليه بتاريخ 2018-02-20.
  160. ^ "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (بالإنجليزية). Archived from the original on 2019-04-10. Retrieved 2018-02-20.
  161. ^ AI-Assisted Fake Porn Is Here and We’re All Fucked، Motherboard، 11 ديسمبر 2017، مؤرشف من الأصل في 2019-05-05، اطلع عليه بتاريخ 2024-11-24
  162. ^ Markus Böhm (07 فبراير 2018)، "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor، Spiegel Online، مؤرشف من الأصل في 2019-09-23، اطلع عليه بتاريخ 2024-11-24
  163. ^ "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'". The Washington Post. 31 ديسمبر 2018. مؤرشف من الأصل في 2019-06-13. اطلع عليه بتاريخ 2019-06-19.
  164. ^ Damiani، Jesse. "Chinese Deepfake App Zao Goes Viral, Faces Immediate Criticism Over User Data And Security Policy". Forbes. مؤرشف من الأصل في 2019-09-14. اطلع عليه بتاريخ 2019-11-18.
  165. ^ "Ahead of Irish and US elections, Facebook announces new measures against 'deepfake' videos". Independent.ie. 7 يناير 2020. مؤرشف من الأصل في 2020-01-08. اطلع عليه بتاريخ 2020-01-07.
  166. ^ "How Belgian visual expert Chris Ume masterminded Tom Cruise's deepfakes". The Statesman. 06 مارس 2021. مؤرشف من الأصل في 2022-08-24. اطلع عليه بتاريخ 2022-08-24.
  167. ^ Metz، Rachel. "How a deepfake Tom Cruise on TikTok turned into a very real AI company". CNN. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-03-17.
  168. ^ Corcoran، Mark؛ Henry، Matt (23 يونيو 2021). "This is not Tom Cruise. That's what has security experts so worried". ABC News. مؤرشف من الأصل في 2022-03-28. اطلع عليه بتاريخ 2022-03-28.
  169. ^ "Deepfake Used to Attack Activist Couple Shows New Disinformation Frontier". Reuters. مؤرشف من الأصل في 2020-09-26. اطلع عليه بتاريخ 2024-11-23.
  170. ^ ""'Leftists for Bibi'? Deepfake Pro-Netanyahu Propaganda Exposed: According to a Series of Facebook Posts, the Israeli Prime Minister is Winning over Left-Wing Followers--Except that None of the People in Question Exist"". +972 Magazine. مؤرشف من الأصل في 2020-08-14. اطلع عليه بتاريخ 2024-11-23.
  171. ^ "הפורנוגרפיה של ההסתהתומכי נתניהו ממשיכים להפיץ פוסטים מזויפים בקבוצות במדיה החברתית • לצד הטרלות מעלות גיחוך מופצות תמונות שקריות על מנת להגביר את השנאה והפילוג בחברה הישראלית". مؤرشف من الأصل في 2020-08-18. اطلع عليه بتاريخ 2024-11-23.
  172. ^ ا ب "Perfect Deepfake Tech Could Arrive Sooner Than Expected". www.wbur.org. 2 أكتوبر 2019. مؤرشف من الأصل في 2019-10-30. اطلع عليه بتاريخ 2019-11-09.
  173. ^ Sonnemaker، Tyler. "As social media platforms brace for the incoming wave of deepfakes, Google's former 'fraud czar' predicts the biggest danger is that deepfakes will eventually become boring". Business Insider. مؤرشف من الأصل في 2021-04-14. اطلع عليه بتاريخ 2021-04-14.
  174. ^ ا ب ج Bateman، Jon (2020). "Summary". Deepfakes and Synthetic Media in the Financial System: 1–2. مؤرشف من الأصل في 2021-04-20. اطلع عليه بتاريخ 2020-10-28.
  175. ^ Kelion، Leo (سبتمبر 2020). "Deepfake detection tool unveiled by Microsoft". BBC News. مؤرشف من الأصل في 2021-04-14. اطلع عليه بتاريخ 2021-04-15.
  176. ^ Cohen، Ariel؛ Rimon، Inbal؛ Aflalo، Eran؛ Permuter، Haim H. (يونيو 2022). "A study on data augmentation in voice anti-spoofing". Speech Communication. ج. 141: 56–67. arXiv:2110.10491. DOI:10.1016/j.specom.2022.04.005. S2CID:239050551. اطلع عليه بتاريخ 2024-11-23.
  177. ^ ا ب ج Manke، Kara (18 يونيو 2019). "Researchers use facial quirks to unmask 'deepfakes'". Berkeley News. مؤرشف من الأصل في 2019-11-09. اطلع عليه بتاريخ 2019-11-09.
  178. ^ Farid، Hany (1 ديسمبر 2006). "Digital Doctoring: How to Tell the Real from the Fake". Significance. ج. 3 ع. 4: 162–166. DOI:10.1111/j.1740-9713.2006.00197.x. S2CID:13861938. اطلع عليه بتاريخ 2024-11-23.
  179. ^ "Join the Deepfake Detection Challenge (DFDC)". deepfakedetectionchallenge.ai. مؤرشف من الأصل في 2020-01-12. اطلع عليه بتاريخ 2019-11-08.
  180. ^ "Deepfake Detection Challenge Results: An open initiative to advance AI". ai.facebook.com. مؤرشف من الأصل في 2020-10-29. اطلع عليه بتاريخ 2022-09-30.
  181. ^ Groh، Matthew؛ Epstein، Ziv؛ Firestone، Chaz؛ Picard، Rosalind (2022). "Deepfake detection by human crowds, machines, and machine-informed crowds". Proceedings of the National Academy of Sciences. ج. 119 ع. 1. arXiv:2105.06496. Bibcode:2022PNAS..11910013G. DOI:10.1073/pnas.2110013119. PMC:8740705. PMID:34969837. اطلع عليه بتاريخ 2024-11-23.
  182. ^ Hu، Shu؛ Li، Yuezun؛ Lyu، Siwei (12 أكتوبر 2020). "Exposing GAN-Generated Faces Using Inconsistent Corneal Specular Highlights". arXiv:2009.11924 [cs.CV]. {{استشهاد بأرخايف}}: الوسيط |arxiv= مطلوب (مساعدة)
  183. ^ Boháček، M؛ Farid، H (29 نوفمبر 2022). "Protecting world leaders against deep fakes using facial, gestural, and vocal mannerisms". Proceedings of the National Academy of Sciences of the United States of America. ج. 119 ع. 48: e2216035119. Bibcode:2022PNAS..11916035B. DOI:10.1073/pnas.2216035119. PMC:9860138. PMID:36417442. اطلع عليه بتاريخ 2024-11-23.
  184. ^ ا ب "Google Scholar". scholar.google.com. مؤرشف من الأصل في 2023-09-19. اطلع عليه بتاريخ 2022-04-30.
  185. ^ ا ب Masi، Iacopo؛ Killekar، Aditya؛ Mascarenhas، Royston Marian؛ Gurudatt، Shenoy Pratik؛ Abdalmageed، Wael (2020). Two-branch recurrent network for isolating deepfakes in videos. Lecture Notes in Computer Science. ج. 12352. ص. 667–684. arXiv:2008.03412. DOI:10.1007/978-3-030-58571-6_39. ISBN:978-3-030-58570-9. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2022-04-30.
  186. ^ ا ب ج "The Blockchain Solution to Our Deepfake Problems". Wired. ISSN:1059-1028. مؤرشف من الأصل في 2019-11-07. اطلع عليه بتاريخ 2019-11-09.
  187. ^ ا ب Leetaru، Kalev. "Why Digital Signatures Won't Prevent Deep Fakes But Will Help Repressive Governments". Forbes. مؤرشف من الأصل في 2021-04-14. اطلع عليه بتاريخ 2021-02-17.
  188. ^ "To Uncover a Deepfake Video Call, Ask the Caller to Turn Sideways". Metaphysic. 08 أغسطس 2022. مؤرشف من الأصل في 2022-08-26. اطلع عليه بتاريخ 2022-08-24.
  189. ^ "Kate Middleton's ring mysteriously vanishes, raises more AI concerns". MSN. 25 مارس 2024. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-05-19.
  190. ^ Hindustan Times (5 أبريل 2024). "'Kate's cancer admission is fake', Meghan Markle's fan and UCLA director, Johnathan Perkins, floats conspiracy theory". The Hindustan Times. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-05-19.
  191. ^ Künstliche Intelligenz: Selfies sind eine gute Quelle، Die Zeit، 26 يناير 2018، ISSN:0044-2070، مؤرشف من الأصل في 2019-05-25، اطلع عليه بتاريخ 2024-11-24
  192. ^ „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?، WILDE BEUGER SOLMECKE Rechtsanwälte، 02 فبراير 2018، مؤرشف من الأصل في 2019-04-13، اطلع عليه بتاريخ 2024-11-24
  193. ^ ا ب "AI-generated images of Trump being arrested circulate on social media". AP News. 21 مارس 2023. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-10-10.
  194. ^ Fagan، Kaylee. "A viral video that appeared to show Obama calling Trump a 'dips---' shows a disturbing new trend called 'deepfakes'". Business Insider. مؤرشف من الأصل في 2020-09-22. اطلع عليه بتاريخ 2020-11-03.
  195. ^ "Trump shares deepfake photo of himself praying as AI images of arrest spread online". The Independent. 24 مارس 2023. مؤرشف من الأصل في 2023-05-28. اطلع عليه بتاريخ 2023-06-16.
  196. ^ Towers-Clark، Charles. "Mona Lisa And Nancy Pelosi: The Implications Of Deepfakes". Forbes. مؤرشف من الأصل في 2020-11-23. اطلع عليه بتاريخ 2020-10-07.
  197. ^ "What Is The Difference Between A Deepfake And Shallowfake?". 21 أبريل 2020. مؤرشف من الأصل في 2022-06-26. اطلع عليه بتاريخ 2021-12-05.
  198. ^ "Gallery: 'Spectre' Launches (Press Release)". Bill Posters. 29 مايو 2019. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-05-15.
  199. ^ Cole، Samantha (11 يونيو 2019). "This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies". Vice. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-05-15.
  200. ^ ا ب ج "Deepfake Putin is here to warn Americans about their self-inflicted doom". MIT Technology Review. مؤرشف من الأصل في 2020-10-30. اطلع عليه بتاريخ 2020-10-07.
  201. ^ Sonne، Paul (5 يونيو 2023). "Fake Putin Speech Calling for Martial Law Aired in Russia". The New York Times. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-06-06.
  202. ^ Pawelec، M (2022). "Deepfakes and Democracy (Theory): How Synthetic Audio-Visual Media for Disinformation and Hate Speech Threaten Core Democratic Functions". Digital Society: Ethics, Socio-legal and Governance of Digital Technology. ج. 1 ع. 2: 19. DOI:10.1007/s44206-022-00010-6. PMC:9453721. PMID:36097613. اطلع عليه بتاريخ 2024-11-23.
  203. ^ Allyn, Bobby (16 مارس 2022). "Deepfake video of Zelenskyy could be 'tip of the iceberg' in info war, experts warn". الإذاعة الوطنية العامة. مؤرشف من الأصل في 2022-03-29. اطلع عليه بتاريخ 2022-03-17.
  204. ^ Satariano، Adam؛ Mozur، Paul (7 فبراير 2023). "The People Onscreen Are Fake. The Disinformation Is Real". The New York Times. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-02-10.
  205. ^ "Pope Francis in Balenciaga deepfake fools millions: 'Definitely scary'". New York Post. 28 مارس 2023. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-06-16.
  206. ^ Lu، Donna (31 مارس 2023). "Misinformation, mistakes and the Pope in a puffer: what rapidly evolving AI can – and can't – do". The Guardian. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-06-16.
  207. ^ Murphy، Heather Tal (29 مارس 2023). "The Pope in a Coat Is Not From a Holy Place". Slate. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-06-16.
  208. ^ "Deepfake audio of Sir Keir Starmer released on first day of Labour conference". Sky News. مؤرشف من الأصل في 2024-12-02. اطلع عليه بتاريخ 2024-05-29.
  209. ^ "Woman in deepfake video with Rashmika Mandanna's face breaks silence: I'm deeply disturbed and upset by what is happening". The Times of India. 09 نوفمبر 2023. ISSN:0971-8257. مؤرشف من الأصل في 2023-11-23. اطلع عليه بتاريخ 2023-11-23.
  210. ^ Cupin، Bea (24 أبريل 2024). "Malacañang flags deepfake audio of Marcos ordering military attack". Rappler. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-05-14.
  211. ^ Flores، Helen (27 أبريل 2024). "'Foreign actor' seen behind President Marcos audio deepfake". The Philippines Star. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-05-14.
  212. ^ Argosino، Faith (14 مايو 2024). "Raps filed vs social media pages for libelous content, Marcos deepfake". Philippine Daily Inquirer. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-05-14.
  213. ^ "Face-swapped? Deepfake detector flags alleged Marcos video as 'suspicious'". Rappler. 23 يوليو 2024. مؤرشف من الأصل في 2024-07-23. اطلع عليه بتاريخ 2024-07-25.
  214. ^ "NBI, PNP findings show 'polvoron' video fake". The Philippine Star. 24 يوليو 2024. مؤرشف من الأصل في 2024-09-05. اطلع عليه بتاريخ 2024-07-25.
  215. ^ Shepardson، David (23 مايو 2024). "US political consultant indicted over AI-generated Biden robocalls". Reuters. اطلع عليه بتاريخ 2024-11-23.
  216. ^ "US political consultant indicted over AI-generated Biden robocalls". AP News. 23 مايو 2024. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-06-08.
  217. ^ ا ب ج د "Help us shape our approach to synthetic and manipulated media". blog.twitter.com. مؤرشف من الأصل في 2020-10-28. اطلع عليه بتاريخ 2020-10-07.
  218. ^ "TechCrunch". TechCrunch. 11 نوفمبر 2019. مؤرشف من الأصل في 2021-07-14. اطلع عليه بتاريخ 2020-10-07.
  219. ^ "Five US states push Musk to fix AI chatbot over election misinformation". Reuters. مؤرشف من الأصل في 2024-08-06. اطلع عليه بتاريخ 2024-11-23.
  220. ^ "Noxious images spread after Elon Musk launches AI tool with few guardrails". Washington Post. مؤرشف من الأصل في 2024-08-17. اطلع عليه بتاريخ 2024-11-23.
  221. ^ "How Elon Musk and X Became the Biggest Purveyors of Online Misinformation". Rolling Stone. مؤرشف من الأصل في 2024-08-10. اطلع عليه بتاريخ 2024-11-23.
  222. ^ ا ب "Deepfake Detection Challenge Results: An open initiative to advance AI". ai.facebook.com. مؤرشف من الأصل في 2020-10-29. اطلع عليه بتاريخ 2020-10-07.
  223. ^ ا ب Paul، Katie (04 فبراير 2020). "Twitter to label deepfakes and other deceptive media". Reuters. مؤرشف من الأصل في 2020-10-10. اطلع عليه بتاريخ 2020-10-07.
  224. ^ Cole، Samantha (31 يناير 2018). "AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host". Vice. مؤرشف من الأصل في 2019-11-01. اطلع عليه بتاريخ 2019-11-18.
  225. ^ ا ب Ghoshal، Abhimanyu (07 فبراير 2018). "Twitter, Pornhub and other platforms ban AI-generated celebrity porn". The Next Web. مؤرشف من الأصل في 2019-12-20. اطلع عليه بتاريخ 2019-11-09.
  226. ^ Böhm، Markus (07 فبراير 2018). ""Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor". Spiegel Online. مؤرشف من الأصل في 2019-09-23. اطلع عليه بتاريخ 2019-11-09.
  227. ^ barbara.wimmer (8 Feb 2018). "Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos". futurezone.at (بالألمانية). Archived from the original on 2018-02-08. Retrieved 2019-11-09.
  228. ^ "Deepfakes: Auch Reddit verbannt Fake-Porn". heise online (بالألمانية). 8 Feb 2018. Archived from the original on 2019-04-10. Retrieved 2019-11-09.
  229. ^ "Reddit verbannt Deepfake-Pornos - derStandard.de". DER STANDARD (بالألمانية). Archived from the original on 2019-11-09. Retrieved 2019-11-09.{{استشهاد ويب}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  230. ^ Robertson، Adi (07 فبراير 2018). "Reddit bans 'deepfakes' AI porn communities". The Verge. مؤرشف من الأصل في 2019-09-24. اطلع عليه بتاريخ 2019-11-09.
  231. ^ Cole، Samantha (06 فبراير 2018). "Twitter Is the Latest Platform to Ban AI-Generated Porn". Vice. مؤرشف من الأصل في 2019-11-01. اطلع عليه بتاريخ 2019-11-08.
  232. ^ Price، Rob (27 يناير 2018). "Discord just shut down a chat group dedicated to sharing porn videos edited with AI to include celebrities". Business Insider Australia. مؤرشف من الأصل في 2019-12-15. اطلع عليه بتاريخ 2019-11-28.
  233. ^ "Twitter bans 'deepfake' AI-generated porn". Engadget. 20 يوليو 2019. مؤرشف من الأصل في 2019-12-15. اطلع عليه بتاريخ 2019-11-28.
  234. ^ ا ب Harrell، Drew. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". The Washington Post. مؤرشف من الأصل في 2019-01-02. اطلع عليه بتاريخ 2019-01-01.
  235. ^ ا ب Cole، Samantha (06 فبراير 2018). "Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual". Vice. مؤرشف من الأصل في 2019-11-01. اطلع عليه بتاريخ 2019-11-09.
  236. ^ Beres، Damon؛ Gilmer، Marcus (2 فبراير 2018). "A guide to 'deepfakes,' the internet's latest moral crisis". Mashable. مؤرشف من الأصل في 2019-12-09. اطلع عليه بتاريخ 2019-11-09.
  237. ^ ا ب "Facebook has promised to leave up a deepfake video of Mark Zuckerberg". MIT Technology Review. مؤرشف من الأصل في 2019-10-16. اطلع عليه بتاريخ 2019-11-09.
  238. ^ Cole، Samantha (11 يونيو 2019). "This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies". Vice. مؤرشف من الأصل في 2019-10-12. اطلع عليه بتاريخ 2019-11-09.
  239. ^ "Google Has Banned the Training of Deepfakes in Colab". Unite.AI. مؤرشف من الأصل في 2022-05-30. اطلع عليه بتاريخ 2024-11-23.
  240. ^ "It Takes 2 Clicks to Get From 'Deep Tom Cruise' to Vile Deepfake Porn". Vice. مؤرشف من الأصل في 2022-05-30. اطلع عليه بتاريخ 2024-11-23.
  241. ^ Sasse، Ben (21 ديسمبر 2018). "S. 3805–115th Congress (2017-2018): Malicious Deep Fake Prohibition Act of 2018". www.congress.gov. مؤرشف من الأصل في 2019-10-16. اطلع عليه بتاريخ 2019-10-16.
  242. ^ Clarke، Yvette D. (28 يونيو 2019). "H.R.3230 - 116th Congress (2019-2020): Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2019". www.congress.gov. مؤرشف من الأصل في 2019-12-17. اطلع عليه بتاريخ 2019-10-16.
  243. ^ "'Deepfake' revenge porn is now illegal in Virginia". TechCrunch. يوليو 2019. مؤرشف من الأصل في 2021-07-14. اطلع عليه بتاريخ 2019-10-16.
  244. ^ Iacono Brown، Nina (15 يوليو 2019). "Congress Wants to Solve Deepfakes by 2020. That Should Worry Us". Slate Magazine. مؤرشف من الأصل في 2019-10-16. اطلع عليه بتاريخ 2019-10-16.
  245. ^ ا ب "Bill Text - AB-602 Depiction of individual using digital or electronic technology: sexually explicit material: cause of action". leginfo.legislature.ca.gov. مؤرشف من الأصل في 2019-11-17. اطلع عليه بتاريخ 2019-11-09.
  246. ^ ا ب "Bill Text - AB-730 Elections: deceptive audio or visual media". leginfo.legislature.ca.gov. مؤرشف من الأصل في 2019-10-31. اطلع عليه بتاريخ 2019-11-09.
  247. ^ "H.R. 5586: DEEPFAKES Accountability Act". مؤرشف من الأصل في 2024-08-16. اطلع عليه بتاريخ 2024-11-23.
  248. ^ "H.R. 6943: No AI FRAUD Act". مؤرشف من الأصل في 2024-09-05. اطلع عليه بتاريخ 2024-11-23.
  249. ^ "China seeks to root out fake news and deepfakes with new online content rules". رويترز. رويترز. 29 نوفمبر 2019. مؤرشف من الأصل في 2019-12-17. اطلع عليه بتاريخ 2019-12-17.
  250. ^ Statt، Nick (29 نوفمبر 2019). "China makes it a criminal offense to publish deepfakes or fake news without disclosure". ذا فيرج. مؤرشف من الأصل في 2019-12-22. اطلع عليه بتاريخ 2019-12-17.
  251. ^ "China to Regulate Deep Synthesis (Deepfake) Technology Starting 2023". مؤرشف من الأصل في 2024-09-18. اطلع عليه بتاريخ 2024-11-23.
  252. ^ "China: Provisions on Deep Synthesis Technology Enter into Effect". Law Library of Congress. مؤرشف من الأصل في 2024-08-16. اطلع عليه بتاريخ 2024-11-23.
  253. ^ "Call for upskirting bill to include 'deepfake' pornography ban". The Guardian. مؤرشف من الأصل في 2018-06-21. اطلع عليه بتاريخ 2024-11-23.
  254. ^ "Creating sexually explicit deepfakes to become a criminal offence". BBC. مؤرشف من الأصل في 2024-04-30. اطلع عليه بتاريخ 2024-11-23.
  255. ^ "Creating sexually explicit deepfake images to be made offence in UK". The Guardian. مؤرشف من الأصل في 2024-04-16. اطلع عليه بتاريخ 2024-11-23.
  256. ^ https://web.archive.org/web/20191122155500/https://cyber.gc.ca/sites/default/files/publications/tdp-2019-report_e.pdf. مؤرشف من الأصل (pdf) في 2019-11-22. اطلع عليه بتاريخ 2024-11-23. {{استشهاد ويب}}: الوسيط |title= غير موجود أو فارغ (مساعدة)
  257. ^ Bogart، Nicole (10 سبتمبر 2019). "How deepfakes could impact the 2019 Canadian election". Federal Election 2019. مؤرشف من الأصل في 2020-01-27. اطلع عليه بتاريخ 2020-01-28.
  258. ^ "What Can The Law Do About Deepfake". mcmillan.ca. مؤرشف من الأصل في 2019-12-07. اطلع عليه بتاريخ 2020-01-28.
  259. ^ "An Overview of Canada's Online Harms Act". مؤرشف من الأصل في 2024-11-23. اطلع عليه بتاريخ 2024-11-23.
  260. ^ "BILL C-63" (PDF). مؤرشف من الأصل (pdf) في 2024-09-05. اطلع عليه بتاريخ 2024-11-23.
  261. ^ Venkatasubbbu، Satish (27 يونيو 2023). "How deepfakes are used to scam You & Me? Current trends on detection using AI & legal regulations worldwide". cybermithra.in. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2023-07-03.
  262. ^ Romero-Moreno، Felipe (29 مارس 2024). "Generative AI and deepfakes: a human rights approach to tackling harmful content". International Review of Law, Computers & Technology. ج. 39 ع. 2: 297–326. DOI:10.1080/13600869.2024.2324540. hdl:2299/20431. ISSN:1360-0869. اطلع عليه بتاريخ 2024-11-23.
  263. ^ "Elon Musk's X targeted with nine privacy complaints after grabbing EU users' data for training Grok". TechCrunch. مؤرشف من الأصل في 2024-11-15. اطلع عليه بتاريخ 2024-11-23.
  264. ^ Hatmaker، Taylor (01 مايو 2018). "DARPA is funding new tech that can identify manipulated videos and 'deepfakes'". TechCrunch. مؤرشف من الأصل في 2023-12-08. اطلع عليه بتاريخ 2024-04-14.
  265. ^ Hsu، Jeremy (22 يونيو 2018). "Experts Bet on First Deepfakes Political Scandal - IEEE Spectrum". معهد مهندسي الكهرباء والإلكترونيات. مؤرشف من الأصل في 2024-02-22. اطلع عليه بتاريخ 2024-04-14.
  266. ^ "Media Forensics". www.darpa.mil. مؤرشف من الأصل في 2020-10-29. اطلع عليه بتاريخ 2020-10-07.
  267. ^ "The US military is funding an effort to catch deepfakes and other AI trickery". MIT Technology Review. مؤرشف من الأصل في 2020-11-01. اطلع عليه بتاريخ 2020-10-07.
  268. ^ Collins، Connor (11 مارس 2019). "DARPA Tackles Deepfakes With AI". GovCIO Media & Research. مؤرشف من الأصل في 2024-03-02. اطلع عليه بتاريخ 2024-04-14.
  269. ^ ا ب "DARPA Is Taking On the Deepfake Problem". Nextgov.com. 6 أغسطس 2019. مؤرشف من الأصل في 2020-10-28. اطلع عليه بتاريخ 2020-10-07.
  270. ^ Sybert، Sarah (16 سبتمبر 2021). "DARPA Launches New Programs to Detect Falsified Media". GovCIO Media & Research. مؤرشف من الأصل في 2024-06-10. اطلع عليه بتاريخ 2024-04-14.
  271. ^ Cooper، Naomi (15 مارس 2024). "DARPA Launches 2 New Efforts to Boost Defenses Against Manipulated Media". مؤرشف من الأصل في 2024-03-15. اطلع عليه بتاريخ 2024-04-14.
  272. ^ "Semantic Forensics - Analytic Catalog". semanticforensics.com. مؤرشف من الأصل في 2024-04-18. اطلع عليه بتاريخ 2024-04-14.
  273. ^ National Academies of Sciences, Engineering, and Medicine (22 Jun 2023). "Nobel Prize Summit Fuels Initiatives to Combat Misinformation and Disinformation and Build Trust in Science". National Academies of Sciences, Engineering, and Medicine (بالإنجليزية). QID:Q124711722.{{استشهاد بدورية محكمة}}: صيانة الاستشهاد: أسماء متعددة: قائمة المؤلفين (link)
pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy