المجموعات

تقرير جديد يحذر من أن الذكاء الاصطناعي لا يمكنه إنقاذنا من التزييف العميق

تقرير جديد يحذر من أن الذكاء الاصطناعي لا يمكنه إنقاذنا من التزييف العميق

تقرير جديد نشر فيالبيانات والمجتمع، يقول إن الذكاء الاصطناعي قد لا يكون قادرًا على حمايتنا من التأثيرات التخريبية المحتملة للتزييف العميق على المجتمع.

يدعي مؤلفو الدراسة بريت باريس وجوان دونوفان أن التزييف العميق جزء من تاريخ طويل من التلاعب بوسائل الإعلام ، وهي مشكلة تتطلب دائمًا إصلاحًا اجتماعيًا وتقنيًا.

ذات صلة: يمكن لأداة جديدة للذكاء الاصطناعي أن تساعدنا في محاربة الأخبار المزيفة المكتوبة بالذكاء الاصطناعي

التلاعب بالوسائط القديمة

بينما تعلن Google عن جهودها للمساعدة في اكتشاف التزييف العميق من خلال الذكاء الاصطناعي ، تدعي Paris و Donovan أن الاعتماد على الذكاء الاصطناعي لإصلاح مشكلة ناتجة عن الذكاء الاصطناعي قد يزيد الأمر سوءًا.

يمكن أن يعمل على تركيز المزيد من القوة والبيانات في أيدي شركات التكنولوجيا الكبيرة.

يقول مؤلفو الدراسة أنه من غير المرجح أن يتم إصلاح التزييف العميق عن طريق التكنولوجيا وحدها. يقول التقرير: "لم تكن العلاقة بين الإعلام والحقيقة مستقرة على الإطلاق".

على سبيل المثال ، تستشهد الدراسة بالطريقة التي لم تثق بها المحاكم في الأدلة الفوتوغرافية في المحكمة عندما سمح بها القضاة لأول مرة في خمسينيات القرن التاسع عشر. في التسعينيات ، أساء المراسلون تقديم عدد القتلى غير المتكافئ بين القوات الأمريكية والعراقية في حرب الخليج ، مما جعلها تبدو وكأنها حرب متكافئة.

كتب مؤلفو التقرير: "كانت هذه الصور صورًا حقيقية". "ما كان تلاعبًا هو كيفية وضعهم في السياق ، وتفسيرهم ، وبثهم على مدار الساعة على تلفزيون الكابل."

Deepfakes لا تختفي

قال باريس: "الذعر حول التزييف العميق يبرر الحلول التقنية السريعة التي لا تعالج عدم المساواة الهيكلية" الحافة.

"إنه مشروع ضخم ، لكننا بحاجة إلى إيجاد حلول اجتماعية وسياسية على حد سواء حتى لا يتم استبعاد الأشخاص الذين ليس لديهم سلطة من المعادلة."

يعتقد كل من Paris و Donovan أن التركيز على الإصلاحات الفنية يعني أن التغييرات التشريعية لا يتم إجراؤها لمساعدة أولئك الذين يتعرضون لأكبر تهديد بالتلاعب.

مما لا يثير الدهشة ، أنهم يشككون في فكرة أن شركات التكنولوجيا الكبيرة ، والتي كان الكثير منها مؤخرًا في قلب فضائح البيانات الضخمة والخصوصية ، ستنقذنا من التلاعب الجماعي عبر تقنية جديدة.

يوافق بوبي تشيسني ، المؤلف المشارك لورقة "Deep Fakes: A Looming Challenge for Privacy، Democracy، and National Security". قال تشيسني: "نحتاج إلى التحدث عن التخفيف والحد من الضرر ، وليس حل هذه المشكلة"الحافة. "التزييف العميق لن يختفي."


شاهد الفيديو: Deep fake tutorial. شرح كامل Translated (شهر اكتوبر 2021).