معلومات

أصبحت صناعة التزييف العميق بالذكاء الاصطناعي أسهل من أي وقت مضى ، مما يشير إلى المستقبل المشؤوم

أصبحت صناعة التزييف العميق بالذكاء الاصطناعي أسهل من أي وقت مضى ، مما يشير إلى المستقبل المشؤوم

في تطور مقلق ، صمم الباحثون تقنية جديدة لإنتاج صور مزيفة للذكاء الاصطناعي لا تتطلب سوى إدخال النص الذي تريد أن يقوله الشخص.

التكنولوجيا الجديدة المزعجة تستمر في التحسن دون سبب مبرر

طور الباحثون برنامجًا جديدًا للذكاء الاصطناعي deepfake يمكنه تعديل الفيديو لجعل الشخص يقول ما تريده ببساطة عن طريق كتابة ما تريده أن يقوله. هذه هي الخطوة التالية إلى الأمام في تقنية ليس لها فائدة اجتماعية إيجابية حقيقية باستثناء مساعدة استوديوهات الأفلام على توفير المال ، ولكن من المؤكد أن الحكومات الاستبدادية يسيء استخدامها في جميع أنحاء العالم لتشويه الأصوات المعارضة ، وتوليد مواد إباحية انتقامية ، وإثارة الصراع الاجتماعي.

ذات صلة: هذا الشخص غير موجود على شبكة الإنترنت هو نظرة غريبة إلى المستقبل

لقد مضى العلماء في جامعة ستانفورد وجامعة برينستون ومعهد ماكس بلانك للمعلوماتية و Adobe Research قدمًا وأظهروا حالة ظاهرة الوجاهة لسبب عدم ثقة الناس في التكنولوجيا من خلال تطوير منصة برمجية جديدة يمكن أن تسمح لك بتحرير نسخة نصية مسجلة لشخص ما خطاب لتغيير الفيديو ليقول شيئًا لم يقلوه في الواقع.

تعمل التقنية عن طريق مطابقة الصوت ، وهو مصطلح معالجة اللغة الطبيعية لأصوات مختلفة ، مع شكل الوجه الذي تصنعه تلك الأصوات عندما يتكلم الشخص صوتًا ، ثم استخدام الذكاء الاصطناعي لإنشاء مقطع فيديو جديد بناءً على نسخة من ما قاله الشخص. عندئذٍ ، سيؤدي تحرير النص إلى تعديل مقطع الفيديو الخاص بالشخص لمطابقة النص الذي تم تغييره.

وفقًا للباحثين ، "يضع نهج التحرير المستند إلى النص الأساس لأدوات تحرير أفضل لإنتاج ما بعد الفيلم. غالبًا ما تتطلب مشاهد الحوار المصورة إعادة التوقيت أو التحرير بناءً على تغييرات نصية صغيرة ، والتي تتطلب حاليًا عملاً يدويًا مملاً. أسلوب التحرير الخاص بنا يتيح أيضًا تكييف محتوى الفيديو المرئي والمسموع بسهولة مع جماهير مستهدفة محددة: على سبيل المثال ، يمكن ضبط مقاطع الفيديو الإرشادية بدقة لتناسب جماهير من خلفيات مختلفة ، أو يمكن تكييف مقطع فيديو راوي القصص مع الأطفال من مختلف الفئات العمرية بناءً على تعديلات النصوص النصية. باختصار ، تم تطوير عملنا لأغراض سرد القصص ".

يعترف الباحثون بإمكانية قيام الجهات الفاعلة السيئة باستخدام تقنيتها لأغراض شائنة وتقديم بعض الحلول المحتملة لهذه المشكلة التي لا مفر منها.

كتب الباحثون [PDF]: "على الرغم من أن أساليب التلاعب بالصور والفيديو قديمة قدم وسائل الإعلام نفسها" ، فإن مخاطر إساءة الاستخدام تزداد عند تطبيقها على طريقة اتصال تعتبر أحيانًا دليلاً موثوقًا على الأفكار والنوايا - نقر بأن الجهات السيئة قد تستخدم مثل هذه التقنيات لتزوير البيانات الشخصية والافتراء على الشخصيات البارزة ، ونحن قلقون من مثل هذا الخداع وسوء الاستخدام.

"لذلك ،" يتابعون "، نعتقد أنه من الأهمية بمكان أن يتم عرض الفيديو المركب باستخدام أداتنا بوضوح على أنه اصطناعي. قد تكون حقيقة أن الفيديو تم تصنيعه واضحة بحسب السياق (على سبيل المثال ، إذا فهم الجمهور أنهم يشاهدون فيلمًا خياليًا) ، تم ذكره مباشرة في الفيديو أو تم الإشارة إليه عن طريق وضع علامة مائية. نعتقد أيضًا أنه من الضروري الحصول على إذن من فناني الأداء لإجراء أي تغيير قبل مشاركة مقطع فيديو ناتج مع جمهور عريض. أخيرًا ، من المهم أن نستمر كمجتمع في تطوير تقنيات الطب الشرعي وبصمات الأصابع والتحقق (الرقمية وغير الرقمية) لتحديد الفيديو الذي تم التلاعب به. ومن شأن إجراءات الحماية هذه أن تقلل من احتمال إساءة الاستخدام مع السماح بالاستخدامات الإبداعية لتقنيات تحرير الفيديو مثل تقنياتنا. "

لنأخذ هذه واحدة في كل مرة.

أولًا ، إن الإشارة إلى أن تقنية التزييف العميق يجب أن تقدم نفسها بوضوح على هذا النحو يُظهر فهمًا ساذجًا مذهلًا للدعاية. كان ستالين سيجد مثل هذه التحذيرات غريبة وكذلك كل حكومة استبدادية أو حركة سياسية في المستقبل تأخذ هذه التكنولوجيا لاستهداف المنشقين والمعارضين السياسيين والأقليات العرقية أو الدينية.

ثانيًا ، إذا كان بإمكان الذكاء الاصطناعي إنشاء مقاطع فيديو مزيفة ، يمكن لشبكة الذكاء الاصطناعي إزالة العلامة المائية بشكل أسهل. هذا ليس حلا.

ثالثًا ، الموافقة على تغيير خطابك كممثل هو بالتأكيد أمر إيجابي في صناعة السينما ، لكن هذا لا يعني شيئًا إذا شرع شخص ما في التزوير غير المشروع. لا يسعى الممثلون السيئون إلى الحصول على موافقة لإنشاء شخصية مشهورة مزيفة أو الانتقام من المواد الإباحية ، أو التشهير بالآخرين من أجل أجندة ما.

أخيرًا ، يعد إنشاء أدوات للكشف عن عمليات التزوير عديم الفائدة تمامًا عندما يتعلق الأمر بالدعاية. بروتوكولات حكماء صهيون هو تزوير قيصري مضى عليه أكثر من قرن من الزمان وقد فقد مصداقيته باعتباره تزويرًا لفترة طويلة ، ومع ذلك لا يزال يستخدم لإثارة معاداة السامية بنجاح في جميع أنحاء العالم ليومنا هذا. كم من الوقت قبل أن يبدأ تداول مقاطع على الإنترنت لجورج سوروس يتحدث عن استخدام دماء أطفال مسيحيين في صنع المعجنات اليهودية؟ هل من المفترض حقًا أن نصدق أن إثبات أن مقاطع الفيديو هذه مزيفة هو كل ما نحتاجه لمنع مقاطع الفيديو هذه من التسبب في ضرر لا يُصدق؟

ستؤدي هذه التكنولوجيا إلى قتل جميع السكان

اعتاد قطاع التكنولوجيا على أن يُعبد باعتباره المنقذ لوقتنا وأموالنا ، ويفتخر بأخلاقيات ريادة الأعمال التي تقترب من بيوشوك-مستوى النرجسية الموضوعية ، لكن الشقوق في صورتهم العامة بدأت بالانتشار. يقترب سائقو أوبر وليفت من نقطة التمرد المفتوح حول أجور الفقر. يحاول Facebook بشكل يائس ، بشكل مثير للضحك ، إعادة تسمية نفسه على أنه "شبكة تركز على الخصوصية" حتى مع استمراره في نشر البيانات الشخصية في العالم كما لو كان مخمورًا في الحانة يحاول التمسك بهذا الباينت الأخير من البيرة. الآن ، يمكن للباحثين الذين يعملون على تقنية التزييف العميق للذكاء الاصطناعي أن يقولوا بصراحة أن الإجابة على إساءة استخدام الدعاية لتقنيتهم ​​هي علامة مائية أو الوثوق بتكنولوجيا أخرى لإنقاذنا من مخاطر التكنولوجيا التي يبتكرونها.

كما أظهرت الانتخابات الرئاسية الأمريكية لعام 2016 للعالم ، يمكن لتكنولوجيا المعلومات منخفضة التكلفة النسبية أن يكون لها تأثير كبير ، والقيمة الدعائية للتزييف العميق في جميع أنحاء العالم مرعبة. ليس علينا الانتظار حتى نرى هذا يحدث ؛ قد يحدث بالفعل. أثار مقطع فيديو ليلة رأس السنة الجديدة لرئيس الجابون ، علي بونغو أونديمبا ، أزمة سياسية بعد أن تحدى بعض النقاد - بمن فيهم الجيش في البلاد - الفيديو باعتباره مزيفًا عميقًا يهدف إلى إخفاء الوضع الحالي للرئيس.

من غير الواضح ما إذا كان الفيديو مزيفًا عميقًا أم لا ، وهو بصراحة خارج الموضوع. حقيقة أن هذه التكنولوجيا موجودة تضر في كلتا الحالتين. يمكن استخدام مقاطع الفيديو المزيفة لتشويه سمعة شخصيات المعارضة أو دعم القادة الفاشلين أو نشر معلومات مضللة أخرى ؛ أو يمكن للأشخاص الآن رفض توثيق الفيديو للأشياء التي لا يحبونها باعتبارها "مزيفة" حتى لو كانت حقيقية. سيكون تحديد مصداقية الفيديو مفيدًا مثل مدققي الحقائق في مكافحة انتشار الأخبار المزيفة.

يدعو الباحثون الذين طوروا تقنية البرمجيات الجديدة هذه إلى جميع أنواع الضمانات التي يجب وضعها لحماية العالم من عواقب تقنيتهم ​​، ولكن بينما يندفعون لتطوير التكنولوجيا لإنتاج مقاطع فيديو مزيفة ، لا يبدو أن أحدًا يفعل ذلك. أن تكون مهتمًا بتطوير تلك الضمانات.

بدلاً من ذلك ، يثق الباحثون الذين يقفون وراء هذا البرنامج الأخير بشكل أساسي في أن سكان العالم - الذين يتمتع معظمهم بمستويات مختلفة من السيطرة المفروضة على مصادر معلوماتهم - سوف يميزون بأنفسهم ما إذا كان الفيديو الذي شاهدوه للتو على التلفزيون الحكومي مزيفًا عميقًا. أم لا. لا يمكن إزعاجهم للقيام بذلك بأنفسهم ، على ما يبدو.

لا يمكن التقليل من عواقب هذه التكنولوجيا. في عام 1994 ، أسقطت طائرة تقل رئيس رواندا ، مما أسفر عن مقتل جميع من كانوا على متنها. ألقت حكومة الهوتو في رواندا باللوم على جيش المتمردين التوتسي في الهجوم ، مما عجل بإبادة جماعية استمرت مائة يوم للمدنيين التوتسي وأودت بحياة ما يقرب من مليون شخص. لقد أودت الصراعات المختلفة في البلقان بحياة أكثر من مائة ألف شخص منذ تفكك يوغوسلافيا ، واستخدمت الحكومات منذ فترة طويلة المعلومات الخاطئة والافتراءات الصريحة للتحريض على المذابح ضد اليهود والأقليات المضطهدة الأخرى عبر تاريخ البشرية.

توجد توترات كهذه في جميع أنحاء العالم في الوقت الحالي ، في انتظار نقطة اشتعال لإشعال هذه التوترات في الحرب والإبادة الجماعية. إن التزييف العميق لزعيم أو شخصية دينية أو عرقية بارزة "يعترف" ببعض الجرائم المروعة سيكون "تبريراً" أقوى للتحريض على الإبادة الجماعية مما اعتمدت عليه الإبادة الجماعية السابقة. حتى يومنا هذا ، لا أحد يعرف من أسقط طائرة الرئيس الرواندي ، لكن كل ما تطلبه الأمر هو الاتهام القوي لإطلاق المذبحة.

ليست كل المواقف في رواندا 1994 ، وأحيانًا لا يكفي الاتهام - ولكن من يحتاج إلى اتهام عندما يكون لديك "اعتراف"؟ لا يوجد ما يمنع التزييف العميق من أن يصبح القرن الحادي والعشرين بروتوكولات حكماء صهيون- في الواقع ، من المؤكد أن مثل هذا التزوير أصبح حتمياً الآن وسيموت الناس بسببه بالتأكيد. الكثير من الناس.

في الأم جونز قصة حول الجدل حول التزييف العميق في الغابون ، كتب علي بريلاند: "بينما ركزت معظم التغطية الإعلامية لمزيف عميق على سيناريوهات الرعب لاستخدامها ضد الولايات المتحدة والدول الغربية الأخرى ، يحذر الخبراء من أن تقنية التزييف العميق يمكن أن تحدث أكبر قدر من الدمار في البلدان النامية ، والتي غالبًا ما تكون موطنًا لحكومات وسكان هشين لديهم محو أمية رقمية ناشئة. بدلاً من ، ربما ، مقطع فيديو مزيف للرئيس التنفيذي لشركة أمازون جيف بيزوس يعلن التقاعد ، مما يؤدي إلى الغوص في الأسهم ، قد تؤدي المعلومات المضللة في بعض البلدان إلى انقلابات أو عنف بدوافع عرقية مما يهدد استقرار دول بأكملها ".

في مقال نُشر مؤخرًا في صحيفة نيويورك تايمز ، تعتقد الدكتورة ريجينا ريني ، معلمة الفلسفة في جامعة يورك في تورنتو ، أن الوقت قد فات بالفعل للعودة إلى الوراء وأننا يجب أن نعد أنفسنا للتعامل مع الفيديو مثل شهادة الشهود ثم الأدلة الوثائقية. . "[أنا] من الواضح أن الحجج الحالية حول الأخبار الكاذبة ليست سوى مجرد طعم لما سيحدث عندما تكون الأصوات والصور ، وليس الكلمات فقط ، عرضة للتلاعب من قبل أي شخص لديه جهاز كمبيوتر لائق."

الأخلاق ، Shmethics

لو تلقى الأشخاص المشاركون في إنتاج هذه التكنولوجيا تعليمات مناسبة في الأخلاقيات - أو حتى مجرد التاريخ - ، لما تركت هذه التكنولوجيا مرحلة الاقتراح مطلقًا ، وكان أي شخص يدفع من أجلها قد طُرد من قبل المديرين الذين كان تلقى تعليمًا أخلاقيًا مناسبًا. نظرًا لعدم وجود أي شخص في السلطة في الشركات والمؤسسات التي طورت هذه التكنولوجيا يبدو أنه يعتقد أن مثل هذه الاعتبارات كانت مقلقة بدرجة كافية لمنع إنشاء هذه التكنولوجيا ، فقد يكون الوقت قد حان لكي يتدخل المجتمع ويمنع هؤلاء الأشخاص من خلال التنظيم.

يبدو أن الباحثين المعنيين يقدرون هذه النقطة بأنفسهم ، عندما يكتبون "نعتقد أن محادثة عامة قوية ضرورية لإنشاء مجموعة من اللوائح والقوانين المناسبة التي من شأنها أن توازن بين مخاطر إساءة استخدام هذه الأدوات وأهمية الإبداع والتوافق استخدم حالات." لم يكن يجب أن يصل إلى هذا الحد أبدًا ، على أية حال ، لأن "حالات الاستخدام المبدع التوافقي" تتضاءل من حيث الأهمية بجانب الضرر الهائل الذي ستسببه "إساءة استخدام" تقنيتها. بموازنة أحدهما ضد الآخر ، يجب أن يكون أي شخص عاقل قادرًا على استنتاج أنه لا يوجد تحت أي ظرف من الظروف فائدة من هذه التكنولوجيا للصناعة تبرر الضرر الذي ستسببه هذه التكنولوجيا للمجتمع. ومع ذلك ، يبدو أن صناعة التكنولوجيا مجردة من الأشخاص العقلاء ، حيث من الواضح أنهم لا يستطيعون مساعدة أنفسهم عندما يرون خيطًا آخر من النسيج الاجتماعي يمكنهم "تعطيله".

بالفعل ، ستعني هذه التكنولوجيا أنه لم يعد بإمكاننا الوثوق بما نراه بأعيننا. يمكن للمرء أن يجادل بأننا يجب أن نكون يقظين دائمًا ضد المعلومات الخاطئة ، لكن هذا أيضًا ساذج. من يريد قضاء كل لحظة يقظة في قراءة المعلومات أو عرضها أو هضمها بهذا النوع من الشك الشديد ، طوال الوقت؟ وهذا يتطلب مستوى من التعليم والطاقة الذهنية لا يمتلكها الجميع ولا يستطيع أحد تحملها إلى الأبد. المجتمع مبني ، في نهاية المطاف ، على مستوى معين من الثقة. هذه التكنولوجيا تقضي ببساطة على بعض تلك الثقة التي تم الحصول عليها بشق الأنفس في بعضنا البعض والتي لا يمكن إصلاحها بسهولة ، على كل حال.

لكن مهلا ، إذا كان لديك تعديل بسيط للنص وتحتاج إلى إعادة تصوير 15 ثانية من الحوار ، فإن هذه التكنولوجيا تستحق التكلفة الاجتماعية تمامًا.


شاهد الفيديو: قررت تعلم الذكاء الصناعي وحبيت أشارككم الطريقة (شهر اكتوبر 2021).