متنوع

عالمنا الجديد الشجاع: لماذا يثير تقدم الذكاء الاصطناعي مخاوف أخلاقية

عالمنا الجديد الشجاع: لماذا يثير تقدم الذكاء الاصطناعي مخاوف أخلاقية

كل يوم تقريبًا ، نسمع عن التطورات الجديدة في الذكاء الاصطناعي التي تتيح طرقًا جديدة لمراقبة الأنشطة والأشخاص ، وتحويل العديد من العمليات في حياتنا اليومية.

ذات صلة: بنثام ، هوبز ، وأخلاقيات الذكاء الاصطناعي

ما قد نسمعه بعد ذلك كل يوم هو كيف يمكن للذكاء الاصطناعي أن يفاقم التحيز العنصري والجنساني ويشكل تهديدًا للخصوصية والأمن الوظيفي والرفاهية الاقتصادية. من المحتمل أن يؤدي ذلك إلى اندلاع حرب من وجهة نظر إيلون ماسك.

يثير التعرف على الوجه المدعوم بالذكاء الاصطناعي مخاوف بشأن الخصوصية والتحيز

كما هو موضح في مخاوف التعرف على الوجه: المبادئ الأخلاقية الستة لمايكروسوفت ، "يمكن أن يؤدي الاستخدام الواسع لتقنية التعرف على الوجه المدعومة بالذكاء الاصطناعي إلى بعض التدخلات الجديدة في خصوصية الأشخاص".

نظرًا للقدرة على التقاط صورة الأشخاص والتعرف عليهم في الشوارع العامة باسم الأمن ، يشعر الناس بالقلق بحق من أنهم سيفقدون قدرتهم على الحفاظ على أي خصوصية. يمتد ذلك إلى البيئات في المدرسة والعمل ، كما هو مفصل في المقالة.

2018 نيويورك تايمز أثار المقال مصدر قلق آخر بالعنوان ، "التعرف على الوجه دقيق ، إذا كنت شابًا أبيض". المشكلة هي:

"كلما كان لون البشرة داكنًا ، زادت الأخطاء التي تظهر - ما يقرب من 35 في المائة لصور النساء ذوات البشرة الداكنة ، وفقًا لدراسة جديدة تفتح آفاقًا جديدة من خلال قياس كيفية عمل التكنولوجيا على الأشخاص من مختلف الأعراق والجنس."

مصدر هذه الأرقام هو Joy Buolamwini ، الباحثة في MIT Media Lab ، ومؤسس رابطة العدالة الخوارزمية (AJL). لقد كرست نفسها للكشف عن كيفية تسرب التحيزات إلى الذكاء الاصطناعي وبالتالي تحريف نتائج التعرف على الوجه.

شاهدها TED Talk في هذا الفيديو:

نشرت Buolamnwini هذا العام نتائج بحثها مع Inioluwa Deborah Raji من جامعة تورنتو ، في تدقيق عملي: التحقيق في تأثير التسمية العامة لنتائج الأداء المتحيزة لمنتجات الذكاء الاصطناعي التجارية.

وفقًا لتلك الدراسة ، أفسد برنامج Rekognition من Amazon أيضًا أولئك الذين يقعون في فئة الرجل الأبيض. ووفقًا للدراسة ، فقد أخطأت في تعريف النساء على أنهن رجال مرة واحدة تقريبًا من بين كل خمس مرات. بالإضافة إلى ذلك ، حددت بشكل غير صحيح النساء ذوات البشرة الداكنة على أنهم رجال بنسبة 31 في المائة من الوقت.

كتبت Buolamnwini منشورًا على موقع Medium أشارت فيه إلى بحثها وأن 26 باحثًا يطالبون Amazon بالتوقف عن بيع Rekognition. صعد اتحاد الحريات المدنية الأمريكي أيضًا من الضغط ، وحث مساهمي أمازون للمطالبة بإلغاء تقنية التعرف على الوجه.

كان للضغط بعض النتائج القابلة للقياس. صوّتت سان فرانسيسكو مؤخرًا لحظرها من ترسانة الأدوات التقنية التي تستخدمها سلطات إنفاذ القانون.

قلق بشأن مشكلة التحيز في الذكاء الاصطناعي

وأشار آخرون أيضًا إلى احتمال تعزيز التحيز العنصري من خلال الذكاء الاصطناعي ، وعلى الأخص ، كاثي أونيل في كتاب أسلحة الدمار الرياضي: كيف تزيد البيانات الضخمة من عدم المساواة وتهدد الديمقراطية. ما تسميه "تدمير الرياضيات" هو "نتيجة النماذج" التي تعزز الحواجز ، وتبقي مجموعات سكانية معينة في وضع غير مؤات من خلال تحديدها على أنها أقل جدارة بالائتمان والتعليم وفرص العمل والإفراج المشروط وما إلى ذلك "

شاهدها TED Talk هنا:

سواء كانت المشكلة ناتجة عن عيوب في البيانات التي تم جمعها أو في الخوارزميات المعدة لتحليل البيانات ، لم يعد الناس يثقون بالذكاء الاصطناعي باعتباره موضوعيًا ومعلمًا. إنهم يطالبون الآن بالذكاء الاصطناعي القابل للتفسير والذي يقدم الشفافية في العملية ويسمح بإبراز التحيزات والعيوب الأخرى وحلها.

"ما هو حيوي هو جعل أي شيء يتعلق بالذكاء الاصطناعي قابلاً للتفسير وعادلاً وآمنًا وبنسب ، مما يعني أنه يمكن لأي شخص أن يرى ببساطة كيف تطور أي تطبيق للذكاء الاصطناعي ولماذا ، أعلنت جيني روميتي ، الرئيس التنفيذي لشركة IBM ، خلال كلمتها الرئيسية في CES في 9 يناير 2019. تقدم شركة IBM الآن استشارات حول الحد من التحيز لأولئك الذين يبنون أنظمة التعلم الآلي.

يمكنك مشاهدة العنوان الكامل هنا:

مخاوف أخلاقية بشأن الذكاء الاصطناعي كتهديد وجودي

أكد إيلون ماسك في عام 2017 خلال مقابلة أمام جمهور في الاجتماع الصيفي لرابطة الحكام الوطنية ، أن "الذكاء الاصطناعي يمثل خطرًا أساسيًا على وجود الحضارة الإنسانية". يمكنك رؤيتها بالكامل في هذا الفيديو:

إذا كنت تفضل لقطة أقصر بكثير ، فيمكنك مشاهدة هذا الفيديو:

لم يكن ماسك غريبًا على التكنولوجيا المتقدمة ، فقد كان يجادل من موقع شخص يفهم كل من قدرات وعواقب الذكاء الاصطناعي. هذا هو السبب في أنه يجادل بأن اللوائح يجب أن توضع في مكانها الآن ، وليس بعد التقدم التكنولوجي وتشكل بالفعل خطرًا.

قال ماسك إنه على عكس النتائج السلبية التي كان من الممكن أن تنتج عن تقنيات أخرى في الماضي ، قال ماسك إنها كانت مقصورة على "الأفراد" ولم تؤثر على "المجتمع ككل". ومع ذلك ، فإن الذكاء الاصطناعي يشكل "خطرًا وجوديًا أساسيًا".

بالنسبة إلى ماسك ، تشمل هذه المخاطر بدء الحرب. لقد افترض مثالًا "افتراضيًا بحتًا" مفاده أنه من الممكن أن يتم تعيين الذكاء الاصطناعي مع "هدف لتعظيم قيمة محفظة الأسهم" التي تكون "طويلة في الدفاع" وأنه سيفعل كل ما يلزم لتحقيق نهايته ، بما في ذلك تحريك الشيء للتحريض على الحرب.

في ملاحظة أقل كارثية ، أقر ماسك أيضًا أن الذكاء الاصطناعي يهدد الوظائف. لكن بالنسبة للبعض هذه هي الكارثة الحقيقية التي يجب القلق بشأنها.

مخاوف أخلاقية بشأن الذكاء الاصطناعي والوظائف

في يوليو 2017 ، وول ستريت جورنال صنشر المقال ، الروبوتات تحل محل العمال حيث تتسوق. ووصفت بعض التقنيات التي حلت بالفعل محل الموظفين البشريين في متاجر وول مارت.

ال مجلة تضمنت المقالة أيضًا جدولًا من Citi Research حول التهديد الذي تتعرض له الوظائف من الأتمتة بحلول عام 2030. من المتوقع أن تأتي الصناعات بأقل ضرر بما في ذلك التأمين والتمويل ، بمعدل مخاطر مرتفع يبلغ 54 بالمائة.

خدمات الإقامة والطعام ليست بعيدة كذلك ، مع معدل مخاطر مرتفع يبلغ 86 بالمائة. وهذا من شأنه أن يرقى إلى عدد كبير من الأشخاص الذين طردوا من وظائفهم ، الأمر الذي لن يضر فقط بالأفراد الذين يفقدون وظائفهم ولكن للاقتصاد العام.

في مقابلة مع VIAnews ، حذر أنتوني زادور ، رئيس قسم علم الأعصاب وأستاذ علم الأحياء في مختبر كولد سبرينغ هاربور ، من أن "بعض العواقب على المجتمع ستكون مدمرة من نواح كثيرة".

ويرجع ذلك أساسًا إلى حقيقة أننا سنرى "عشرات الملايين من الوظائف" تختفي دون أي ضمان "بما سيتم استبدالها به ، إذا كان سيتم استبدالها بأي شيء."

لقد سارع إلى إضافة أنه يلقي اللوم هنا على "المجتمع. إنه ليس خطأ التكنولوجيا ". بغض النظر عمن يقع اللوم ، فإن الضرر يبدو حتمياً.


شاهد الفيديو: وثائقي. جنة أم جحيم الروباتات الحدود الأخلاقية للذكاء الاصطناعي. وثائقية دي دبليو (شهر اكتوبر 2021).