مثير للإعجاب

هل نبرمج السيارات القاتلة؟ أخلاقيات المركبات ذاتية القيادة

هل نبرمج السيارات القاتلة؟ أخلاقيات المركبات ذاتية القيادة

على مدى السنوات العديدة الماضية ، تم تضمين المزيد والمزيد من الميزات المستقلة في السيارات. وقبل شهرين فقط ، أصدرت Tesla الفيديو التالي الذي تفاخرت فيه بأنها حققت "القيادة الذاتية الكاملة".

ذكرت مقالة Techopedia أنه حتى سيارات Tesla السابقة كانت تحتوي على "الأجهزة اللازمة للقيادة الذاتية" ، على الرغم من أن تنشيط القدرة يعتمد على تحديث البرنامج. تصورت المقالة أيضًا الفرق بين الطريقة التي ستختلف بها السيارات المستقلة التي يتم تصنيعها اليوم عن تلك في المستقبل.

حاليًا ، تم تجهيز سيارات Tesla بالأجهزة اللازمة للقيادة الذاتية ، لكن تحديثات البرامج مطلوبة لتمكين الميزة بالكامل. في حين أنه سيسمح بالقيادة الذاتية بالكامل ، إلا أنه سيسمح أيضًا للسائق البشري بالسيطرة عندما يستدعي الموقف التدخل.

ومع ذلك ، لن يحتاج الجيل القادم من المركبات المستقلة إلى عجلات توجيه أو دواسات أو ناقل حركة. ميزة هذه السيارات هي إمكانية تقليل الحوادث وتوفير وسائل النقل اللازمة للأشخاص غير القادرين على القيادة مثل كبار السن أو ذوي الإعاقة البصرية أو الجسدية.

ولكن هناك أيضًا جانبًا سلبيًا محتملاً: ضرورة قيام الوكالة البشرية بإعداد برمجة السيارة للتنبؤ بجميع السيناريوهات المحتملة وتوجيه السيارة لإصدار نوع الأحكام التي يتعين على الأشخاص اتخاذها عندما يستدعي السيناريو اتخاذ إجراء من شأنه أن يتسبب في حدوث البعض. شكل من أشكال الأذى.

في حين أن Tesla قد يكون الاسم الأكثر شهرة في مجال الذكاء الاصطناعي للسيارات ، فهو بالتأكيد ليس اللاعب الوحيد في هذا السوق المتنامي. كما دخلت بعض الأسماء الأكثر شهرة في الصناعة في هذا العمل.

ذات صلة: التاريخ المثير للاهتمام للسيارات الكهربائية

كتب برنارد مار مؤخرًا عن استثمار Toyota المليار دولار في السيارات ذاتية القيادة والذكاء الاصطناعي. حددت الشركة لنفسها أهدافًا تريد الوصول إليها بحلول عام 2020:

"من خلال استثمارات Toyota في الشركات التقنية الناشئة مثل Perceptive Automata ، تأمل في إنشاء التكنولوجيا للسماح للمركبات ذاتية القيادة بقدر أكبر من الحدس الذي يشبه الإنسان عندما تكون على الطريق أكثر شبهاً بكيفية تفاعل السائقين البشريين مع المشاة."

سجل حافل بأمان القيادة الذاتية

بالطبع ، لم نصل إلى هناك بعد. لكن السؤال هو ما إذا كان هذا هو الهدف النهائي وما إذا كان شيئًا يجب أن نتبعه دون مراعاة تداعيات سيارة مستقلة تمامًا.

في كل حادث سيارة ذاتية القيادة وقوائم الموت تسعة حوادث لمركبات ذاتية القيادة ، تسببت أربعة منها فقط في وفيات. على الرغم من ادعاءات العنوان ، إلا أن القائمة غير كاملة ، حيث كانت هناك وفيات من مثل هذه الحوادث بعد نشر المقال.

كانت آخر حالة وفاة تم الإبلاغ عنها هي تلك المتعلقة بسيارة تسلا موديل X في 23 مارس 2018. وتوفي سائق السيارة عندما اصطدمت بحاجز على الطريق السريع. ألقى تسلا باللوم على تدخل الحاجز في نظام القيادة المستقلة للسيارة:

وقالت تيسلا في بيانها: "سبب هذا الحادث كان شديد الخطورة هو أن مخفف الاصطدام ، وهو حاجز أمان على الطريق السريع مصمم لتقليل التأثير في حاجز الممر الخرساني ، قد تحطم في حادث سابق دون استبداله".

وأضافت الشركة: "لم نشهد هذا المستوى من الضرر الذي لحق بطراز X في أي حادث آخر".

لسوء الحظ ، لم تكن هذه نهاية الاصطدامات القاتلة لسيارات تسلا ذاتية القيادة. عدد منهم حدث هذا العام.

من بين الحوادث التي وقعت في 1 مارس 2019. تم التأكيد من قبل مجلس سلامة النقل الوطني الأمريكي (NTSB) أن برنامج الطيار الآلي شبه المستقل كان يعمل على Tesla Model 3 عندما اصطدم بجرار مقطورة يحاول عبور فلوريدا الطريق السريع وقتل سائق السيارة.

على الرغم من أنها لا تزال نادرة نسبيًا ، مقارنة بحوادث السيارات التي يتسبب فيها السائقون البشريون ، إلا أن حقيقة وجود أي حوادث أو وفيات ناجمة عن السيارات ذاتية القيادة جعلت الناس قلقين بشأن سلامتهم وبرمجتهم. في الواقع ، ألقت شركة كوارتز هذا العام بعض الشكوك حول مزاعم تيسلا المتعلقة بالسلامة.

مثل حادث تسلا ، تؤدي معظم حوادث السيارات ذاتية القيادة إلى وفاة الشخص الجالس في مقعد السائق. ومع ذلك ، كانت هناك حالات لأشخاص خارج السيارة صدمتهم سيارات ذاتية القيادة وقتلوا.

قد يكون الحادث الأكثر شهرة من هذا النوع هو الحادث الذي تورط فيه أوبر في وفاة إيلين هيرزبرج في مارس 2018. كانت المرأة البالغة من العمر 49 عامًا تمشي وتدفع دراجتها عبر شارع ميل في تيمبي ، أريزونا عندما صدمتها سيارة أوبر.

يمكنكم مشاهدة فيديو الحادث الذي أصدرته الشرطة هنا:

ونتيجة لذلك ، تبنت أوبر سياسة التأكد من تضمين السائقين البشر في سياراتها. تم الإبلاغ عن القصة هنا: أوبر تعيد السيارات ذاتية القيادة إلى العمل ولكن مع سائقين بشريين.

هذه طريقة تستخدمها أوبر للتحايل على المشكلة التي سيتعين علينا مواجهتها ، إذا ومتى تصبح السيارات ذاتية القيادة هي القاعدة: كيفية برمجتها لدمج غريزة الحفاظ على حياة الإنسان.

برمجة الذكاء الاصطناعي مع الاهتمام بالأخلاق

كما رأينا في مقال آخر ، عالمنا الجديد الشجاع: لماذا يثير تقدم الذكاء الاصطناعي مخاوف أخلاقية ، مع القوة العظيمة للذكاء الاصطناعي تأتي مسؤولية كبيرة ، للتأكد من أن التكنولوجيا لا تؤدي في النهاية إلى جعل المواقف أسوأ باسم التقدم. استحوذت دراسة أخلاقيات الذكاء الاصطناعي على انتباه الأشخاص الذين يفكرون فيما يجب القيام به قبل تنفيذ الحلول الآلية.

أحد هؤلاء الأشخاص هو بول ثاغارد ، وهو فيلسوف وعالم معرفي كندي ، طرح بعض القضايا التي يتعين علينا مواجهتها الآن فيما يتعلق بأخلاقيات البرمجة في الذكاء الاصطناعي في كيفية بناء الذكاء الاصطناعي الأخلاقي.

يطرح العقبات الثلاثة التالية:

  1. النظريات الأخلاقية مثيرة للجدل إلى حد كبير. يفضل بعض الناس المبادئ الأخلاقية التي أرستها النصوص الدينية مثل الكتاب المقدس أو القرآن. يجادل الفلاسفة حول ما إذا كان يجب أن تقوم الأخلاق على الحقوق والواجبات ، أو على أكبر فائدة لأكبر عدد من الناس ، أو على التصرف بشكل فاضل.
  2. يتطلب التصرف بشكل أخلاقي إرضاء القيم الأخلاقية ، لكن لا يوجد اتفاق حول القيم المناسبة أو حتى حول ماهية القيم. بدون حساب للقيم المناسبة التي يستخدمها الناس عندما يتصرفون بشكل أخلاقي ، من المستحيل مواءمة قيم أنظمة الذكاء الاصطناعي مع قيم البشر.
  3. لبناء نظام ذكاء اصطناعي يتصرف بشكل أخلاقي ، يجب أن تكون الأفكار حول القيم والصواب والخطأ دقيقة بما يكفي بحيث يمكن تنفيذها في الخوارزميات ، لكن الدقة والخوارزميات تفتقران بشدة إلى المداولات الأخلاقية الحالية.

يقدم ثاغارد طريقة للتغلب على تلك التحديات ، كما يقول ، ويشير إلى كتابه ، الفلسفة الطبيعية: من العقول الاجتماعية إلى المعرفة والواقع والأخلاق والجمال. ومع ذلك ، في سياق المقال ، لم يقدم حلاً يعالج على وجه التحديد برمجة السيارات ذاتية القيادة.

السيارات ذاتية القيادة ومشكلة الترولي

من الناحية المثالية ، يتجنب السائقون ضرب أي شيء أو أي شخص. لكن من الممكن أن يجد المرء نفسه في موقف يستحيل فيه تجنب الاصطدام ، والخيار الوحيد هو الشخص أو الأشخاص الذين سيضربون.

هذه المعضلة الأخلاقية هي ما يُعرف بمشكلة الترولي ، والتي تعود ، مثل العربة نفسها ، إلى أكثر من قرن. يتم تقديمه بشكل عام على النحو التالي:

ترى عربة هاربة تتحرك نحو خمسة أشخاص مقيدون (أو عاجزون بطريقة أخرى) مستلقون على القضبان. أنت تقف بجانب رافعة تتحكم في مفتاح. إذا قمت بسحب الرافعة ، فسيتم إعادة توجيه العربة إلى مسار جانبي ، وسيتم حفظ الأشخاص الخمسة على المسار الرئيسي. ومع ذلك ، هناك شخص واحد يرقد على المسار الجانبي.

لديك خياران:

  1. لا تفعل شيئًا وتسمح للعربة بقتل الأشخاص الخمسة على المسار الرئيسي ؛
  2. اسحب الرافعة ، وقم بتحويل العربة إلى المسار الجانبي حيث ستقتل شخصًا واحدًا.

بالطبع ، لا يوجد خيار جيد حقًا هنا. السؤال هو أيهما أقل خيارين سيئين. لقد كان هذا النوع من المعضلة التي قدمها Green Goblin Spiderman في فيلم 2002 ، في محاولة لإجباره على الاختيار بين إنقاذ عربة تلفريك مليئة بالأطفال أو المرأة التي يحبها:

كونه بطلًا خارقًا ، تمكن سبايدرمان من استخدام قدراته في الغزل على الويب وقوته لإنقاذ كليهما. لكن في بعض الأحيان يتعين على الأبطال الخارقين اتخاذ قرار مأساوي ، كما كان الحال في فيلم 2008فارس الظلام حيث كان اختيار باتمان هو ترك المرأة التي أحبها في المبنى الذي انفجر.

لذلك حتى أولئك الذين لديهم قدرات فائقة لا يمكنهم دائمًا إنقاذ الجميع ، ويمكن أن ينطبق نفس الموقف على السيارات التي تدعم الذكاء الاصطناعي.

السؤال إذن هو: ما هي مدونة الأخلاق التي نطبقها لبرمجتهم لاتخاذ مثل هذه الخيارات؟

ماذا يجب أن تفعل السيارة ذاتية القيادة؟

لفتت MIT Technology Review الانتباه إلى بعض الباحثين الذين كانوا يعملون على صياغة الإجابات قبل بضع سنوات في كيفية مساعدة السيارات ذاتية القيادة في اتخاذ قرارات أخلاقية. من بين الباحثين في هذا المجال كريس جيرديس ، الأستاذ في جامعة ستانفورد الذي كان يبحث في "المعضلات الأخلاقية التي قد تنشأ عندما يتم استخدام القيادة الذاتية للمركبة في العالم الحقيقي".

عرض خيارًا أبسط: التعامل مع طفل يركض في الشارع ، مما يجبر السيارة على الاصطدام بشيء ما ولكنه يسمح لها بالاختيار بين الطفل وعربة صغيرة على الطريق. بالنسبة للإنسان الذي يجب ألا يفكر في أن حماية الطفل أكثر أهمية من حماية الشاحنة أو السيارة المستقلة نفسها.

لكن ماذا تعتقد منظمة العفو الدولية؟ وماذا عن ركاب السيارة الذين قد يتعرضون في النهاية لبعض الإصابات من هذا التصادم؟

لاحظ جيردس ، "هذه قرارات صعبة للغاية يواجهها كل يوم من يصممون خوارزميات التحكم للمركبات الآلية."

يقتبس المقال أيضًا من Adriano Alessandrini ، الباحث الذي يعمل على المركبات الآلية في جامعة روما لا سابينزا ، في إيطاليا ، والذي عمل كرئيس للجزء الإيطالي من مشروع CityMobil2 في أوروبا لاختبار مركبة النقل المؤتمتة. شاهد الفيديو حول هذا الموضوع أدناه:

لخصت مشكلة الترولي للسائقين والسيارات ذاتية القيادة في هذا الموجز:

"قد ترى شيئًا في طريقك ، وتقرر تغيير الممرات ، وكما تفعل ، يوجد شيء آخر في هذا المسار. لذا فهذه معضلة أخلاقية ".

خبير بارز آخر في هذا المجال هو باتريك لين ، أستاذ الفلسفة في كال بولي ، الذي عمل معه جيردس. يتناول TED-Ed من Lin المشكلات الأخلاقية في برمجة السيارات ذاتية القيادة لاتخاذ قرارات تتعلق بالحياة أو الموت ، وقد تم تقديمه كتجربة فكرية في هذا الفيديو:

يقول لين في الفيديو: "إذا كنا نقود السيارة المعبأة في الوضع اليدوي ، فإن الطريقة التي سنتفاعل بها ستفهم على أنها مجرد رد فعل ، وليس قرارًا متعمدًا". وبناءً على ذلك ، سيتم فهمه على أنه " حركة مذعورة غريزية بلا تدبر أو حقد ".

إن الاحتمال الحقيقي للغاية للوفيات التي تحدث ليس نتيجة لحدوث عطل ولكن نتيجة لاتباع السيارات لبرمجتها هو ما يجعل من المهم للغاية التفكير مسبقًا في كيفية التعامل مع ما يصفه لين بأنه "خوارزمية استهداف من نوع ما".

ويوضح أن مثل هذه البرامج "تفضل بشكل منهجي أو تميز ضد نوع معين من الأشياء التي يمكن تصادمها".

نتيجة لذلك ، سيعاني أولئك الموجودون في "المركبات المستهدفة من العواقب السلبية لهذه الخوارزمية دون أي خطأ من جانبهم".

إنه لا يقدم حلاً لهذه المشكلة ولكنه تحذير يجب علينا التفكير في كيفية تعاملنا معه:

"إن اكتشاف هذه المنعطفات الأخلاقية الآن سيساعدنا على المناورة على الطريق غير المألوف لأخلاقيات التكنولوجيا ، ويسمح لنا بالسير بثقة وضمير نحو مستقبلنا الجديد الشجاع."

من المرجح أن يكون هذا تحديًا أكبر للتنقل من الطرق التي يتعين على المركبات المستقلة القيادة عليها.


شاهد الفيديو: كيف ستغير السيارات ذاتية القيادة شكل المستقبل (كانون الثاني 2022).