معلومات

ما هو الذكاء الاصطناعي الذي يمكن تفسيره وهل هو مطلوب؟

ما هو الذكاء الاصطناعي الذي يمكن تفسيره وهل هو مطلوب؟

الذكاء الاصطناعي القابل للتفسير- XAI هو موضوع تمت مناقشته بشكل متكرر في السنوات الأخيرة وهو موضوع تناقضات. قبل مناقشة موثوقية الذكاء الاصطناعي (AI) ، إذا كان الذكاء الاصطناعي يحاول نمذجة تفكيرنا واتخاذ القرار ، فيجب أن نكون قادرين على شرح كيف نتخذ قراراتنا حقًا! أليس كذلك؟

ذات صلة: الذكاء الاصطناعي وخوف المجهول

هناك تحول في التعلم الآلي كان يحدث أحيانًا بشكل أسرع وأحيانًا أبطأ منذ الخمسينيات. في الماضي القريب ، كان أكثر المجالات المدروسة والأكثر لفتًا للانتباه هو التعلم الآلي ، والذي يهدف إلى نمذجة نظام القرار والسلوك وردود الفعل.

أدت النتائج الناجحة التي تم الحصول عليها في مجال التعلم الآلي إلى زيادة سريعة في تنفيذ الذكاء الاصطناعي. يعد العمل المتقدم بأن يكون أنظمة مستقلة قادرة على الإدراك الذاتي والتعلم واتخاذ القرار والحركة.

ذات صلة: 13 موقعًا مجانيًا للحصول على مقدمة لتعلم الآلة

بعد التسعينيات على وجه الخصوص ، يعتمد مفهوم التعلم العميق على الماضي ، لكن الشبكات العصبية العودية ، والشبكات العصبية التلافيفية ، والتعلم المعزز ، والشبكات المثيرة للجدل كانت ناجحة بشكل ملحوظ. على الرغم من الحصول على نتائج ناجحة ، إلا أنه من غير المناسب شرح أو شرح قرارات وأفعال هذه الأنظمة للمستخدمين من البشر.

نطاق الذكاء الاصطناعي القابل للتفسير

نماذج التعلم العميق المصممة بمئات الملايين من طبقات الشبكات العصبية الاصطناعية ليست معصومة من الخطأ. يمكن أن يفقدوا مصداقيتهم بسرعة ، خاصةً عندما يتم تضليلهم ببساطة كما في حالة هجوم بكسل واحد! ثم يصبح لا مفر من طرح السؤال عن مدى نجاح أو فشل!

تنص وزارة الدفاع (DoD) على أن الأنظمة الأكثر ذكاءً واستقلالية وتكافلًا تواجه تحديات.

"الذكاء الاصطناعي القابل للتفسير - وخاصة التعلم الآلي القابل للتفسير - سيكون ضروريًا إذا كان على المحاربين المستقبليين أن يفهموا ويثقوا بشكل مناسب ويديروا بشكل فعال جيلًا ناشئًا من شركاء الآلة الذكية.

يزداد تعقيد هذا النوع من التطبيقات المتقدمة مع النجاحات ويصبح الفهم والتفسير صعبًا. حتى في بعض المؤتمرات ، هناك جلسات فقط يتم فيها مناقشة هذا الموضوع.

أسباب أنظمة التعلم الآلي / العميق الجديدة

ويهدف إلى شرح أسباب أنظمة التعلم الآلي / العميق الجديدة ، لتحديد نقاط القوة والضعف فيها وفهم كيفية التصرف في المستقبل. تتمثل الإستراتيجية لتحقيق هذا الهدف في تطوير تقنيات تعلم اصطناعية جديدة أو معدلة من شأنها إنتاج نماذج أكثر قابلية للتحديد.

تهدف هذه النماذج إلى دمجها مع أحدث تقنيات الواجهة التفاعلية بين الإنسان والحاسوب ، والتي يمكن أن تحول النماذج إلى مربعات حوار شرح مفهومة ومفيدة للمستخدم النهائي.

مع ثلاثة توقعات أساسية ، من المرغوب فيه الاقتراب من النظام:
▪. اشرح الغرض من كيفية تأثر الأطراف التي تصمم النظام وتستخدمه.
▪. اشرح كيف يتم استخدام مصادر البيانات والنتائج.
▪. اشرح كيف تؤدي المدخلات من نموذج الذكاء الاصطناعي إلى المخرجات.

"XAI هو واحد من عدد قليل من برامج DARPA الحالية المتوقع أن تمكّن - أنظمة الموجة الثالثة للذكاء الاصطناعي - حيث تفهم الآلات السياق والبيئة التي تعمل فيها ، وبمرور الوقت تبني نماذج تفسيرية أساسية تسمح لها بتمييز ظواهر العالم الحقيقي . "

إذا انطلقنا من الممارسة الطبية ، بعد فحص بيانات المريض ، يجب على الطبيب أن يفهم ويشرح للمريض أنه اقترح على المريض المعني خطر الإصابة بنوبة قلبية بناءً على توصية من نظام دعم القرار.

في هذه المرحلة ، أولاً ، ما هي البيانات التي يتم تقييمها هو معيار مهم آخر. من المهم أيضًا تحديد البيانات المطلوبة وما يجب القيام به من أجل التقييم المناسب.

سيكولوجية التفسير

دعونا نلقي نظرة على النقطة التي نرفض فيها استخدام تكنولوجيا التعلم الاصطناعي لأننا لا نستطيع شرح كيف يتخذ الذكاء الاصطناعي قراره. من ناحية أخرى ، لا يستطيع الكثير من الناس شرح كيف اتخذوا القرار!

لنتخيل كيف توصل الشخص إلى قرار على مستوى النموذج: عندما نقترب من تركيبتنا البيولوجية على المستوى الكيميائي والفيزيائي ، فإننا نتحدث عن الإشارات الكهربائية من خلية دماغية إلى خلية دماغية أخرى. إذا لم تكن راضيًا عن هذا التفسير ، فأخبرني كيف قررت طلب القهوة!

عندما يطلب أحد أصدقائك قهوة مثلجة ، يطلب الآخر قهوة ساخنة ، والآخر يطلب فنجان شاي في مقهى. لماذا اختاروا القهوة المثلجة والقهوة الساخنة؟ يمكن لأي شخص أن يشرح المواد الكيميائية والمشابك في الدماغ؟ هل يمكن ان توضح؟ هل تريد مثل هذا الشرح؟ هل تعلم ما هو؟ بدأ الإنسان في تكوين قصة حول كيفية اتخاذ القرار! نأمل أن تكون قصة رائعة ستستمع إليها ، جربها!

ما عليك سوى إلقاء نظرة على بيانات الإدخال والإخراج الخاصة بك ثم سرد قصة ممتعة! في الواقع ، هناك نهج مماثل للقضايا التحليلية والمهمة. التفسيرات والشفافية والوضوح هي أمور تحليلية ، والتحليلات بدون اختبار تشبه تذكرة قطار باتجاه واحد تسبب إحساسًا بالأمان.

في ظروف مثالية
▪ نظام ينتج أفضل أداء ،
▪. تريد أفضل تفسير.

لكن الحياة الواقعية تجبرنا على الاختيار.

الأداء مقابل التفسير

ترجمة: أنت تفهم ، لكنها لا تعمل بشكل جيد!

أداء: أنت لا تفهم ولكن تعمل بشكل جيد!

لن يولي الأكاديميون والباحثون وشركات التكنولوجيا اهتمامًا كبيرًا بشكل عام إلى الحد الذي سيعطونه أهمية أكبر للأداء. ومع ذلك ، فإن السيناريو مع الأشخاص والمؤسسات المشاركة في القطاع مختلف قليلاً. يريدون أن يثقوا وينتظرون تفسيرا.

تختلف مناهج الذكاء الاصطناعي بالنسبة للبنوك وشركات التأمين ومقدمي الرعاية الصحية والصناعات المختلفة الأخرى. وذلك لأن النماذج الخاصة بهذه القطاعات تجلب لوائح قانونية مختلفة ومتطلبات أخلاقية. في هذه الحالة ، نصل إلى نفس النقطة مرة أخرى. إذا كنت تريد شرح نظامك في الحالة التالية ، فسيتعين عليك استبداله بنظام أبسط ليس قويًا جدًا ، في الوقت الحالي!

البحث في هذا الموضوع هو في الغالب DARPA و Google و DeepMind وما إلى ذلك. وبينما تستمر المؤسسات في العمل بشكل مكثف ، فهذا مفهوم من التقارير ؛ بغض النظر عن القطاع ومن تستخدمه أنظمة الذكاء الاصطناعي ، هناك علاقة بين الوضوح والدقة بحيث لا يمكن تجنب المقايضة ويبدو أنها تستمر لفترة من الوقت.

بعد كل شيء ، لا ينبغي أن يتحول الذكاء الاصطناعي إلى قوة إلهية سنقود إلى متابعتها دون إقامة علاقة بين السبب والنتيجة. من ناحية أخرى ، لا ينبغي أن نتجاهل البصيرة التي ستزودنا.

في الأساس ، يجب أن نفكر في إنشاء نماذج مرنة وقابلة للتفسير يمكنها العمل معًا في انسجام مع الخبراء الذين لديهم معرفة على المستوى التقني والأكاديمي وآراء من مختلف القطاعات والتخصصات.

شكر

شكرًا برفق على Başak Buluz ، Yavuz Kömeçoğlu و Hakan Aydemir على ملاحظاتهم.


شاهد الفيديو: مقدمة إلى الذكاء الإصطناعي - الذكاء الإصطناعي (شهر نوفمبر 2021).