الكود الأخلاقي: كيف نعلم الروبوتات الصواب من الخطأ؟

Avatar
كتب بواسطة نوف السعيدي

تطلب تطوير الروبوتات كود أخلاقي أدق من قوانين عظيموف الثلاثة. ستتعرض الروبوتات لمواقف معقدة، الأمر الذي سيتطلب منها الاستجابة الفورية للخيارات. وإذا فالخطوة الحتمية التالية ستكون تصميم “آلات أخلاقية اصطناعية” يشير هذا المصطلح لأنظمة تتمتع بالمنطق الأخلاقي وتمتلك القدرة على التفاعل مع البشر كشركاء. بخلاف البرامج الحاسوبية التي تعمل كأداة، فإن الآلات الاصطناعية تمتلك مستويات متعددة للتحكم الذاتي.

في المؤتمر المشترك الأخير حول الذكاء الاصطناعي، عرض أكثر من ألف خبير رسالة مفتوحة تطالب بحظر العدوان باستخدام الأسلحة الآلية ذات التحكم الذاتي. وقعت الرسالة من قِبل مؤسس شركة تيسلا إيلون ماسك ، المؤسس الشريك لأبل ستيف ويزنك، الرئيس التنفيذي لديب مايند ديمس هاسابيس، والبروفيسور ستيفن هوكينج، بالإضافة لكثيرين غيرهم. حذرت الرسالة من “سباق التسلح العسكري بالذكاء الاصطناعي.” بغض النظر عن نجاح مثل هذه الحملات من عدمها في حظر استخدام الأسلحة ذاتية التحكم؛ فإن تكنولوجيا الروبوتات سيتصاعد استخدامها على نطاق واسع في مختلف مجالات الحياة الاقتصادية والعسكرية.
مع مرور السنوات أصبحت الروبوتات أذكى وأكثر استقلالية، لكنها حتى الآن تفتقر إلى ميزة أساسية: الافتقار للمنطق الأخلاقي وهذا يحد من قدرتها على اتخاذ قرارات مناسبة في المواقف المعقدة. على سبيل المثال: الروبوتات حتى الآن غير قادرة على التمييز بين المقاتلين والمدنيين وغير قادرة على استيعاب تمويه الأعداء الذين يقدمون أنفسهم على أنهم مدنيين.
لمعالجة هذا القصور، قدم مكتب بحوث البحرية الأمريكية في 2014 منحة بقيمة 7.5 مليون دولار لفريق بحثي متعدد التخصصات من جامعة براون، جورجتاون، معهد رينسلاير للبوليتكنك، جامعة تافتس، وييل؛ لتصميم روبوتات تتمتع بالكفاءة الأخلاقية. وقد اعتزموا – لتحقيق ذلك – محاكاة آلية التحليل الأخلاقي لدى البشر، الأمر الذي سيمكن الروبوتات من التفريق بين الصواب والخطأ، وسيمكنها من تطويع هذه التعليمات للاستخدام عند مواجهة مواقف جديدة.
فكرة تقنين المبادئ الأخلاقية ليست جديدة. فقبل أكثر من سبعة عقود ماضية، وصف كاتب الخيال العلمي إسحق عظيموف “قوانين الروبوتات الثلاثة” – بوصلة أخلاقية للذكاء الاصطناعي. تلزم القوانين الروبوتات بحماية البشر، وإطاعة الأوامر، والإبقاء على أنفسهم ضمن هذا النظام. المنطلق الأساسي لقوانين عظيموف يتلخص في تقليل التعارض بين البشر والروبوتات. مع ذلك فحتى هذه المبادئ الأخلاقية البسيطة في قصص عظيموف تؤدي – في كثير من الأحيان – لعواقب كارثية غير مقصودة. إما بسبب استقبال تعليمات متعارضة أو عبر استخدام الثغرات والغموض في هذه القوانين، روبوتات عظيموف تميل في النهاية لتسبيب أذى أو أصابات قاتلة للبشر.
اليوم يتطلب تطوير الروبوتات كود أخلاقي أدق من قوانين عظيموف الثلاثة. ستتعرض الروبوتات لمواقف معقدة، الأمر الذي سيتطلب منها الاستجابة الفورية للخيارات. وإذا فالخطوة الحتمية التالية ستكون تصميم “آلات أخلاقية اصطناعية” يشير هذا المصطلح لأنظمة تتمتع بالمنطق الأخلاقي وتمتلك القدرة على التفاعل مع البشر كشركاء. بخلاف البرامج الحاسوبية التي تعمل كأداة، فإن الآلات الاصطناعية تمتلك مستويات متعددة للتحكم الذاتي.
بالرغم من ذلك فإن أخلاقية الروبوت ليست ببساطة متغيرات ثنائية binary. حلل – كلا من ويندل والش من جامعة وييل و كولين آلين من جامعة إنديانا – في عملهم الرائد الآلات الأخلاقية، حللوا التدرجات المختلفة لحساسية الروبوتات الأخلاقية. فقد ميزا بين الأخلاقيات العملية والأخلاقيات الوظيفية. الأخلاقيات العملية تحيل إلى مواقف واستجابات ممكنة توقعها تماما وعالجها مصمم نظام الروبوت. وذلك يمكن أن يشمل توصيف مقاتل العدو من خلال العمر أو المظهر العام.
الأخلاقيات الوظيفية تشمل استجابة الروبوتات لسيناريوهات لم يتوقعها المبرمج، حيث سيحتاج الروبوت إلى بعض القدرات لاتخاذ القرار الأخلاقي بشكل مستقل. في هذه الحالة – كما يقولان – سيتطلب تزويد الروبوتات بالقدرة على التقييم والاستجابة لـ “جوانب أخلاقية هامة لأفعالهم”. هذا هو التحدي الأكبر.
السعي إلى تطوير روبوتات أخلاقية تواجه العديد من العقبات التقنية، ولكن – الأهم من ذلك – أنه أيضا فتح صندوق بندورا الخاص بالمعضلات الأخلاقية.
قيم من؟
السؤال الأكثر حساسية في هذه المعضلة هو: ممن ترث الروبوتات أخلاقياتها؟ القيم الأخلاقية تختلف كثيرا من فرد لآخر، وعبر القوميات، والأديان، والحدود الأيدولوجية، وهي تعتمد كثيرا على السياق الذي تأتي فيه. على سبيل المثال الأفكار حول أداء الواجب والتضحية تختلف باختلاف الثقافات. خلال الحرب العالمية الثانية قام اليابانيون بهجمات بانازي والتي دعمت بالتوقعات الثقافية التي ترى أن الموت من واجبات الجندي و ترى الاستسلام فعل شائن غير قابل للغفران. كذلك مفاهيم الحرية واحترام الحياة لها دلالات مختلفة في أوقات السلم عنها في الحروب.
يتم اختبار أخلاقيات البشر بعدد لانهائي من الطُرق، والأمر نفسه سيطبق على أخلاقيات الروبوتات ذاتية التحكم والذكاء الاصطناعي. حالة من عدم اليقين تكتنف موضوع اختيار الإطار الأخلاقي، هذا الأمر هو ركيزة الصعوبات والقيود التي تعزى للقيم الأخلاقية في الأنظمة الاصطناعية. أخلاقيات الواجب التابعة لكانتين Kantian هي بمثابة نداء إلزامي بشأن الأخلاقيات الصارمة لأفعال الفرد. إنها تتطلب العمل بطريقة تعكس القيم العالمية، وترى الإنسانية كغاية لا كوسيلة. بالمقابل تؤكد النفعية أن على الفرد أن يحسب تبعات أفعاله – حتى وإن لم يبدو الفعل أخلاقيا في البداية – واختيار الاتجاه الأكثر نفعا. بالرغم من ذلك هل نثق في ادراك الروبوتات وقدرتها على أن تزن العواقب لمختلف الأفعال؟ لتطبيق أي من هذه الأطر بفاعلية سيحتاج الروبوت لأن يكون مجهزا بقدر – يكاد يكون مستحيلا – من المعلومات. حتى وإن تجاوزنا عملية اتخاذ القرار، تبقى مسألة النسبية الثقافية صعبة الحل: لا توجد مجموعة موحدة من المعايير والمبادئ ليتبعها الروبوت في خياراته.
مبدئيا تم تجاهل الأسئلة المتعلقة بالنسبية لسببين. أولا لأن الجيش الأمريكي هو المسؤول عن تطبيقات الذكاء الاصطناعي العسكرية، والسيليكون فالي هو المسؤول عن التطبيقات الأخرى. على هذا النحو ستبقى الترجمة الأمريكية للأخلاق – مع التأكيد على الحرية والمسؤولية – هي المعايير الافتراضية default. ثانيا: في المستقبل القريب آلات الأخلاق الاصطناعية لن تكون في مواجهة مواقف خارج أرض المعركة، والإعدادات المتاحة للتحكم الذاتي ستكون محدودة جدا.
التعلم بالممارسة
حتى وإن تم الإجابة على الأسئلة الأخلاقية في نهاية المطاف، فإن التحدي التقني الأساسي سيبقى قائما، هذا التحدي المتمثل في برمجة مفهوم مجرد كالأخلاق داخل الترانزستورات!
هناك مقاربتين سائدتين تستخدمان لذلك. الاولى هي مقاربة “الأعلى للأسفل” والتي تتطلب ترميز قيم أخلاقية محددة داخل الخوارزمية. هذه القيم الأخلاقية تحدد من خلال مطور الروبوت، ويمكن أن تعتمد على أطر من قبيل الأديان، المذاهب الفلسفية، أو القوانين. بالنسبة للعديد من علماء الأعصاب وعلماء النفس فهذه المقاربة تحوي مجموعة من العيوب. إنه يهمل الدور الأساسي الذي تلعبه الخبرة، والتعلم، وغريزة اللعب في تشكيل فهمنا للعالم، وبالتالي قانوننا الأخلاقي.
المقاربة الثانية هي “الأسفل لأعلى” وهي تعتمد على السماح للروبوتات باكتساب الكفاءة الأخلاقية من خلال التعلم، التجربة والخطأ، النمو، والتطور. على الصعيد الحاسوبي فتطبيق هذا النظام صعب للغاية، ولكن ظهور الحوسبة العصبية neuromorphic يمكنها أن تجعله حقيقة. رقائق الحوسبة العصبية (عملها شبيه بعمل الدماغ) تسعى لمحاكاة مورفولجيا الخلايا العصبية، ومحاكاة هيكيلية الدماغ في الوقت الحقيقي in real time. الرقائق العصبية ستمكن الروبوتات من معالجة البيانات بطريقة مماثلة للبشر، أي على نحو شبكي مع وجود الملايين من الخلايا العصبية الصناعية التي تتفاعل معا. وهذا بعيد كل البعد عن تقنيات الحوسبة التقليدية والتي تعتمد على تسلسل خطي للحسابات. قد يبدو هذا وكأنه خيال علمي، ولكن شركة IBM قد طورت بالفعل رقاقة ترونورث TrueNorth القادرة على تقليد أكثر من مليون خلية عصبية بشرية. الروبوتات التي تحوي رقاقات عصبية قادرة على القيام بعمليات تماثل ما يقوم به الذكاء البشري، وقادرة على إدراك العالم بطرق فريدة تشابه طرق البشر.
القدرة على التعلم والاختبار لا تقدم أي ضمانات بأن الروبوتات ستلتزم باستمرار بقوانين أخلاقية رفيعة. الربوت المزود بالشريحة العصبية سيبدو مثالي، لكنه لا يعد بالتوصل إلى نتائج أخلاقية في جميع الحالات، ببساطة لأن أخلاقيات البشر نفسها غالبا ما تكون معابة ودون المستوى.
في الواقع تعد الاختلافات بين الروبوتات والبشر أحيانا بأنها الميزة الأساسية للروبوتات. يقول أنصار الروبوتات الأخلاقية بأنها – على عكس البشر – لا يمكن أن تتأثر بالإجهاد من القتال، أو تخضع عاطفيا تحت الضغط. بينما يختلف البشر ويملون ويتعبون، فإن الروبوتات يمكنها تطبيق قواعد السلوك على نحو منتظم. على سبيل المثال فهي لن تتصرف بتهور، ولن تطلق النار عشوائيا على حشد من الناس في لحظة ذعر.
الرقاقات العصبية – وما تجلبه من السلوكيات المقاربة للبشر – لن تحرز بالضرورة ربحا صافيا من حيث الفوائد الأخلاقية. الروبوتات يمكنها أن تطور أيضا أوجه ضعف شبيهة بالبشر كالتردد، الأنانية، أو سوء الفهم الذي يمكن أن يعيق قدرتها على أداء واجبها.
خطر وجودي؟
إذا كان البشر قد تمكنوا بنجاح من تطوير الرقاقات العصبية التي تمكن الروبوتات من سبر العالم بطرق مماثلة للبشر، فما الذي سيشكل الإطار الأخلاقي للروبوتات؟ هناك العديد من الإجابات الممكنة، لكني أفضل أن ننشدها من خلال علم الأعصاب.

علم الأعصاب والتصوير الدماغي اليوم يقترح أن البشر بطبيعتهم ليسوا أخلاقيين تماما، وليس غير أخلاقيا تماما، ولكنهم مزيج من الاثنين. نحن بمثابة صفحة بيضاء . حيث أن بوصلتنا الأخلاقية تتشكل عبر التربية، والبيئة المحيطة، ولكن نزوعنا لنكون أخلاقيين يختلف باختلاف تصورنا الوجداني للمصلحة الشخصية. البشر – أيضا – أنانيون بشكل أساسي أي أن أفعالنا – في معظم الحالات – ستكون موجهة نحو رغبتنا في الحصول على أقصى فرص البقاء. إن غريزة الأنسان الأساسية في البقاء والهيمنة مشفرة في جيناتنا، وهي تمثل حافزا قويا طوال فترة وجودنا.
إن المفهوم الأساسي لجعل الروبوتات أخلاقية يفترض أنها غير قابلة لتكون أخلاقية أو غير أخلاقية بطبيعتها. حتى مع وجود التقنيات العصبية، لا يمكن للروبوتات تعلم القيم الأخلاقية من الصفر، سيتم تزويدها بالمراجع والقواعد الأساسية من خلال مبرمجها. في نهاية المطاف فالروبوت الأعقد القادر على كتابة شفرته المصدرية يمكنه البدء باعتباره أخلاقيا، ومن ثم يطور بوصلته الأخلاقية عبر التعلم والتجربة. روبوتات– شبيهة بالبشر – كهذه يمكن أن تكون في النهاية مدفوعة بمصلحتها الشخصية والرغبة الجوهرية لضمان بقائها.
إن حدث مثل هذا الأمر فالآثار المترتبة ستكون وخيمة. إذ قد تتنافس الروبوتات مع البشر على البقاء والهيمنة. في المقابل , يمكن أن تستخدم الروبوتات في تحسين الإدراك البشري. المستقبل غير مؤكد. في أفضل السيناريوهات ستتم برمجة الروبوتات بنجاح مع تحليها بالقيم الأخلاقية. بالرغم من ذلك فالسيناريو الأكثر قابلية للحدوث هو تطوير روبوتات ذات تحكم ذاتي التي يمكن أن تكون أخلاقية أو غير أخلاقية، الأمر الذي سيشكل تحديا لمستقبل البشر.
________________________________________

المقال باللغة الأصلية: http://isnblog.ethz.ch/technology/the-moral-code-how-to-teach-robots-right-and-wrong

الثالث والسبعون ثقافة وفكر

عن الكاتب

Avatar

نوف السعيدي

كاتبة عمانية