كمبريدج ـ في السنوات القليلة الماضية، خلصت دراسة "الجهاز الأخلاقي" التي يستضيفها "معهد ماساتشوستس للتكنولوجيا" إلى التفضيلات العامة حول الطريقة التي ينبغي أن تتصرف بها تطبيقات الذكاء الاصطناعي في بيئات مختلفة. وقد أظهرت إحدى البيانات أنه عندما تصادف سيارة ذاتية القيادة (AV) سيناريو حياة أو موت، يعتمد رأي المرء حول استجابتها على مكان الشخص، وما يعرفه عن المشاة أو الركاب المعنيين.
على سبيل المثال، في نسخة السيارات الذاتية القيادة المستوحاة من "مشاكل العربات" الكلاسيكية، قد يفضل البعض أن تصطدم السيارة بقاتل مُدان بدلا من إلحاق الأذى بالآخرين، أو أن تصطدم بمواطن بالغ بدلا من طفل. لا يزال البعض الآخر يجادل بأن السيارة الذاتية القيادة يجب أن تجازف لتجنب التمييز القائم على البيانات.
بشكل عام، يتم رفع هذه المعضلات إلى لمحاكم أو إلى التحقيقات التي تجريها الشرطة بعد وقوعها. ولكن في حالة السيارات ذاتية القيادة، سيتم اتخاذ الخيارات في غضون ثواني، وهو وقت غير كاف للتوصل إلى قرار صائب. ما يهم ليس ما نعرفه، ولكن ما تعرفه السيارة. والسؤال المطروح الآن هو: ما هي المعلومات التي ينبغي أن تعرفها السيارة الذاتية القيادة حول الأشخاص من حولها. وهل يجب السماح للشركات بتقديم أنظمة أخلاقية مختلفة سعياً وراء ميزة تنافسية؟
لننظر إلى السيناريو التالي: تتمتع سيارة من الصين بمعايير صنع مختلفة عن سيارة من الولايات المتحدة، ولكن يتم شحنها إلى الولايات المتحدة واستخدامها هناك. تتجه هذه السيارة الصينية الصنع والسيارة الأمريكية الصنع نحو تصادم لا مفر منه. إذا كان لدى سائق السيارة الصينية تفضيلات أخلاقية مختلفة عن سائق السيارة الأمريكية، فما هو النظام الذي يجب أن يسود؟
بالإضافة إلى الاختلافات الثقافية في التفضيلات الأخلاقية، على المرء أيضًا مراعاة الاختلافات في لوائح البيانات في مختلف البلدان. على سبيل المثال، يمكن للسيارة الصينية الصنع الوصول إلى بيانات تسجيل النتائج الاجتماعية، والتي تسمح لخوارزمية صنع القرار الخاصة بها بتضمين معلومات إضافية غير متاحة لشركات صناعة السيارات الأمريكية. يمكن أن تؤدي البيانات الأكثر ثراءً إلى قرارات أفضل وأكثر اتساقًا، ولكن هل تسمح هذه الميزة لنظام ما بإلغاء نظام آخر؟
في الواقع، قبل أن تستعد السيارات ذاتية القيادة للاشتغال، سنحتاج إلى تحديد أين تقع مسؤولية اتخاذ القرارات الخوارزمية، سواء كان ذلك مع السلطات البلدية أو الحكومات الوطنية أو المؤسسات المتعددة الأطراف. والأهم من ذلك، سوف نحتاج إلى أطر جديدة تحكُم هذا التقاطع بين الأعمال والدولة. لا تكمن المشكلة في نتائج السيارات الذاتية القيادة السلبية، بل في كيفية تفاعل الشركات مع الثقافات المختلفة في تطوير ونشر خوارزميات صنع القرار.
Enjoy unlimited access to the ideas and opinions of the world’s leading thinkers, including weekly long reads, book reviews, topical collections, and interviews; The Year Ahead annual print magazine; the complete PS archive; and more – for less than $9 a month.
Subscribe Now
من السهل أن تتخيل أن جميع الشركات المصنعة للسيارات ذاتية القيادة ستعلن ببساطة عن الأنظمة الأخلاقية التي تهتم بحياة السائق قبل كل شيء، أو التي تسمح للمستخدم بتعديل أطر العمل الأخلاقية الخاصة به. لمنع "مأساة المجتمع" هذه، يجب أن تكون هناك أطر لإقامة الاتصالات وتنسيق القرارات بين السيارات ذاتية القيادة. ولكن من خلال تطوير مثل هذه الأنظمة في سياقات ثقافية مختلفة، سيواجه صناع السياسة ورجال الأعمال مفاهيم ثقافية مختلفة تتعلق بالسيادة والخصوصية والاستقلالية الفردية.
هذا يفرض تحديات إضافية، لأن أنظمة الذكاء الاصطناعي لا تتساهل مع الغموض. يتطلب تصميم تطبيق الذكاء الاصطناعي من البداية خصوصية عميقة؛ بغض النظر عن النتيجة، تتبع هذه الأنظمة فقط تعليمات المرء. وهذا يعني أن الشركات والحكومات ومقدمي الخدمات الآخرين سيحتاجون إلى اتخاذ خيارات صريحة عند ترميز بروتوكولات الاستجابة للحالات المختلفة.
قبل حدوث ذلك، سيحتاج صناع السياسة إلى تحديد نطاق المساءلة الحسابية، لتحديد القرارات التي ينبغي تركها للشركات أو الأفراد. كما يجب مناقشة القرارات التي تندرج ضمن اختصاصات الدولة. ونظرا إلى أن مثل هذه الأسئلة الأخلاقية لا يمكن الإجابة عنها بسهولة، فمن غير المرجح أن يكون هناك توافق في الآراء. باستثناء الحل النهائي، سنحتاج إلى إنشاء أنظمة تسهل على الأقل التواصل بين السيارات ذاتية القيادة وتفصل في النزاعات الخوارزمية وحوادث الطرق.
نظرا إلى الحاجة إلى الخصوصية في تصميم خوارزميات صنع القرار، من المنطقي أن تكون هناك حاجة إلى هيئة دولية لوضع المعايير التي يتم بموجبها حل المعضلات الأخلاقية. إن السيارات الذاتية القيادة، بعد كل شيء، هي مجرد تطبيق واحد لصنع القرار الخوارزمي. في المستقبل، يجب إدارة معايير المساءلة الخواريزمية في العديد من المجالات.
في نهاية المطاف، فإن السؤال الذي يجب طرحه هو ما إذا كان للشركات الحق في تصميم أطر أخلاقية بديلة لاتخاذ القرارات الخوارزمية. نحن نعتقد أنهم لا يملكون الحق للقيام بذلك.
في عصر الذكاء الاصطناعي، ستصبح بعض مكونات سلاسل القيمة العالمية آلية في نهاية المطاف، وحينها لن يتم اعتبارها مجالات تسعى من خلالها الشركات لتحقيق ميزة تنافسية. يجب أن تكون عملية تحديد المساءلة الخوارزمية وفصلها أحد هذه المجالات. بطريقة أو بأخرى، سيتم اتخاذ القرارات. من الأفضل أن يحدث ذلك بطريقة موحدة وبشكل أكثر ديمقراطية.
To have unlimited access to our content including in-depth commentaries, book reviews, exclusive interviews, PS OnPoint and PS The Big Picture, please subscribe
The democratic erosion and state capture in Hungary is symptomatic of deeper structural problems that are afflicting most democracies and even threatening the future of human civilization. Faced with such challenges, argues the mayor of Budapest and leading opponent of Hungary’s illiberal regime, democrats must not allow themselves to succumb to fatalism or apathy.
believes that the key lies in addressing the structural roots of both rising illiberalism and climate change.
Of all the tragedies witnessed so far this decade, none may be worse than the one now facing the 19 million women in Afghanistan. If the country's Taliban regime is serious about fostering economic development, it must uphold its promise to respect women's rights.
worries that the limited legal gains made over the past 20 years will be reversed.
كمبريدج ـ في السنوات القليلة الماضية، خلصت دراسة "الجهاز الأخلاقي" التي يستضيفها "معهد ماساتشوستس للتكنولوجيا" إلى التفضيلات العامة حول الطريقة التي ينبغي أن تتصرف بها تطبيقات الذكاء الاصطناعي في بيئات مختلفة. وقد أظهرت إحدى البيانات أنه عندما تصادف سيارة ذاتية القيادة (AV) سيناريو حياة أو موت، يعتمد رأي المرء حول استجابتها على مكان الشخص، وما يعرفه عن المشاة أو الركاب المعنيين.
على سبيل المثال، في نسخة السيارات الذاتية القيادة المستوحاة من "مشاكل العربات" الكلاسيكية، قد يفضل البعض أن تصطدم السيارة بقاتل مُدان بدلا من إلحاق الأذى بالآخرين، أو أن تصطدم بمواطن بالغ بدلا من طفل. لا يزال البعض الآخر يجادل بأن السيارة الذاتية القيادة يجب أن تجازف لتجنب التمييز القائم على البيانات.
بشكل عام، يتم رفع هذه المعضلات إلى لمحاكم أو إلى التحقيقات التي تجريها الشرطة بعد وقوعها. ولكن في حالة السيارات ذاتية القيادة، سيتم اتخاذ الخيارات في غضون ثواني، وهو وقت غير كاف للتوصل إلى قرار صائب. ما يهم ليس ما نعرفه، ولكن ما تعرفه السيارة. والسؤال المطروح الآن هو: ما هي المعلومات التي ينبغي أن تعرفها السيارة الذاتية القيادة حول الأشخاص من حولها. وهل يجب السماح للشركات بتقديم أنظمة أخلاقية مختلفة سعياً وراء ميزة تنافسية؟
لننظر إلى السيناريو التالي: تتمتع سيارة من الصين بمعايير صنع مختلفة عن سيارة من الولايات المتحدة، ولكن يتم شحنها إلى الولايات المتحدة واستخدامها هناك. تتجه هذه السيارة الصينية الصنع والسيارة الأمريكية الصنع نحو تصادم لا مفر منه. إذا كان لدى سائق السيارة الصينية تفضيلات أخلاقية مختلفة عن سائق السيارة الأمريكية، فما هو النظام الذي يجب أن يسود؟
بالإضافة إلى الاختلافات الثقافية في التفضيلات الأخلاقية، على المرء أيضًا مراعاة الاختلافات في لوائح البيانات في مختلف البلدان. على سبيل المثال، يمكن للسيارة الصينية الصنع الوصول إلى بيانات تسجيل النتائج الاجتماعية، والتي تسمح لخوارزمية صنع القرار الخاصة بها بتضمين معلومات إضافية غير متاحة لشركات صناعة السيارات الأمريكية. يمكن أن تؤدي البيانات الأكثر ثراءً إلى قرارات أفضل وأكثر اتساقًا، ولكن هل تسمح هذه الميزة لنظام ما بإلغاء نظام آخر؟
في الواقع، قبل أن تستعد السيارات ذاتية القيادة للاشتغال، سنحتاج إلى تحديد أين تقع مسؤولية اتخاذ القرارات الخوارزمية، سواء كان ذلك مع السلطات البلدية أو الحكومات الوطنية أو المؤسسات المتعددة الأطراف. والأهم من ذلك، سوف نحتاج إلى أطر جديدة تحكُم هذا التقاطع بين الأعمال والدولة. لا تكمن المشكلة في نتائج السيارات الذاتية القيادة السلبية، بل في كيفية تفاعل الشركات مع الثقافات المختلفة في تطوير ونشر خوارزميات صنع القرار.
Subscribe to Project Syndicate
Enjoy unlimited access to the ideas and opinions of the world’s leading thinkers, including weekly long reads, book reviews, topical collections, and interviews; The Year Ahead annual print magazine; the complete PS archive; and more – for less than $9 a month.
Subscribe Now
من السهل أن تتخيل أن جميع الشركات المصنعة للسيارات ذاتية القيادة ستعلن ببساطة عن الأنظمة الأخلاقية التي تهتم بحياة السائق قبل كل شيء، أو التي تسمح للمستخدم بتعديل أطر العمل الأخلاقية الخاصة به. لمنع "مأساة المجتمع" هذه، يجب أن تكون هناك أطر لإقامة الاتصالات وتنسيق القرارات بين السيارات ذاتية القيادة. ولكن من خلال تطوير مثل هذه الأنظمة في سياقات ثقافية مختلفة، سيواجه صناع السياسة ورجال الأعمال مفاهيم ثقافية مختلفة تتعلق بالسيادة والخصوصية والاستقلالية الفردية.
هذا يفرض تحديات إضافية، لأن أنظمة الذكاء الاصطناعي لا تتساهل مع الغموض. يتطلب تصميم تطبيق الذكاء الاصطناعي من البداية خصوصية عميقة؛ بغض النظر عن النتيجة، تتبع هذه الأنظمة فقط تعليمات المرء. وهذا يعني أن الشركات والحكومات ومقدمي الخدمات الآخرين سيحتاجون إلى اتخاذ خيارات صريحة عند ترميز بروتوكولات الاستجابة للحالات المختلفة.
قبل حدوث ذلك، سيحتاج صناع السياسة إلى تحديد نطاق المساءلة الحسابية، لتحديد القرارات التي ينبغي تركها للشركات أو الأفراد. كما يجب مناقشة القرارات التي تندرج ضمن اختصاصات الدولة. ونظرا إلى أن مثل هذه الأسئلة الأخلاقية لا يمكن الإجابة عنها بسهولة، فمن غير المرجح أن يكون هناك توافق في الآراء. باستثناء الحل النهائي، سنحتاج إلى إنشاء أنظمة تسهل على الأقل التواصل بين السيارات ذاتية القيادة وتفصل في النزاعات الخوارزمية وحوادث الطرق.
نظرا إلى الحاجة إلى الخصوصية في تصميم خوارزميات صنع القرار، من المنطقي أن تكون هناك حاجة إلى هيئة دولية لوضع المعايير التي يتم بموجبها حل المعضلات الأخلاقية. إن السيارات الذاتية القيادة، بعد كل شيء، هي مجرد تطبيق واحد لصنع القرار الخوارزمي. في المستقبل، يجب إدارة معايير المساءلة الخواريزمية في العديد من المجالات.
في نهاية المطاف، فإن السؤال الذي يجب طرحه هو ما إذا كان للشركات الحق في تصميم أطر أخلاقية بديلة لاتخاذ القرارات الخوارزمية. نحن نعتقد أنهم لا يملكون الحق للقيام بذلك.
في عصر الذكاء الاصطناعي، ستصبح بعض مكونات سلاسل القيمة العالمية آلية في نهاية المطاف، وحينها لن يتم اعتبارها مجالات تسعى من خلالها الشركات لتحقيق ميزة تنافسية. يجب أن تكون عملية تحديد المساءلة الخوارزمية وفصلها أحد هذه المجالات. بطريقة أو بأخرى، سيتم اتخاذ القرارات. من الأفضل أن يحدث ذلك بطريقة موحدة وبشكل أكثر ديمقراطية.