تسبب حصول "صوفيا"، الروبوت ذات الذكاء الاصطناعي على الجنسية السعودية، في الكثير من الجدل بالأوساط الأكاديمية، خصوصاً أن نيلها حقوق المواطن يثير إشكاليات قانونية وثقافية في حال تعرضت لمشكلة ما أو ارتكبت خطأ ما.
في هذا التقرير، يقدم "هاف بوست عربي" لكم قائمة بأشهر الأخطاء التي ارتُكبت من قِبل الروبوتات وأنظمة الذكاء الاصطناعي والتي وصلت أحياناً لدرجة الفضائح؛ بل أيضاً الجرائم التي يمكن أن تسبب لها مشكلات قانونية إذا كانت بشراً، وبالطبع فإن أصحابها هم من تحمَلوا المسؤولية.
طورت شركة أمازون نظام ذكاء اصطناعياً باسم أليكسا، وهو مساعد شخصي يقوم بتوفير الخدمات المختلفة للمستخدم فيما يتعلق بتفاصيل حياته كافة.
الواضح أن أليكسا تحب الاحتفال وحيدة؛ إذ قامت في الساعة 1:50 ليلاً بتشغيل الموسيقى بصوت عال جداً في منزل أوليفر هيبرستو حين كان خارج منزله الواقع بهامبورغ ألمانيا.
ما حدث بعدها أن الجيران بدأوا بالطَرق على الباب؛ احتجاجاً على صوت الموسيقى العالي، إلا أن أحداً لم يُجب، لتأتي الشرطة بعدها وتدخل المنزل؛ ما اضطر إليكسا إلى إيقاف الموسيقى وتغيير قفل الباب الإلكتروني. وحينما عاد أوليفر إلى المنزل لم يعمل مفتاحه، كما اضطر إلى دفع غرامة في مركز الشرطة؛ بسبب الإزعاج الذي صدر من منزله، إلى جانب دفع مبلغ كبير ثمن قفل جديد للباب.
تعمل أليكسا عبر التعرف على الصوت، أي يمكن الحديث معها وإعطاؤها الأوامر، وما حدث أن الطفلة بروك نايتزل، ذات السنوات الست، طلبت من أليكسا شراء منزل لدميتها بثمن 170 دولاراً و4 كيلوغرامات من الحلويات، وبما أن ميغان، والدة بروك، لم تمتلك الوقت لإلغاء طلب الشراء، فقد تمت الصفقة.
تقبَلت والدة بروك ما حدث وتبرعت بالمنزل لمشفى للأطفال، ثم قامت بتحميل نظام حماية لا يسمح لأليكسا بتنفيذ أوامر الأطفال، إلا أن الحكاية لم تنتهِ هنا؛ فحين تم بث الخبر على التلفاز قام المذيع بتكرار ما قالته الفتاة، ما جعل كل أجهزة أليكسا في بيوت المستمعين تقوم بشراء منزل الألعاب ذاته، يبدو أن أليكسا تحب شراء المنازل.
من الواضح مما سبق أنه لا يجوز ترك أليكسا دون برمجتها بحيث تمتنع عن الاستجابة للأطفال؛ إذ تكررت أخطاؤها.
فذات مرة كانت طفلة تتحدث مع إليكسا، وبما أنها لم تكن تجيد الكلام بصورة جيدة، قامت إليكسا وعبر برنامج التعرف على الكلمات، بتشغيل الأفلام الإباحية حسبما فهمت من كلمات الطفلة غير الواضحة والتي كانت بالأصل تريد أن تسمع أغنيتها المفضلة.
لم يتمكن ريتشارد لي، (22 عاماً)، من صعود الطائرة التي المفترض أن يستقلها من مطار في نيوزيلندا، والسبب أن نظام التعرف على الوجوه، المسؤول عن مسح جوازات السفر، أشار إلى أن عيني "لي" كانتا مغلقتين، وهذا لم يحدث.
ما فعله نظام التعرف على الوجوه اعتُبر إهانة عنصرية؛ فقد تبين أن ريتشارد من أصول آسيوية، وشكْل عينه طبيعي، ولكن الذكاء الاصطناعي أو الغباء الاصطناعي افترض أن عينيه مغلقتان.
ويبدو أن "لي" ليس الشخص الأول، فنحو 20 في المائة من جوازات السفر يتم رفضها لأسباب مشابهة، حسب تصريح مكتب الموارد البشرية للمطار.
تُعتبر هذه القصة هي الخطأ الأخطر الذي ارتكبه الذكاء الاصطناعي والذي وصل لمرتبة الجريمة.
فقد قام رجل آلي باسم زايو بونغ، أي السمين قليلاً، في الصين بمهاجمة إحدى واجهات العرض؛ ما أدى إلى إصابة أحد الأطفال، حيث قام بضرب الواجهة عدة مرات، محطماً إياها، جاعلاً الزجاج يتطاير في كل مكان؛ ما أدى إلى إيذاء طفل وإصابته بعدة جروح، لينتهي به الأمر بإصابات طفيفة اقتضت بعض القطب.
لطالما رافق الجدل مسابقات الجمال، وخصوصاً فيما يتعلق بمعايير اختيار أجمل امرأة، ولحل هذه المشكلة قامت إحدى مسابقات الجمال بإنشاء موقع على الإنترنت وتصميم ذكاء اصطناعي مسؤول عن اختيار ملكة الجمال.
خوارزمية الموقع قائمة على أساس حساب نِسب الجمال في الوجه؛ لتحديد من تمتلك النسبة المثالية والتي تعتبر انعكاساً لأشد معايير الجمال البشري كمالاً.
إلا أن المفاجأة أن الخوارزمية كانت تستثني النساء داكنات البشرة، فمن أصل 44 فائزة، واحدة فقط كانت من البشرة الداكنة.
الحوادث التي تتضمن عنصرية من قِبل الذكاء الاصطناعي لا تقتصر على الآسيويين والأفارقة؛ إذ تورط حساب شركة مايكروسوفت على تويتر في تجربة فاشلة كارثية.
كان الحساب مصمماً ليقوم بالتغريد والتفاعل مع المستخدمين الآخرين، إلا أن رواد تويتر بدأوا باستفزاز الذكاء الاصطناعي، وما حدث أن حساب التويتر رد بنشر تغريدات عنصرية تهين النساء والأقليات المختلفة .
لطالما ظن الكثيرون أن الذكاء الاصطناعي يتفوق على الذكاء البشري؛ بل وقد يسيطر على العالم، لكن عام 2011 قام فريق من الباحثين بتطوير ذكاء اصطناعي باسم توداي روبوت، والهدف منه أن يتجاوز امتحانات القبول في الجامعة اليابانية. وبعد الانتهاء من تصميمه عام 2015، خضع للامتحان، والنتيجة أنه فشل في الحصول على علامة عالية، وبعد محاولة مرة ثانية فشل مرة أخرى، وعام 2016 تخلى العلماء عن المشروع نهائياً.