ما يمكن للذكاء الاصطناعي فعله اليوم
ما يمكن للذكاء الاصطناعي فعله اليوم
Anonim

تنبيه المفسد: لا يزال هناك وقت طويل قبل انتفاضة الآلات.

ما يمكن للذكاء الاصطناعي فعله اليوم
ما يمكن للذكاء الاصطناعي فعله اليوم

عندما يقدم Elon Musk الروبوت الروبوت Tesla Bot ، يبدو أن ثورة علمية جديدة على وشك الحدوث. أكثر من ذلك بقليل - والذكاء الاصطناعي (AI) سيتفوق على الإنسان ، وستحل الآلات محلنا في العمل. ومع ذلك ، يُطلب من الأستاذين جاري ماركوس وإرنست ديفيس ، وكلاهما من خبراء الذكاء الاصطناعي المشهورين ، عدم التسرع في التوصل إلى مثل هذه الاستنتاجات.

في كتابه إعادة تشغيل الذكاء الاصطناعي ، يشرح الباحثون سبب ابتعاد التكنولوجيا الحديثة عن المثالية. بإذن من دار النشر "Alpina PRO" تنشر Lifehacker مقتطفات من الفصل الأول.

في هذه المرحلة ، هناك فجوة كبيرة - فجوة حقيقية - بين طموحنا وواقع الذكاء الاصطناعي. نشأت هذه الهوة بسبب عدم حل ثلاث مشاكل محددة ، يجب التعامل مع كل منها بأمانة.

أولها ما نسميه السذاجة ، والتي تستند إلى حقيقة أننا نحن البشر لم نتعلم حقًا التمييز بين البشر والآلات ، وهذا يجعل من السهل خداعنا. ننسب الذكاء إلى أجهزة الكمبيوتر لأننا نحن أنفسنا قد تطورنا وعاشنا بين أشخاص يعتمدون في أعمالهم إلى حد كبير على أفكار مجردة مثل الأفكار والمعتقدات والرغبات. غالبًا ما يكون سلوك الآلات مشابهًا ظاهريًا لسلوك البشر ، لذلك نقوم بسرعة بتعيين الآلات نفس النوع من الآليات الأساسية ، حتى لو كانت الآلات لا تمتلكها.

لا يسعنا إلا التفكير في الآلات من منظور معرفي ("يعتقد جهاز الكمبيوتر أنني حذفت ملفي") ، بغض النظر عن مدى بساطة القواعد التي تتبعها الأجهزة بالفعل. لكن الاستنتاجات التي تبرر نفسها عند تطبيقها على البشر قد تكون خاطئة تمامًا عند تطبيقها على برامج الذكاء الاصطناعي. احترامًا لمبدأ أساسي في علم النفس الاجتماعي ، نسمي هذا الخطأ الأساسي في الصحة.

حدثت إحدى أولى حالات هذا الخطأ في منتصف الستينيات ، عندما أقنع روبوت محادثة يُدعى إليزا بعض الأشخاص بأنه يفهم حقًا الأشياء التي كانوا يخبرونها به. في الواقع ، التقطت إليزا للتو كلمات رئيسية ، وكررت آخر شيء قاله لها الشخص ، وفي موقف مسدود ، لجأت إلى حيل المحادثة القياسية مثل "أخبرني عن طفولتك". إذا ذكرت والدتك ، فسوف تسألك عن عائلتك ، على الرغم من أنها لم تكن تعرف ما هي العائلة حقًا أو سبب أهميتها للناس. لقد كانت مجرد مجموعة من الحيل ، وليست دليلاً على الذكاء الحقيقي.

على الرغم من حقيقة أن إليزا لم تفهم الناس على الإطلاق ، إلا أن الحوارات معها خدعت العديد من المستخدمين. قضى البعض ساعات في كتابة العبارات على لوحة المفاتيح ، والتحدث بهذه الطريقة مع إليزا ، لكنهم أساءوا تفسير حيل روبوت المحادثة ، واعتبروا أن خطاب الببغاء يعتبر نصيحة مفيدة وصادقة أو تعاطفًا.

جوزيف وايزنباوم خالق إليزا.

الناس الذين يعرفون جيدًا أنهم كانوا يتحدثون إلى آلة سرعان ما نسوا هذه الحقيقة ، تمامًا كما نبذ عشاق المسرح عدم تصديقهم جانبًا لفترة من الوقت ونسوا أن الفعل الذي يشهدونه ليس له الحق في أن يُطلق عليه اسم حقيقي.

غالبًا ما طالب محاورو إليزا بالإذن لإجراء محادثة خاصة مع النظام وبعد المحادثة أصروا ، على الرغم من كل توضيحاتي ، على أن الآلة تفهمهم حقًا.

في حالات أخرى ، قد يكون الخطأ في تقييم الأصالة قاتلاً بالمعنى الحرفي للكلمة. في عام 2016 ، اعتمد أحد مالكي سيارة Tesla الآلية كثيرًا على الأمان الظاهر في وضع الطيار الآلي لدرجة أنه (وفقًا للقصص) انغمس تمامًا في مشاهدة أفلام هاري بوتر ، تاركًا السيارة تفعل كل شيء بمفردها.

سارت الأمور على ما يرام - حتى ساءت الأمور في وقت ما. بعد أن قطعت مئات أو حتى آلاف الأميال دون وقوع حادث ، اصطدمت السيارة (بكل معنى الكلمة) بعقبة غير متوقعة: عبرت شاحنة بيضاء الطريق السريع ، واندفعت تسلا أسفل المقطورة مباشرة ، مما أسفر عن مقتل صاحب السيارة على الفور. (بدت السيارة وكأنها حذرت السائق عدة مرات لتولي السيطرة ، لكن بدا أن السائق مرتاح للغاية بحيث لا يستطيع الرد بسرعة).

المغزى من هذه القصة واضح: حقيقة أن الجهاز قد يبدو "ذكيًا" للحظة أو اثنتين (وحتى ستة أشهر) لا يعني على الإطلاق أنه كذلك حقًا أو أنه يمكنه التعامل مع جميع الظروف التي يتفاعل الشخص بشكل مناسب.

المشكلة الثانية نسميها وهم التقدم السريع: الخلط بين التقدم في الذكاء الاصطناعي ، المرتبط بحل المشكلات السهلة ، من أجل التقدم ، المرتبط بحل المشكلات الصعبة حقًا. حدث هذا ، على سبيل المثال ، مع نظام IBM Watson: تقدمه في لعبة Jeopardy! بدا واعدًا جدًا ، ولكن في الحقيقة تبين أن النظام أبعد كثيرًا عن فهم اللغة البشرية مما توقعه المطورون.

من الممكن أن يتبع برنامج AlphaGo الخاص بـ DeepMind نفس المسار. لعبة Go ، مثل الشطرنج ، هي لعبة معلومات مثالية حيث يمكن للاعبين رؤية اللوحة بأكملها في أي وقت وحساب نتائج التحركات بالقوة الغاشمة.

في معظم الحالات ، في الحياة الواقعية ، لا أحد يعرف أي شيء على وجه اليقين ؛ غالبًا ما تكون بياناتنا غير كاملة أو مشوهة.

حتى في أبسط الحالات ، هناك الكثير من عدم اليقين. عندما نقرر ما إذا كان علينا الذهاب إلى الطبيب سيرًا على الأقدام أو ركوب مترو الأنفاق (نظرًا لأن النهار غائم) ، فإننا لا نعرف بالضبط كم من الوقت سيستغرق انتظار قطار الأنفاق ، وما إذا كان القطار عالقًا على الطريق ، وما إذا كان سنحشر في العربة مثل سمك الرنجة في برميل أو سنبتل في المطر بالخارج ، ولن نتجرأ على ركوب المترو ، وكيف سيتفاعل الطبيب مع تأخرنا.

نحن نعمل دائمًا مع المعلومات التي لدينا. من خلال اللعب مع نفسه ملايين المرات ، لم يتعامل نظام DeepMind AlphaGo أبدًا مع عدم اليقين ، فهو ببساطة لا يعرف ما هو نقص المعلومات أو عدم اكتمالها وعدم اتساقها ، ناهيك عن تعقيدات التفاعل البشري.

هناك معلمة أخرى تجعل الألعاب الذهنية مختلفة تمامًا عن العالم الحقيقي ، وهذا مرتبط بالبيانات مرة أخرى. حتى الألعاب المعقدة (إذا كانت القواعد صارمة بما فيه الكفاية) يمكن تصميمها بشكل مثالي تقريبًا ، لذلك يمكن لأنظمة الذكاء الاصطناعي التي تلعبها بسهولة جمع الكميات الهائلة من البيانات التي تحتاجها للتدريب. وبالتالي ، في حالة Go ، يمكن للآلة محاكاة لعبة مع أشخاص بمجرد اللعب ضد نفسها ؛ حتى إذا كان النظام يحتاج إلى تيرابايت من البيانات ، فإنه يقوم بإنشائه بنفسه.

وبالتالي يمكن للمبرمجين الحصول على بيانات محاكاة نظيفة تمامًا بتكلفة قليلة أو بدون تكلفة. على العكس من ذلك ، في العالم الحقيقي ، لا توجد بيانات نظيفة تمامًا ، ومن المستحيل محاكاتها (نظرًا لأن قواعد اللعبة تتغير باستمرار) ، ويصعب جمع العديد من الجيجابايت من البيانات ذات الصلة عن طريق التجربة والخطأ.

في الواقع ، لدينا محاولات قليلة فقط لاختبار استراتيجيات مختلفة.

لسنا قادرين ، على سبيل المثال ، على تكرار زيارة الطبيب 10 ملايين مرة ، مع تعديل معايير القرارات تدريجياً قبل كل زيارة ، من أجل تحسين سلوكنا بشكل كبير من حيث اختيار النقل.

إذا أراد المبرمجون تدريب روبوت لمساعدة كبار السن (على سبيل المثال ، للمساعدة في وضع المرضى في الفراش) ، فإن كل جزء من البيانات سيكون ذا قيمة حقيقية ووقتًا بشريًا حقيقيًا ؛ لا توجد طريقة لجمع جميع البيانات المطلوبة باستخدام ألعاب المحاكاة. حتى دمى اختبارات التصادم لا يمكن أن تحل محل الأشخاص الحقيقيين.

من الضروري جمع بيانات عن كبار السن الحقيقيين ذوي الخصائص المختلفة لحركات الشيخوخة ، على أنواع مختلفة من الأسرة ، وأنواع مختلفة من البيجامات ، وأنواع مختلفة من المنازل ، وهنا لا يمكنك ارتكاب الأخطاء ، لأن إسقاط شخص حتى على مسافة عدة سنتيمترات من السرير ستكون كارثة. في هذه الحالة ، على المحك ، تم إحراز تقدم معين (حتى الآن الأكثر بدائية) في هذا المجال باستخدام أساليب الذكاء الاصطناعي الضيقة. تم تطوير أنظمة الكمبيوتر التي تلعب تقريبًا على مستوى أفضل اللاعبين البشريين في ألعاب الفيديو Dota 2 و Starcraft 2 ، حيث يتم في أي وقت عرض جزء فقط من عالم اللعبة للمشاركين ، وبالتالي ، يواجه كل لاعب مشكلة نقص المعلومات - أن يد كلاوزفيتز الخفيفة تسمى "ضباب المجهول". ومع ذلك ، لا تزال الأنظمة المطورة شديدة التركيز وغير مستقرة في التشغيل. على سبيل المثال ، لم يتعلم برنامج AlphaStar الذي يتم تشغيله في Starcraft 2 سوى سباق واحد محدد من مجموعة متنوعة من الشخصيات ، ولا يمكن لعب أي من هذه التطورات تقريبًا مثل أي سباق آخر. وبالطبع ، لا يوجد سبب للاعتقاد بأن الأساليب المستخدمة في هذه البرامج مناسبة لإجراء تعميمات ناجحة في مواقف الحياة الواقعية الأكثر تعقيدًا. حياة حقيقية. كما اكتشفت شركة IBM ليس مرة واحدة ، ولكن بالفعل مرتين (الأولى في لعبة الشطرنج ، ثم في لعبة Jeopardy!) ، فإن النجاح في المشكلات من عالم مغلق لا يضمن على الإطلاق النجاح في عالم مفتوح.

الدائرة الثالثة من الهوة الموصوفة هي المبالغة في تقدير الموثوقية. مرارًا وتكرارًا ، نرى أنه بمجرد أن يجد الأشخاص بمساعدة الذكاء الاصطناعي حلاً لبعض المشكلات التي يمكن أن تعمل دون إخفاقات لفترة من الوقت ، فإنهم يفترضون تلقائيًا أنه مع المراجعة (وكمية أكبر قليلاً من البيانات) كل شيء سيعمل بشكل موثوق. الوقت. ولكن هذا ليس صحيحا بالضرورة.

نأخذ سيارات بدون سائق مرة أخرى. من السهل نسبيًا إنشاء عرض توضيحي لمركبة مستقلة تسير بشكل صحيح على طول ممر محدد بوضوح على طريق هادئ ؛ ومع ذلك ، كان الناس قادرين على القيام بذلك لأكثر من قرن. ومع ذلك ، فإنه من الأصعب بكثير جعل هذه الأنظمة تعمل في ظروف صعبة أو غير متوقعة.

كما أخبرتنا ميسي كامينغز ، مديرة مختبر الإنسان والحكم الذاتي في جامعة ديوك (وطيار مقاتل سابق في البحرية الأمريكية) ، في رسالة بريد إلكتروني ، فإن السؤال ليس كم عدد الأميال التي يمكن لسيارة ذاتية القيادة أن تقطعها دون وقوع حادث. ولكن في المدى يمكن لهذه السيارات أن تتكيف مع المواقف المتغيرة. وفقًا لـ Missy Cummings ، أرسل بريدًا إلكترونيًا إلى المؤلفين في 22 سبتمبر 2018. ، المركبات الحديثة شبه المستقلة "تعمل عادة فقط في نطاق ضيق للغاية من الظروف ، والتي لا تذكر شيئًا عن كيفية عملها في ظل ظروف أقل من مثالية."

لا يعني المظهر الموثوق به تمامًا على ملايين الأميال التجريبية في فينيكس الأداء الجيد أثناء الرياح الموسمية في بومباي.

يمكن أن يصبح هذا الاختلاف الأساسي بين كيفية تصرف المركبات ذاتية القيادة في الظروف المثالية (مثل الأيام المشمسة على طرق الضواحي متعددة المسارات) وما يمكن أن تفعله في الظروف القاسية مسألة نجاح وفشل لصناعة بأكملها.

مع القليل من التركيز على القيادة الذاتية في الظروف القاسية وأن المنهجية الحالية لم تتطور في اتجاه ضمان أن الطيار الآلي سيعمل بشكل صحيح في الظروف التي بدأت للتو في اعتبارها حقيقية ، فقد يتضح قريبًا أن مليارات الدولارات تم إنفاقها على أساليب بناء سيارات ذاتية القيادة تفشل ببساطة في توفير موثوقية القيادة الشبيهة بالإنسان.من الممكن أنه لتحقيق مستوى الثقة التقنية الذي نحتاجه ، فإن الأساليب التي تختلف اختلافًا جوهريًا عن الأساليب الحالية مطلوبة.

والسيارات هي مجرد مثال واحد من العديد من الأمثلة المماثلة. في الأبحاث الحديثة حول الذكاء الاصطناعي ، تم التقليل من موثوقيتها على مستوى العالم. ويرجع ذلك جزئيًا إلى أن معظم التطورات الحالية في هذا المجال تنطوي على مشاكل شديدة التسامح مع الأخطاء ، مثل التوصية بالإعلان أو الترويج لمنتجات جديدة.

في الواقع ، إذا أوصينا بخمسة أنواع من المنتجات ، ولم تعجبك سوى ثلاثة أنواع ، فلن يحدث أي ضرر. ولكن في عدد من تطبيقات الذكاء الاصطناعي المهمة للمستقبل ، بما في ذلك السيارات ذاتية القيادة ورعاية المسنين والتخطيط للرعاية الصحية ، ستكون الموثوقية الشبيهة بالبشر أمرًا بالغ الأهمية.

لن يشتري أحد روبوتًا منزليًا يمكنه حمل جدك المسن بأمان إلى الفراش أربع مرات فقط من كل خمسة.

حتى في تلك المهام التي يجب أن يظهر فيها الذكاء الاصطناعي الحديث نظريًا في أفضل ضوء ممكن ، تحدث إخفاقات خطيرة بانتظام ، وفي بعض الأحيان تبدو مضحكة للغاية. مثال نموذجي: لقد تعلمت أجهزة الكمبيوتر ، من حيث المبدأ ، جيدًا بالفعل كيفية التعرف على ما يحدث (أو يحدث) في هذه الصورة أو تلك.

أحيانًا تعمل هذه الخوارزميات بشكل رائع ، لكنها غالبًا ما تنتج أخطاء لا تصدق تمامًا. إذا عرضت صورة على نظام آلي يقوم بإنشاء تعليقات لصور المشاهد اليومية ، فغالبًا ما تحصل على إجابة مشابهة بشكل ملحوظ لما يكتبه الإنسان ؛ على سبيل المثال ، بالنسبة للمشهد أدناه ، حيث تقوم مجموعة من الأشخاص بلعب الفريسبي ، فإن نظام إنشاء الترجمة من Google الذي تم الإعلان عنه بشكل كبير يمنحها الاسم الصحيح تمامًا.

الشكل 1.1. مجموعة من الشباب يلعبون الفريسبي (تسمية توضيحية معقولة للصورة ، تم إنشاؤها تلقائيًا بواسطة الذكاء الاصطناعي)
الشكل 1.1. مجموعة من الشباب يلعبون الفريسبي (تسمية توضيحية معقولة للصورة ، تم إنشاؤها تلقائيًا بواسطة الذكاء الاصطناعي)

لكن بعد خمس دقائق ، يمكنك بسهولة الحصول على إجابة سخيفة تمامًا من نفس النظام ، كما حدث ، على سبيل المثال ، مع علامة الطريق هذه ، والتي علق عليها أحد الأشخاص الملصقات: لم يشرح الكمبيوتر المسمى منشئو النظام سبب حدوث هذا الخطأ ، ولكن مثل هذه الحالات ليست نادرة. يمكننا أن نفترض أن النظام في هذه الحالة بالذات صنف الصورة (ربما من حيث اللون والملمس) على أنها مشابهة للصور الأخرى (التي تعلمت منها) المسمى "ثلاجة مليئة بالكثير من الأطعمة والمشروبات". بطبيعة الحال ، لم يفهم الكمبيوتر (وهو ما يمكن لأي شخص فهمه بسهولة) أن مثل هذا النقش سيكون مناسبًا فقط في حالة وجود صندوق معدني كبير مستطيل به أشياء مختلفة (وحتى ليس كلها) بداخله. هذا المشهد عبارة عن "ثلاجة بها الكثير من الأطعمة والمشروبات".

أرز. 1.2 ثلاجة مليئة بكميات كبيرة من الأطعمة والمشروبات (عنوان غير معقول تمامًا ، تم إنشاؤه بواسطة نفس النظام كما هو مذكور أعلاه)
أرز. 1.2 ثلاجة مليئة بكميات كبيرة من الأطعمة والمشروبات (عنوان غير معقول تمامًا ، تم إنشاؤه بواسطة نفس النظام كما هو مذكور أعلاه)

وبالمثل ، غالبًا ما تحدد السيارات ذاتية القيادة ما "تراه" بشكل صحيح ، ولكن في بعض الأحيان يبدو أنها تتجاهل ما هو واضح ، كما في حالة تسلا ، التي تصطدم بانتظام بشاحنات الإطفاء المتوقفة أو سيارات الإسعاف على الطيار الآلي. يمكن أن تكون النقاط العمياء مثل هذه أكثر خطورة إذا كانت موجودة في أنظمة تتحكم في شبكات الطاقة أو تكون مسؤولة عن مراقبة الصحة العامة.

لسد الفجوة بين الطموح وحقائق الذكاء الاصطناعي ، نحتاج إلى ثلاثة أشياء: إدراك واضح للقيم المعرضة للخطر في هذه اللعبة ، وفهم واضح لماذا لا تؤدي أنظمة الذكاء الاصطناعي الحديثة وظائفها بشكل موثوق بما فيه الكفاية ، و ، أخيرًا ، استراتيجية تطوير جديدة للتفكير الآلي.

نظرًا لأن المخاطر على الذكاء الاصطناعي كبيرة حقًا من حيث الوظائف والسلامة ونسيج المجتمع ، فهناك حاجة ملحة لنا جميعًا - متخصصو الذكاء الاصطناعي ، والمهن ذات الصلة ، والمواطنون العاديون والسياسيون - لفهم الحالة الحقيقية للأمور. في هذا المجال من أجل معرفة تقييم نقدي لمستوى وطبيعة تطور الذكاء الاصطناعي اليوم.

مثلما هو مهم للمواطنين المهتمين بالأخبار والإحصاءات أن يفهموا مدى سهولة تضليل الناس بالكلمات والأرقام ، فهناك جانب مهم بشكل متزايد من الفهم حتى نتمكن من معرفة مكان وجود الذكاء الاصطناعي. الإعلان فقط ، ولكن اين هو حقيقي ما هو قادر على القيام به الآن ، وما لا يعرف كيف ، وربما لن يتعلمه.

والأهم أن ندرك أن الذكاء الاصطناعي ليس سحرًا ، بل مجرد مجموعة من التقنيات والخوارزميات ، لكل منها نقاط قوتها وضعفها ، وهي مناسبة لبعض المهام وغير مناسبة لأخرى. أحد الأسباب الرئيسية التي دفعتنا لكتابة هذا الكتاب هو أن الكثير مما نقرأه عن الذكاء الاصطناعي يبدو لنا وكأنه خيال مطلق ، ينشأ من ثقة لا أساس لها في القوة السحرية للذكاء الاصطناعي.

وفي الوقت نفسه ، لا علاقة لهذا الخيال بالقدرات التكنولوجية الحديثة. لسوء الحظ ، فإن مناقشة الذكاء الاصطناعي بين عامة الناس تأثرت بشدة بالمضاربة والمبالغة: معظم الناس ليس لديهم فكرة عن مدى صعوبة إنشاء ذكاء اصطناعي عالمي.

دعنا نوضح المزيد من المناقشة. على الرغم من أن توضيح الحقائق المرتبطة بالذكاء الاصطناعي سيتطلب انتقادات جادة منا ، فنحن أنفسنا لسنا بأي حال من المعارضين للذكاء الاصطناعي ، إلا أننا نحب حقًا هذا الجانب من التقدم التكنولوجي. لقد عشنا جزءًا كبيرًا من حياتنا كمحترفين في هذا المجال ونريده أن يتطور في أسرع وقت ممكن.

كتب الفيلسوف الأمريكي هوبير دريفوس ذات مرة كتابًا عن الارتفاعات ، في رأيه ، التي لا يمكن للذكاء الاصطناعي الوصول إليها أبدًا. ليس هذا ما يدور حوله هذا الكتاب. إنه يركز جزئيًا على ما لا يستطيع الذكاء الاصطناعي فعله حاليًا ولماذا من المهم فهمه ، لكن جزءًا كبيرًا منه يتحدث عن ما يمكن فعله لتحسين تفكير الكمبيوتر وتوسيعه ليشمل المجالات التي يواجه فيها الآن صعوبة في القيام به أولاً.

لا نريد أن يختفي الذكاء الاصطناعي. نريده أن يتحسن ، علاوة على ذلك ، بشكل جذري ، حتى نتمكن حقًا من الاعتماد عليه وحل العديد من مشاكل البشرية بمساعدته. لدينا الكثير من الانتقادات حول الوضع الحالي للذكاء الاصطناعي ، لكن نقدنا هو مظهر من مظاهر الحب للعلم الذي نمارسه ، وليس دعوة للتخلي عن كل شيء والتخلي عنه.

باختصار ، نعتقد أن الذكاء الاصطناعي يمكنه بالفعل تحويل عالمنا بشكل جدي ؛ لكننا نعتقد أيضًا أن العديد من الافتراضات الأساسية حول الذكاء الاصطناعي يجب أن تتغير قبل أن نتحدث عن تقدم حقيقي. إن "إعادة ضبط" الذكاء الاصطناعي التي اقترحناها ليست سببًا على الإطلاق لوضع حد للبحث (على الرغم من أن البعض قد يفهم كتابنا بهذه الروح بالضبط) ، بل هو تشخيص: أين نحن عالقون الآن وكيف نخرج من وضع اليوم.

نعتقد أن أفضل طريقة للمضي قدمًا هي النظر إلى الداخل ومواجهة بنية أذهاننا.

لا يجب أن تكون الآلات الذكية حقًا نسخًا طبق الأصل من البشر ، ولكن أي شخص ينظر إلى الذكاء الاصطناعي بصدق سيرى أنه لا يزال هناك الكثير لنتعلمه من البشر ، وخاصة من الأطفال الصغار ، الذين يتفوقون من نواح كثيرة على الآلات في قدرتهم على استيعاب وفهم المفاهيم الجديدة.

غالبًا ما يصف علماء الطب أجهزة الكمبيوتر بأنها أنظمة "خارقة" (بطريقة أو بأخرى) ، لكن الدماغ البشري لا يزال متفوقًا بشكل كبير على نظرائه من السيليكون في خمسة جوانب على الأقل: يمكننا فهم اللغة ، يمكننا فهم العالم ، يمكننا بمرونة التكيف مع الظروف الجديدة ، يمكننا أن نتعلم أشياء جديدة بسرعة (حتى بدون كميات كبيرة من البيانات) ويمكننا التفكير في مواجهة المعلومات غير الكاملة وحتى المتضاربة. على كل هذه الجبهات ، فإن أنظمة الذكاء الاصطناعي الحديثة تقف وراء البشر بشكل ميؤوس منه.

إعادة تشغيل الذكاء الاصطناعي
إعادة تشغيل الذكاء الاصطناعي

الذكاء الاصطناعي: ستثير عملية إعادة التشغيل اهتمام الأشخاص الذين يرغبون في فهم التقنيات الحديثة وفهم كيف ومتى يمكن لجيل جديد من الذكاء الاصطناعي أن يجعل حياتنا أفضل.

موصى به: