الطائرات بدون طيار والسيارات ذاتية القيادة كأسلحة: لماذا نحتاج إلى الخوف من المتسللين
الطائرات بدون طيار والسيارات ذاتية القيادة كأسلحة: لماذا نحتاج إلى الخوف من المتسللين
Anonim

إذا وقع الذكاء الاصطناعي في الأيدي الخطأ ، يمكن للعالم المتحضر أن يغرق في الفوضى.

الطائرات بدون طيار والسيارات ذاتية القيادة كأسلحة: لماذا نحتاج إلى الخوف من المتسللين
الطائرات بدون طيار والسيارات ذاتية القيادة كأسلحة: لماذا نحتاج إلى الخوف من المتسللين

لن ينكر أحد أن الذكاء الاصطناعي يمكنه نقل حياتنا إلى المستوى التالي. الذكاء الاصطناعي قادر على حل العديد من المشاكل التي تتجاوز قدرة البشر.

ومع ذلك ، يعتقد الكثيرون أن الذكاء الخارق سيرغب بالتأكيد في تدميرنا ، مثل SkyNet ، أو سيبدأ في إجراء تجارب على الناس ، مثل GLADoS من لعبة Portal. المفارقة هي أن البشر فقط هم القادرون على جعل الذكاء الاصطناعي جيدًا أو شريرًا.

لماذا يمكن أن يشكل الذكاء الاصطناعي تهديدًا خطيرًا
لماذا يمكن أن يشكل الذكاء الاصطناعي تهديدًا خطيرًا

نشر باحثون من جامعة ييل وأكسفورد وكامبريدج وأوبن إيه آي تقريرًا عن إساءة استخدام الذكاء الاصطناعي. تقول أن الخطر الحقيقي يأتي من المتسللين. بمساعدة التعليمات البرمجية الخبيثة ، يمكنهم تعطيل تشغيل الأنظمة الآلية الخاضعة لسيطرة الذكاء الاصطناعي.

يخشى الباحثون أن تتضرر التقنيات حسنة النية. على سبيل المثال ، يمكن استخدام معدات المراقبة ليس فقط للقبض على الإرهابيين ، ولكن أيضًا للتجسس على المواطنين العاديين. الباحثون قلقون أيضًا بشأن الطائرات التجارية بدون طيار التي توصل الطعام. من السهل اعتراضهم وزرع شيء متفجر.

سيناريو آخر للاستخدام المدمر للذكاء الاصطناعي هو السيارات ذاتية القيادة. يكفي تغيير بضعة أسطر من التعليمات البرمجية ، وستبدأ الآلات في تجاهل قواعد السلامة.

لماذا يمكن أن يشكل الذكاء الاصطناعي تهديدًا خطيرًا
لماذا يمكن أن يشكل الذكاء الاصطناعي تهديدًا خطيرًا

يعتقد العلماء أن التهديد يمكن أن يكون رقميًا وماديًا وسياسيًا.

  • يتم استخدام الذكاء الاصطناعي بالفعل لدراسة نقاط الضعف في أكواد البرامج المختلفة. في المستقبل ، يمكن للقراصنة إنشاء روبوت يتجاوز أي حماية.
  • بمساعدة الذكاء الاصطناعي ، يمكن لأي شخص أتمتة العديد من العمليات: على سبيل المثال ، التحكم في سرب من الطائرات بدون طيار أو مجموعة من السيارات.
  • بمساعدة تقنيات مثل DeepFake ، من الممكن التأثير على الحياة السياسية للدولة من خلال نشر معلومات خاطئة عن قادة العالم الذين يستخدمون الروبوتات على الإنترنت.

هذه الأمثلة المخيفة موجودة حتى الآن كفرضية فقط. مؤلفو الدراسة لا يقترحون الرفض الكامل للتكنولوجيا. بدلاً من ذلك ، يعتقدون أن الحكومات الوطنية والشركات الكبيرة يجب أن تهتم بالأمن بينما لا تزال صناعة الذكاء الاصطناعي في مهدها.

يجب على صانعي السياسات دراسة التكنولوجيا والعمل مع الخبراء في هذا المجال لتنظيم إنشاء واستخدام الذكاء الاصطناعي بشكل فعال.

يجب على المطورين بدورهم تقييم الخطر الذي تشكله التكنولوجيا العالية ، وتوقع أسوأ العواقب وتحذير قادة العالم منها. يدعو التقرير مطوري الذكاء الاصطناعي إلى التعاون مع خبراء الأمن في مجالات أخرى ومعرفة ما إذا كانت المبادئ التي تضمن أمان هذه التقنيات يمكن استخدامها لحماية الذكاء الاصطناعي.

يصف التقرير الكامل المشكلة بمزيد من التفصيل ، لكن الخلاصة هي أن الذكاء الاصطناعي أداة قوية. يجب على جميع الأطراف المهتمة دراسة التكنولوجيا الجديدة والتأكد من عدم استخدامها لأغراض إجرامية.

موصى به: