قلق كبير من أجهزة الذكاء الصناعي واستخدامات خبيثة تثير توتر الحكومات

قلق كبير من أجهزة الذكاء الصناعي واستخدامات خبيثة تثير توتر الحكومات

يحذر 26 خبيرا من أن هناك مخاطر حقيقية للذكاء الاصطناعي، وأن بعض التقنيات قد طُورت بالفعل

قال خبراء إن تحويل الطائرات بدون طيار إلى صواريخ، واستخدام مقاطع الفيديو الزائفة للتلاعب بالرأي العام، والقرصنة الآلية ليست سوى ثلاثة تهديدات ناتجة عن وصول الذكاء الاصطناعي للأيدي الخاطئة.

ويحذر تقرير بعنوان "الاستخدامات الخبيثة للذكاء الاصطناعي" من أن الذكاء الاصطناعي يمكن استغلاله من قِبل الدول المارقة والمجرمين والإرهابيين.

وقال معدو التقرير إنه يتعين على مصممي أنظمة الذكاء الاصطناعى بذل المزيد من الجهد لتقليل سوء الاستخدام المحتمل لتلك التكنولوجيا.

ويجب على الحكومات أن تنظر في فرض قوانين جديدة للتعامل مع ذلك.


كما أكد على أنه رغم وجود العديد من التطبيقات الإيجابية للذكاء الاصطناعي، فإنه يمكن استخدام هذه التكنولوجيا في أمور سلبية. لذا، يتعين على الباحثين والمهندسين بمجال الذكاء الاصطناعي أن يضعوا ذلك في الاعتبار، ويستعدوا للتعامل مع احتمال إساءة استخدامه.

وقال شاهار أفين، من مركز دراسة المخاطر الوجودية التابع لجامعة كامبريدج، لبي بي سي إن التقرير ركز على مجالات الذكاء الاصطناعي المتاحة الآن، أو المحتمل أن تكون متاحة في غضون خمس سنوات، بدلا من النظر إلى المستقبل البعيد.

والمقلق في الأمر هو أن أنظمة الذكاء الاصطناعي مدربة على التفوق على القدرات العقلية للبشر، بدون إرشاد أو تقويم بشري.

وذكر أفين عدد من الاحتمالات التي قد يتحول فيها الذكاء الاصطناعي إلى "أغراض خبيثة" في المستقبل القريب:

تكنولوجيا "ألفا غو"، وهو نظام ذكاء اصطناعي طورته شركة "دييب مايند" التابعة لغوغل ويمكنها التفوق على لاعبي لعبة "غو" من البشر، يمكن للمقرصنين استخدامها للكشف عن أنماط البيانات وثغرات الشفرات.

يمكن لشخص خبيث شراء طائرة بدون طيار (درون)، وتزويدها بنظام للتعرف على الوجوه لاستهداف شخص بعينه.

يمكن برمجة أجهزة الروبوت في مقاطع فيديو "مزيفة" محاكية للواقع بغرض الاستغلال السياسي.
يمكن للمقرصنين استخدام المزج الخطابي لانتحال صفة الضحايا.

وقال مايلز برونديج، باحث في معهد مستقبل الإنسانية التابع لجامعة أوكسفورد: "الذكاء الاصطناعي سيغير نظرة المواطنين والمنظمات والدول للمخاطر - سواء كان ذلك من خلال قيام المجرمين بتدريب الآلات على الاختراق أو "التصيد" على المستويات البشرية للأداء أو القضاء على الخصوصية والمراقبة - ستكون هناك آثار هائلة وواسعة النطاق على الأمن."

وأضاف: "في الغالب، لا تصل نظم الذكاء الاصطناعي إلى مستويات الأداء البشري فحسب، بل تفوقها كثيرا."

وأشار برونديج إلى أنه من المثير للقلق، ومن الضروري أيضا، النظر في الآثار المترتبة على القرصنة الخارقة، فضلا عن قدرات الذكاء الاصطناعي التي هي دون الإنسان، لكنها أكثر قابلية للتطور.

وقال سين أو هيجيرتيه، المدير التنفيذي لمركز دراسة المخاطر الوجودية وأحد المؤلفين المشاركين في التقرير: "الذكاء الاصطناعي غيّر قواعد اللعبة، وقد تخيل هذا التقرير ما يمكن أن يبدو عليه العالم في السنوات الخمس إلى العشر المقبلة."

وأضاف: "نحن نعيش في عالم يمكن أن يصبح محفوفا بالمخاطر اليومية بسبب سوء استخدام الذكاء الاصطناعي، ونحن بحاجة إلى مواجهة هذه المشاكل، لأنها تحمل مخاطر حقيقية."

وتابع: "هناك خيارات نحتاج إلى اتخاذها الآن، وتقريرنا هو دعوة للعمل لكل الحكومات والمؤسسات والأفراد في جميع أنحاء العالم.".




تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لن ينشر أي تعليق يتضمن اسماء اية شخصية او يتناول اثارة للنعرات الطائفية او العنصرية آملين التقيد بمستوى راقي بالتعليقات حيث انها تعبر عن مدى تقدم وثقافة زوار قناة دجلة الفضائية علما ان التعليقات تعبر عن راي اصحابها فقط.
الاسم :
البريد الالكتروني :
اظهار البريد الالكتروني
التعليق :
رمز التحقق :
تحديث الرمز
أكتب الرمز :

أخبار أخرى

اكثر الاخبار قراءة

من برامجنا