حذر خبراء في الذكاء الاصطناعي من أن التسارع في تطوير هذا الذكاء قد يؤدي إلى أخطار جسيمة تضاهي تهديد الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.
وقالت صحيفة “واشنطن بوست” إن قادة الذكاء الاصطناعي الثلاث، وأثناء شهادتهم في جلسة استماع بالكونغرس، حذروا من أن التسارع الكبير في تطوير الذكاء الاصطناعي قد يؤدي إلى أضرار جسيمة خلال السنوات القليلة المقبلة، تضاهي الإرهابيين الذين يستخدمون التكنولوجيا لصنع أسلحة بيولوجية.
ونقلت الصحيفة عن أستاذ الذكاء الاصطناعي في جامعة “مونتريال” والمعروف بأحد آباء علوم الذكاء الاصطناعي الحديثة، يوشوا بنغيو، قوله إن “الولايات المتحدة يجب أن تقود خطط التعاون الدولي لتقنين واستخدام الذكاء الاصطناعي وتنظيم استخدام التكنولوجيا النووية على مستوى العالم”.
وحذر الرئيس التنفيذي لشركة “أنثروبيك” الناشئة في مجال الذكاء الاصطناعي، داريو أمودي، من أن “الخوف من الذكاء الاصطناعي المتطور يكمن في إمكانية استخدامه لإنتاج فيروسات خطيرة وأسلحة بيولوجية أخرى في أقل من سنتين”.
ومن جانبه، قال أستاذ علوم الكمبيوتر بجامعة كاليفورنيا في بيركلي، ستيوارت راسل، إن “الذكاء الاصطناعي من الصعب فهمه والتحكم في طريقة عمله بشكل كامل مقارنة بالتقنيات التكنولوجية الأخرى”.
ووفقا للصحيفة، أظهرت جلسة الاستماع حجم المخاوف بشأن تجاوز الذكاء الاصطناعي للذكاء البشري والخروج عن نطاق السيطرة لإلحاق الضرر بالبشرية والذي قد أصبح واقعا وليس خيالا علميا.
لكن في الأشهر الستة الماضية، بدأ عدد من الباحثين البارزين في مجال الذكاء الاصطناعي، بما في ذلك بنغيو، بالتحرك لتحذير العالم من مخاوف المصاحبة له، وحث السياسيون على ضرورة الانتباه لهذه التهديدات باعتبارها أحد الأسباب التي تجعل الحكومات بحاجة إلى إصدار تشريعات.
يذكر أن جلسة الاستماع تعقد بعد أيام من قيام شركات الذكاء الاصطناعي بما في ذلك “أوبن إيه أي”، و”ألفابيت” التباعة لغوغل، و”ميتا” بالتزامات طوعية للبيت الأبيض، الأسبوع الماضي، لتنفيذ تدابير مثل وضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في جعل التكنولوجيا أكثر أمانا.