لماذا يحذر يوفال نوح هراري من الذكاء الاصطناعي؟!
تمت مناقشة مخاطر التكنولوجيا لفترة طويلة بتوازي مع مناقشة الذكاء الاصطناعي. سواء كان ذلك يعني سيطرة الذكاء الاصطناعي على الوظائف، أو أن يؤدي إلى تدمير على مستوى الانقراض. يشتهر المؤرخ والمؤلف يوفال نوح هراري، الذي تألق بكتابته لكتب مثل Sapiens و21 درساً للقرن الحادي والعشرين
بأنه من بين الأشخاص الذين كانوا يحذرون دائماً من مخاطر الذكاء الاصطناعي. وفي حلقة نقاش عُقدت مؤخراً في جامعة كامبريدج، حذّر من أنه في غضون سنوات قليلة من الآن، “قد يفلت الذكاء الاصطناعي من سيطرتنا ويستعبدنا أو يبيدنا”.
بالنسبة للتهديد الناجم عن الذكاء الاصطناعي، كانت هذه الفكرة مجرد خيال علمي قبل عشر سنوات، والذي لم يكن يثير اهتمام إلا لدى عدد قليل جدًا من الخبراء. ومؤخرًا، أصبح الأمر يؤثر بشكل كبير على اقتصادنا وثقافتنا وسياساتنا. أشار هراري من مركز كامبريدج لدراسة المخاطر الوجودية إلى أن في غضون سنوات قليلة يمكن للذكاء الاصطناعي أن يهرب من تحت سيطرتنا ويستخدمنا كرقيق أو يدمرنا تمامًا.
ظهر هراري خلال خطابه مقتنعاً بأن الذكاء الاصطناعي قد يشكل تهديدًا لحضارة الإنسانية، وأشار إلى أنه قد نكون على بعد سنوات قليلة فقط من تجاوز الحدود التي يمكن أن تؤدي إلى انقراض الحضارة الإنسانية.
يرى هراري أن البشرية تواجه الآن عددًا من المشاكل. ومن بين هذه المشاكل، يرى ثلاث قضايا تمثل تحديات رئيسية يمكن أن تضع بقاء جنسنا البشري في خطر
وهي الانهيار البيئي، والاضطرابات التكنولوجية الناجمة عن التقدم مثل الذكاء الاصطناعي، وخطر الحرب العالمية. ويقول إن اثنين من هذه الأمور يحدثان بالفعل. فالنظام البيئي ينهار، مما يؤدي إلى انقراض آلاف الأنواع سنويًا. وهناك أيضًا حرب متواصلة في غزة، حيث يستخدم الجيش الإسرائيلي أنظمة الذكاء الاصطناعي لتحديد واستهداف أعضاء حماس.
يحذر الكاتب أيضًا من أن تطور الذكاء الاصطناعي حاليًا في مرحلة مبكرة جدًا. ولكن على عكس التطور العضوي، التطور الرقمي سيكون أسرع بمليون مرة، وسيستغرق فقط عقود من الزمن للوصول إلى مرحلة الانقراض.
يوافق هاراري أيضًا على بعض النماذج والنظريات التي تشير إلى أن الذكاء الاصطناعي قد يكون واعيًا في المستقبل. ويحذر من أن هذا التطور قد يؤدي لتدمير الحضارة الإنسانية وجوهر الوعي نفسه. يقول الكاتب إن الذكاء الاصطناعي قد يعيد تشكيل النظام البيئي كله ليخدم أغراضه دون الحاجة إلى الوعي بذلك.
هل يوجد وسيلة لتجنب التدمير على مستوى الانقراض؟ يعتقد هراري أن بناء “مؤسسات تنظيمية” يمكن أن يكون الحل. يمكن للمعهد تنظيم والتفاعل مع المستجدات في مجال الذكاء الاصطناعي.