خلال العام الماضى، بات الرئيس التنفيذى لشركة “أوبن إيه آى OpenAI”، سام ألتمان، تجسيدا حيا لتناقض الذكاء الاصطناعى.
فبدعم من النشوة التى أعقبت إطلاق برنامج الدردشة “شات جى بى تى” الذى يعمل بالذكاء الاصطناعى قبل 12 شهرًا، أخذ رجل الأعمال البالغ من العمر 38 عامًا، علامته التجارية فى جولة عالمية للقاء رؤساء الدول وتعزيز إمكانات الذكاء الاصطناعى.
لكن فى الوقت نفسه، أطلق أيضًا تحذيرًا مفاده أن أنظمة الذكاء الاصطناعى المتقدمة مثل تلك التى تأمل “OpenAI” فى بنائها يومًا ما، قد تؤدى إلى انقراض الجنس البشرى.
وقد ترك هذا التفاوت الصارخ العديد من المتابعين يتساءلون عن سبب تسابق شركات مثل “أوبن إيه آى” لتكون أول من يبنى تكنولوجيا جديدة قد تكون مدمرة.
لقد ظهر ذلك أيضًا بشكل كامل الأسبوع الماضي، إذ تم طرد رئيس الشركة لأول مرة من وظيفته، ثم أعيد إلى منصبه بعد التهديد بالانشقاق الجماعى من قبل الموظفين.
ولم يشرح الأعضاء الأربعة فى مجلس إدارة شركة “OpenAI” الذين طردوا ألتمان، السبب المباشر، واكتفوا بالقول إنه لم يكن “صريحاً بشكل مستمر” فى تعاملاته معهم.
لكن التوترات كانت تتصاعد داخل الشركة لبعض الوقت، و اصطدم طموح ألتمان لتحويل “أوبن إيه آى” إلى القوة التقنية التالية فى “ٍسيليكون فالى” بالمهمة التأسيسية للشركة المتمثلة فى وضع السلامة فى المقام الأول.
أدت إعادة ألتمان إلى منصبه فى وقت متأخر من يوم الثلاثاء ، إلى إبعاد بعض التوتر عن الدراما – على الأقل فى الوقت الحالي.
وأدى التغيير الجذري فى مجلس الإدارة إلى جلب رؤساء أكثر خبرة، فى ظل جذب الرئيس السابق لتويتر، بريت تايلور ووزير الخزانة الأميركى السابق لارى سامرز.
ويجرى النظر فى التغييرات على طريقة إدارة الشركة، لكن لم يتم تسوية أى شيء.
وفى الوقت الحالي، مع تولى ألتمان المسؤولية مرة أخرى على الرغم من تجريده من مقعده فى مجلس الإدارة، فقد عاد العمل إلى طبيعته.
تم إطلاق “أوبن إيه آى” OpenAI كشركة أبحاث مكرسة لبناء ذكاء اصطناعى آمن لصالح البشرية جمعاء، لكن الدراما التى شهدتها الأيام الأخيرة تشير إلى أنها فشلت فى التعامل مع النجاح الضخم الذى نتج عن التقدم التقنى الذى حققته.
كما أنها سلطت الضوء على مسألة كيفية السيطرة على الذكاء الاصطناعي، هل كانت الأزمة ناجمة عن خلل داخلى فى إدارة الشركة، ما يعنى أنها لم يكن لها تأثير يذكر على آفاق المحاولات الأخرى لتحقيق التوازن بين سلامة الذكاء الاصطناعى والسعى لتحقيق الأرباح؟ أم أنها لمحة عن صدع أوسع فى الصناعة له آثار خطيرة على مستقبلها ومستقبلنا؟
عندما تأسست شركة “OpenAI”، أدرك مهندسوها “أن الدافع التجارى يمكن أن يؤدى إلى كارثة”، كما يقول ستيوارت راسل، أستاذ علوم الكمبيوتر فى جامعة كاليفورنيا، بيركلي، والذى كان من أوائل الذين حذروا من المخاطر الوجودية للذكاء الاصطناعي. . “لقد استسلموا الآن للدافع التجارى بأنفسهم”.
وسلطت الدراما الضوء على التوتر بين مجموعتين من المعتقدات التى برزت إلى الواجهة فى “سيليكون فالى” نتيجة تحول تكنولوجيا الذكاء الاصطناعى التوليدى، من مجرد بحث واعد إلى تكنولوجيا ساطعة.
والفريق الأول هو مجموع من الرأسماليين المتفائلين بالتكنولوجيا الذين تجذروا فى شمال كاليفورنيا، ويرون أن أى فكرة تدعمها رؤوس أموال كبيرة وطموحة بما يكفى قادرة على أن تسيطر على العالم، وأن تزيح الشركات الخاملة.
وباعتباره رئيسًا سابقًا لشركة “واى كومبيناتور Y Combinator”، وهى أبرز حاضنة للشركات الناشئة فى المنطقة، كان ألتمان على دراية بكيفية عمل هذه العملية.
أما الفريق الثانى، والأكثر تشاؤمًا، فيدعو إلى الحذر الذى عادة ما يكون أقل شيوعًا فى “سيليكون فالي”، وتميل لرؤية طويلة المدى بحيث تكون القرارات المتخذة اليوم غير مضرة للأجيال القادمة
والفكرة هى فرع من الإيثار الفعال، وهى الفلسفة التى صاغها فلاسفة جامعة أكسفورد ويليام ماكاسكيل وتوبى أورد، تقليل احتمالية وقوع كوارث وجودية من شأنها أن تمنع ولادة أجيال المستقبل، وأصبحت المخاطر التى يمثلها الذكاء الاصطناعى المارق مصدر قلق رئيسي.
انتقدت ورقة بحثية حديثة كان بين مؤلفيها هيلين تونر، مديرة الإستراتيجية فى مركز الأمن والتكنولوجيا الناشئة، فى “أوبن إيه آى” وأحد أعضاء مجلس الإدارة الذين طردوا ألتمان، ضمنيًا الرئيس التنفيذى لـ”أوبن إيه آي” لإطلاقه شات جى بى تى دون أى “اختبار سلامة تفصيلي” أولاً، ما أدى إلى نوع من “السباق إلى القاع”.
وكتبت تونر وزملاؤها المؤلفون، أن ظهور روبوت الدردشة دفع شركات أخرى، بما فى ذلك جوجل، إلى “تسريع أو التحايل على عمليات مراجعة السلامة الداخلية والأخلاقيات”.
وقد تراكمت مثل هذه المخاوف مع تقدم تكنولوجيا “OpenAI” وراقب العديد من الخبراء فى هذا المجال بقلق علامات تشير إلى أن الذكاء الآلى على المستوى البشرى، والمعروف باسم الذكاء العام الاصطناعي، قد يقترب.
ولكن إذا كان أعضاء مجلس إدارة شركة “أوبن إيه آي” يعتقدون أن لهم الكلمة الأخيرة فى كيفية استغلال مثل هذه التكنولوجيات، فيبدو أنهم كانوا مخطئين. فإقالة ألتمان المفاجئة صدمت عالم التكنولوجيا وأثارت تمردًا بين الموظفين، الذين هدد الكثير منهم بالاستقالة ما لم يعد.
وعملت شركة مايكروسوفت، التى التزمت الآن بمبلغ 13 مليار دولار للشركة، على إعادة ألتمان إلى منصبه – وهو مثال على التأثير الخارجى الذى صُممت ترتيبات حوكمة الشركة لمقاومته، وفى غضون أيام، رضخ مديرو الشركة.
ويقول أحد مستثمرى الذكاء الاصطناعي، الذى يعرف ألتمان جيدًا، إن رئيس شركة OpenAI يأخذ المخاطر المحتملة للتكنولوجيا على محمل الجد. لكنه مصمم أيضًا على تنفيذ مهمة شركته المتمثلة فى تطوير الذكاء العام الاصطناعي. يقول المستثمر: “يريد سام أن يكون أحد أعظم الأشخاص فى التاريخ وأن يعيد تشكيل العالم بطريقة تبعية”.
يضيف راسل، من جامعة كاليفورنيا فى بيركلي: “إن الشعور بالقوة والمصير الذى يأتى من تحويل المستقبل هو أمر يصعب مقاومته حقًا. إن المصلحة الخاصة ليست المال فقط.”
جان تالين، المؤسس المشارك لشركة سكايب وأحد أبرز مؤيدى الإيثار الفعال فى عالم التكنولوجيا، يدعم فكرة قيام شركات الذكاء الاصطناعى بالتوصل إلى “هياكل حوكمة مدروسة” بدلا من مجرد الاستجابة لقوى السوق.
لكنه يضيف: “من المؤسف أن أزمة حوكمة “OpenAI” تظهر أن مخططات الحوكمة ذات الدوافع الجيدة هذه أقل قوة مما يأمله المرء”.
وكانت قمة سلامة الذكاء الاصطناعى التى استضافتها الحكومة البريطانية هذا الشهر فى بلتشلى بارك هى المحاولة الأولى لعقد مناقشة سياسية عالمية حول المخاطر الوجودية للذكاء الاصطناعي.
الاجتماع – الذى حضره 28 دولة، بما فى ذلك الولايات المتحدة والصين، والعديد من كبار الباحثين فى مجال الذكاء الاصطناعى والمديرين التنفيذيين للتكنولوجيا فى العالم، مثل ألتمان – مهد الطريق للحوار حول هذه القضايا مع عقد قمتين أخريين فى كوريا الجنوبية و فرنسا خلال العام المقبل.
إن التوصل إلى اتفاق يقضى بضرورة أخذ المخاطر الوجودية التى يفرضها الذكاء الاصطناعى على محمل الجد ليس سوى خطوة أولى.
وتعمل كل من المملكة المتحدة والولايات المتحدة أيضًا على إنشاء معاهد دائمة لسلامة الذكاء الاصطناعى لتعميق خبرة القطاع العام فى هذا المجال واختبار نماذج شركات الذكاء الاصطناعى الكبرى.
الطريقة الوحيدة أمام العالم “لتجاوز المخاطر التى يشكلها الذكاء الاصطناعى القوي”، كما يقول تالين، هى “تكثيف الإجراءات التنظيمية، محليا ودوليا”.
لكن العديد من علماء الذكاء الاصطناعى الرائدين فى العالم يختلفون بشكل كبير فى تقييماتهم لقدرات الذكاء الاصطناعى الحالية وتطوره فى المستقبل، ما يجعل من الصعب على الهيئات التنظيمية أن تعرف ماذا تفعل.
كاتب المقال: ريتشارد ووترز، وجون ثورنهيل، محرران فى فاينانشيال تايمز