جيفري هينتون كان رائدًا في مجال الذكاء الاصطناعي. في عام 2012، قام الدكتور هينتون واثنان من طلابه في الدراسات العليا بجامعة تورنتو بتطوير تقنية أصبحت الأساس الفكري لأنظمة الذكاء الاصطناعي التي تعتبرها أكبر شركات التكنولوجيا مفتاحًا لمستقبلها.
لكن يوم الاثنين، انضم رسميًا إلى مجموعة متزايدة من المنتقدين الذين يقولون إن هذه الشركات تندفع نحو الخطر بحملتها القوية لإنشاء منتجات تعتمد على الذكاء الاصطناعي التوليدي، وهي التقنية التي تدعم روبوتات المحادثة الشهيرة مثل ChatGPT.
قال الدكتور هينتون إنه استقال من وظيفته في جوجل، حيث عمل لأكثر من عقد وأصبح أحد الأصوات الأكثر احترامًا في المجال، حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي. وأوضح أن جزءًا منه يندم الآن على عمل حياته.
وقال الدكتور هينتون خلال مقابلة طويلة الأسبوع الماضي في غرفة الطعام بمنزله في تورنتو، على بعد مسافة قصيرة من المكان الذي حقق فيه هو وطلابه إنجازهم: "أواسي نفسي بالعذر المعتاد: لو لم أفعل ذلك، لفعلها شخص آخر".
لكن يوم الاثنين، انضم رسميًا إلى مجموعة متزايدة من المنتقدين الذين يقولون إن هذه الشركات تندفع نحو الخطر بحملتها القوية لإنشاء منتجات تعتمد على الذكاء الاصطناعي التوليدي، وهي التقنية التي تدعم روبوتات المحادثة الشهيرة مثل ChatGPT.
قال الدكتور هينتون إنه استقال من وظيفته في جوجل، حيث عمل لأكثر من عقد وأصبح أحد الأصوات الأكثر احترامًا في المجال، حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي. وأوضح أن جزءًا منه يندم الآن على عمل حياته.
وقال الدكتور هينتون خلال مقابلة طويلة الأسبوع الماضي في غرفة الطعام بمنزله في تورنتو، على بعد مسافة قصيرة من المكان الذي حقق فيه هو وطلابه إنجازهم: "أواسي نفسي بالعذر المعتاد: لو لم أفعل ذلك، لفعلها شخص آخر".
رحلة الدكتور هينتون من كونه رائدًا في الذكاء الاصطناعي إلى أن يصبح من المتشائمين بشأنه تمثل لحظة استثنائية لصناعة التكنولوجيا، ربما عند أهم نقطة تحول لها منذ عقود. يعتقد قادة الصناعة أن أنظمة الذكاء الاصطناعي الجديدة يمكن أن تكون مهمة بقدر أهمية إدخال متصفح الويب في أوائل التسعينيات، وقد تؤدي إلى تطورات في مجالات تتراوح بين أبحاث الأدوية والتعليم.
لكن ما يقلق العديد من المطلعين في الصناعة هو الخوف من أنهم يطلقون شيئًا خطيرًا في العالم. يمكن أن يكون الذكاء الاصطناعي التوليدي بالفعل أداة لنشر المعلومات المضللة. قريبًا، قد يشكل خطرًا على الوظائف. وفي وقت لاحق، كما يقول أكبر المتخوفين من التكنولوجيا، قد يكون خطرًا على البشرية.
قال الدكتور هينتون: "من الصعب رؤية كيف يمكنك منع الفاعلين السيئين من استخدامه لأغراض سيئة".
بعد أن أطلقت شركة OpenAI الناشئة في سان فرانسيسكو نسخة جديدة من ChatGPT في مارس، وقع أكثر من 1000 من قادة التكنولوجيا والباحثين رسالة مفتوحة تدعو إلى وقف تطوير الأنظمة الجديدة لمدة ستة أشهر لأن تقنيات الذكاء الاصطناعي تشكل "مخاطر عميقة على المجتمع والبشرية".
بعد عدة أيام، أصدر 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي، وهي جمعية أكاديمية عمرها 40 عامًا، خطابهم الخاص محذرين من مخاطر الذكاء الاصطناعي. تضمنت هذه المجموعة إريك هورفيتز، كبير العلماء في مايكروسوفت، التي نشرت تقنية OpenAI عبر مجموعة واسعة من المنتجات، بما في ذلك محرك البحث Bing.
لم يوقع الدكتور هينتون، الذي يُطلق عليه غالبًا "عراب الذكاء الاصطناعي"، على أي من هذه الرسائل، وقال إنه لم يكن يريد توجيه انتقادات علنية إلى جوجل أو غيرها من الشركات حتى استقال من وظيفته. أخطر الشركة الشهر الماضي باستقالته، وتحدث يوم الخميس عبر الهاتف مع سوندار بيتشاي، الرئيس التنفيذي لشركة ألفابت، الشركة الأم لجوجل. لكنه رفض مناقشة تفاصيل محادثته مع بيتشاي علنًا.
قال جيف دين، كبير العلماء في جوجل، في بيان: "نظل ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نحن نتعلم باستمرار لفهم المخاطر الناشئة مع الاستمرار في الابتكار بجرأة".
الدكتور هينتون، البالغ من العمر 75 عامًا، هو أكاديمي بريطاني مغترب كرّس حياته المهنية لقناعاته الشخصية حول تطوير واستخدام الذكاء الاصطناعي. في عام 1972، كطالب دراسات عليا في جامعة إدنبرة، تبنى فكرة تُعرف باسم الشبكة العصبية. الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. في ذلك الوقت، كان القليل من الباحثين يؤمنون بهذه الفكرة. لكنها أصبحت محور عمله طوال حياته.
في الثمانينيات، كان الدكتور هينتون أستاذًا لعلوم الكمبيوتر في جامعة كارنيغي ميلون، لكنه غادر الجامعة إلى كندا لأنه قال إنه لم يكن يرغب في تلقي تمويل من البنتاغون. في ذلك الوقت، كانت معظم أبحاث الذكاء الاصطناعي في الولايات المتحدة ممولة من وزارة الدفاع. يعارض الدكتور هينتون بشدة استخدام الذكاء الاصطناعي في ساحة المعركة - وهو ما يسميه "الجنود الروبوتات".
في عام 2012، قام الدكتور هينتون واثنان من طلابه في تورنتو، إيليا سوتسكيفر وأليكس كريشيفسكي، ببناء شبكة عصبية يمكنها تحليل آلاف الصور وتعليم نفسها التعرف على الأشياء الشائعة، مثل الزهور والكلاب والسيارات.
أنفقت جوجل 44 مليون دولار للاستحواذ على شركة أسسها الدكتور هينتون وطلابه. وقد أدى نظامهم إلى تطوير تقنيات قوية بشكل متزايد، بما في ذلك روبوتات المحادثة الجديدة مثل ChatGPT وGoogle Bard. أصبح سوتسكيفر فيما بعد كبير العلماء في OpenAI. وفي عام 2018، حصل الدكتور هينتون واثنان من زملائه القدامى على جائزة تورينغ، التي تُعرف غالبًا باسم "جائزة نوبل في الحوسبة"، تقديرًا لعملهم على الشبكات العصبية.
في نفس الفترة تقريبًا، بدأت جوجل وOpenAI وشركات أخرى في بناء شبكات عصبية تتعلم من كميات هائلة من النصوص الرقمية. اعتقد الدكتور هينتون أن هذه كانت طريقة قوية لتمكين الآلات من فهم اللغة وإنتاجها، لكنها كانت أقل كفاءة من الطريقة التي يتعامل بها البشر مع اللغة.
ثم، في العام الماضي، عندما قامت جوجل وOpenAI ببناء أنظمة باستخدام كميات أكبر بكثير من البيانات، تغيّرت وجهة نظره. لا يزال يعتقد أن هذه الأنظمة أدنى من الدماغ البشري في بعض الجوانب، لكنه بدأ يعتقد أنها تتفوق على الذكاء البشري في جوانب أخرى. قال: "ربما ما يحدث داخل هذه الأنظمة في الواقع أفضل بكثير مما يحدث داخل الدماغ".
يعتقد أنه مع تحسين الشركات لأنظمة الذكاء الاصطناعي، فإنها تصبح أكثر خطورة. وأضاف: "انظر إلى أين كانت قبل خمس سنوات وأين هي الآن، ثم قس الفارق واستمر به إلى الأمام، هذا أمر مخيف".
حتى العام الماضي، قال إن جوجل تصرفت كـ "وصي مسؤول" عن التكنولوجيا، وكانت حريصة على عدم إطلاق شيء قد يتسبب في ضرر. لكن الآن، بعد أن قامت مايكروسوفت بتعزيز محرك البحث Bing بروبوت محادثة - وهو ما يشكل تحديًا لأعمال جوجل الأساسية - فإن جوجل تتسابق لنشر نفس النوع من التكنولوجيا. وأوضح الدكتور هينتون أن عمالقة التكنولوجيا محاصرون في سباق قد يكون من المستحيل إيقافه.
قلقه الفوري هو أن الإنترنت سيغمر بصور ومقاطع فيديو ونصوص مزيفة، مما يجعل الشخص العادي "غير قادر على معرفة ما هو صحيح بعد الآن".
كما يشعر بالقلق من أن تقنيات الذكاء الاصطناعي ستقلب سوق العمل رأسًا على عقب بمرور الوقت. في الوقت الحالي، تميل روبوتات المحادثة مثل ChatGPT إلى تكملة دور العمال البشريين، لكنها قد تحل محل المساعدين القانونيين، والمساعدين الشخصيين، والمترجمين، وغيرهم ممن يتعاملون مع المهام الروتينية. وقال: "إنها تزيل العمل الرتيب"، لكنه أضاف: "قد تأخذ أكثر من ذلك".
على المدى البعيد، يخشى أن تشكل النسخ المستقبلية من التكنولوجيا تهديدًا للبشرية، لأنها غالبًا ما تتعلم سلوكيات غير متوقعة من كميات هائلة من البيانات التي تحللها. ويصبح هذا مصدر قلق، كما أوضح، عندما يسمح الأفراد والشركات لأنظمة الذكاء الاصطناعي ليس فقط بإنشاء رموزها البرمجية الخاصة، ولكن أيضًا تشغيلها بنفسها. كما يخشى من اليوم الذي تصبح فيه الأسلحة المستقلة بالكامل - "الروبوتات القاتلة" - حقيقة واقعة.
قال: "كانت فكرة أن هذه التكنولوجيا يمكن أن تصبح أذكى من البشر أمرًا لم يصدقه سوى قلة قليلة من الناس"، مضيفًا: "لكن معظم الناس اعتقدوا أن ذلك كان بعيدًا جدًا. وأنا أيضًا اعتقدت أنه بعيد، ربما 30 إلى 50 سنة أو أكثر. من الواضح أنني لم أعد أعتقد ذلك".
يقول العديد من الخبراء الآخرين، بمن فيهم العديد من طلابه وزملائه، إن هذا التهديد لا يزال افتراضيًا. لكن الدكتور هينتون يعتقد أن السباق بين جوجل ومايكروسوفت وشركات أخرى سيتحول إلى سباق عالمي لا يمكن إيقافه دون نوع من التنظيم العالمي.
لكنه أشار إلى أن ذلك قد يكون مستحيلًا. فبعكس الأسلحة النووية، لا توجد وسيلة لمعرفة ما إذا كانت الشركات أو الدول تعمل على هذه التكنولوجيا في الخفاء. وقال إن الأمل الأفضل هو أن يتعاون كبار العلماء في العالم لإيجاد طرق للسيطرة على التكنولوجيا. وأضاف: "لا أعتقد أنه يجب توسيع نطاقها أكثر حتى يتمكنوا من معرفة ما إذا كان بإمكانهم السيطرة عليها".
وقال الدكتور هينتون إنه عندما كان الناس يسألونه سابقًا كيف يمكنه العمل على تكنولوجيا قد تكون خطيرة، كان يقتبس من روبرت أوبنهايمر، الذي قاد الجهود الأمريكية لصنع القنبلة الذرية: "عندما ترى شيئًا يبدو جميلًا من الناحية التقنية، فإنك تمضي قدمًا وتفعله".
هذا خبر قديم ولكن لأهميته ترجمته ونشرته.