Announcement Title

Your first announcement to every user on the forum.

Admin

مدير شركة انكور التطويرية
طاقم الإدارة
ادارة انكور
جيفري هينتون كان رائدًا في مجال الذكاء الاصطناعي. في عام 2012، قام الدكتور هينتون واثنان من طلابه في الدراسات العليا بجامعة تورنتو بتطوير تقنية أصبحت الأساس الفكري لأنظمة الذكاء الاصطناعي التي تعتبرها أكبر شركات التكنولوجيا مفتاحًا لمستقبلها.

لكن يوم الاثنين، انضم رسميًا إلى مجموعة متزايدة من المنتقدين الذين يقولون إن هذه الشركات تندفع نحو الخطر بحملتها القوية لإنشاء منتجات تعتمد على الذكاء الاصطناعي التوليدي، وهي التقنية التي تدعم روبوتات المحادثة الشهيرة مثل ChatGPT.

قال الدكتور هينتون إنه استقال من وظيفته في جوجل، حيث عمل لأكثر من عقد وأصبح أحد الأصوات الأكثر احترامًا في المجال، حتى يتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي. وأوضح أن جزءًا منه يندم الآن على عمل حياته.

وقال الدكتور هينتون خلال مقابلة طويلة الأسبوع الماضي في غرفة الطعام بمنزله في تورنتو، على بعد مسافة قصيرة من المكان الذي حقق فيه هو وطلابه إنجازهم: "أواسي نفسي بالعذر المعتاد: لو لم أفعل ذلك، لفعلها شخص آخر".
جيفري هينتون

رحلة الدكتور هينتون من كونه رائدًا في الذكاء الاصطناعي إلى أن يصبح من المتشائمين بشأنه تمثل لحظة استثنائية لصناعة التكنولوجيا، ربما عند أهم نقطة تحول لها منذ عقود. يعتقد قادة الصناعة أن أنظمة الذكاء الاصطناعي الجديدة يمكن أن تكون مهمة بقدر أهمية إدخال متصفح الويب في أوائل التسعينيات، وقد تؤدي إلى تطورات في مجالات تتراوح بين أبحاث الأدوية والتعليم.

لكن ما يقلق العديد من المطلعين في الصناعة هو الخوف من أنهم يطلقون شيئًا خطيرًا في العالم. يمكن أن يكون الذكاء الاصطناعي التوليدي بالفعل أداة لنشر المعلومات المضللة. قريبًا، قد يشكل خطرًا على الوظائف. وفي وقت لاحق، كما يقول أكبر المتخوفين من التكنولوجيا، قد يكون خطرًا على البشرية.

قال الدكتور هينتون: "من الصعب رؤية كيف يمكنك منع الفاعلين السيئين من استخدامه لأغراض سيئة".

بعد أن أطلقت شركة OpenAI الناشئة في سان فرانسيسكو نسخة جديدة من ChatGPT في مارس، وقع أكثر من 1000 من قادة التكنولوجيا والباحثين رسالة مفتوحة تدعو إلى وقف تطوير الأنظمة الجديدة لمدة ستة أشهر لأن تقنيات الذكاء الاصطناعي تشكل "مخاطر عميقة على المجتمع والبشرية".

بعد عدة أيام، أصدر 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الاصطناعي، وهي جمعية أكاديمية عمرها 40 عامًا، خطابهم الخاص محذرين من مخاطر الذكاء الاصطناعي. تضمنت هذه المجموعة إريك هورفيتز، كبير العلماء في مايكروسوفت، التي نشرت تقنية OpenAI عبر مجموعة واسعة من المنتجات، بما في ذلك محرك البحث Bing.

لم يوقع الدكتور هينتون، الذي يُطلق عليه غالبًا "عراب الذكاء الاصطناعي"، على أي من هذه الرسائل، وقال إنه لم يكن يريد توجيه انتقادات علنية إلى جوجل أو غيرها من الشركات حتى استقال من وظيفته. أخطر الشركة الشهر الماضي باستقالته، وتحدث يوم الخميس عبر الهاتف مع سوندار بيتشاي، الرئيس التنفيذي لشركة ألفابت، الشركة الأم لجوجل. لكنه رفض مناقشة تفاصيل محادثته مع بيتشاي علنًا.

قال جيف دين، كبير العلماء في جوجل، في بيان: "نظل ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نحن نتعلم باستمرار لفهم المخاطر الناشئة مع الاستمرار في الابتكار بجرأة".

الدكتور هينتون، البالغ من العمر 75 عامًا، هو أكاديمي بريطاني مغترب كرّس حياته المهنية لقناعاته الشخصية حول تطوير واستخدام الذكاء الاصطناعي. في عام 1972، كطالب دراسات عليا في جامعة إدنبرة، تبنى فكرة تُعرف باسم الشبكة العصبية. الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. في ذلك الوقت، كان القليل من الباحثين يؤمنون بهذه الفكرة. لكنها أصبحت محور عمله طوال حياته.

في الثمانينيات، كان الدكتور هينتون أستاذًا لعلوم الكمبيوتر في جامعة كارنيغي ميلون، لكنه غادر الجامعة إلى كندا لأنه قال إنه لم يكن يرغب في تلقي تمويل من البنتاغون. في ذلك الوقت، كانت معظم أبحاث الذكاء الاصطناعي في الولايات المتحدة ممولة من وزارة الدفاع. يعارض الدكتور هينتون بشدة استخدام الذكاء الاصطناعي في ساحة المعركة - وهو ما يسميه "الجنود الروبوتات".

في عام 2012، قام الدكتور هينتون واثنان من طلابه في تورنتو، إيليا سوتسكيفر وأليكس كريشيفسكي، ببناء شبكة عصبية يمكنها تحليل آلاف الصور وتعليم نفسها التعرف على الأشياء الشائعة، مثل الزهور والكلاب والسيارات.

أنفقت جوجل 44 مليون دولار للاستحواذ على شركة أسسها الدكتور هينتون وطلابه. وقد أدى نظامهم إلى تطوير تقنيات قوية بشكل متزايد، بما في ذلك روبوتات المحادثة الجديدة مثل ChatGPT وGoogle Bard. أصبح سوتسكيفر فيما بعد كبير العلماء في OpenAI. وفي عام 2018، حصل الدكتور هينتون واثنان من زملائه القدامى على جائزة تورينغ، التي تُعرف غالبًا باسم "جائزة نوبل في الحوسبة"، تقديرًا لعملهم على الشبكات العصبية.

في نفس الفترة تقريبًا، بدأت جوجل وOpenAI وشركات أخرى في بناء شبكات عصبية تتعلم من كميات هائلة من النصوص الرقمية. اعتقد الدكتور هينتون أن هذه كانت طريقة قوية لتمكين الآلات من فهم اللغة وإنتاجها، لكنها كانت أقل كفاءة من الطريقة التي يتعامل بها البشر مع اللغة.

ثم، في العام الماضي، عندما قامت جوجل وOpenAI ببناء أنظمة باستخدام كميات أكبر بكثير من البيانات، تغيّرت وجهة نظره. لا يزال يعتقد أن هذه الأنظمة أدنى من الدماغ البشري في بعض الجوانب، لكنه بدأ يعتقد أنها تتفوق على الذكاء البشري في جوانب أخرى. قال: "ربما ما يحدث داخل هذه الأنظمة في الواقع أفضل بكثير مما يحدث داخل الدماغ".

يعتقد أنه مع تحسين الشركات لأنظمة الذكاء الاصطناعي، فإنها تصبح أكثر خطورة. وأضاف: "انظر إلى أين كانت قبل خمس سنوات وأين هي الآن، ثم قس الفارق واستمر به إلى الأمام، هذا أمر مخيف".

حتى العام الماضي، قال إن جوجل تصرفت كـ "وصي مسؤول" عن التكنولوجيا، وكانت حريصة على عدم إطلاق شيء قد يتسبب في ضرر. لكن الآن، بعد أن قامت مايكروسوفت بتعزيز محرك البحث Bing بروبوت محادثة - وهو ما يشكل تحديًا لأعمال جوجل الأساسية - فإن جوجل تتسابق لنشر نفس النوع من التكنولوجيا. وأوضح الدكتور هينتون أن عمالقة التكنولوجيا محاصرون في سباق قد يكون من المستحيل إيقافه.

قلقه الفوري هو أن الإنترنت سيغمر بصور ومقاطع فيديو ونصوص مزيفة، مما يجعل الشخص العادي "غير قادر على معرفة ما هو صحيح بعد الآن".

كما يشعر بالقلق من أن تقنيات الذكاء الاصطناعي ستقلب سوق العمل رأسًا على عقب بمرور الوقت. في الوقت الحالي، تميل روبوتات المحادثة مثل ChatGPT إلى تكملة دور العمال البشريين، لكنها قد تحل محل المساعدين القانونيين، والمساعدين الشخصيين، والمترجمين، وغيرهم ممن يتعاملون مع المهام الروتينية. وقال: "إنها تزيل العمل الرتيب"، لكنه أضاف: "قد تأخذ أكثر من ذلك".

على المدى البعيد، يخشى أن تشكل النسخ المستقبلية من التكنولوجيا تهديدًا للبشرية، لأنها غالبًا ما تتعلم سلوكيات غير متوقعة من كميات هائلة من البيانات التي تحللها. ويصبح هذا مصدر قلق، كما أوضح، عندما يسمح الأفراد والشركات لأنظمة الذكاء الاصطناعي ليس فقط بإنشاء رموزها البرمجية الخاصة، ولكن أيضًا تشغيلها بنفسها. كما يخشى من اليوم الذي تصبح فيه الأسلحة المستقلة بالكامل - "الروبوتات القاتلة" - حقيقة واقعة.

قال: "كانت فكرة أن هذه التكنولوجيا يمكن أن تصبح أذكى من البشر أمرًا لم يصدقه سوى قلة قليلة من الناس"، مضيفًا: "لكن معظم الناس اعتقدوا أن ذلك كان بعيدًا جدًا. وأنا أيضًا اعتقدت أنه بعيد، ربما 30 إلى 50 سنة أو أكثر. من الواضح أنني لم أعد أعتقد ذلك".

يقول العديد من الخبراء الآخرين، بمن فيهم العديد من طلابه وزملائه، إن هذا التهديد لا يزال افتراضيًا. لكن الدكتور هينتون يعتقد أن السباق بين جوجل ومايكروسوفت وشركات أخرى سيتحول إلى سباق عالمي لا يمكن إيقافه دون نوع من التنظيم العالمي.

لكنه أشار إلى أن ذلك قد يكون مستحيلًا. فبعكس الأسلحة النووية، لا توجد وسيلة لمعرفة ما إذا كانت الشركات أو الدول تعمل على هذه التكنولوجيا في الخفاء. وقال إن الأمل الأفضل هو أن يتعاون كبار العلماء في العالم لإيجاد طرق للسيطرة على التكنولوجيا. وأضاف: "لا أعتقد أنه يجب توسيع نطاقها أكثر حتى يتمكنوا من معرفة ما إذا كان بإمكانهم السيطرة عليها".

وقال الدكتور هينتون إنه عندما كان الناس يسألونه سابقًا كيف يمكنه العمل على تكنولوجيا قد تكون خطيرة، كان يقتبس من روبرت أوبنهايمر، الذي قاد الجهود الأمريكية لصنع القنبلة الذرية: "عندما ترى شيئًا يبدو جميلًا من الناحية التقنية، فإنك تمضي قدمًا وتفعله".

هذا خبر قديم ولكن لأهميته ترجمته ونشرته.​
 
بسم الله الرحمن الرحيم
السلام عليكم و رحمة الله و بركاته
مرحباً,
المشكلة لا تكمن في الذكاء الاصطناعي نفسه، بل في كيفية استخدامه من قبل الأفراد و الهيئات.
كنا نعتقد أن الإنترنت و المنتديات تمثل ثورة في نشر المعرفة و التواصل، لكن مع مرور الوقت، ظهرت تحديات مثل التضليل الإعلامي، و انتهاك الخصوصية، و السيطرة على تدفق المعلومات. اليوم، يبدو أن السيناريو نفسه يتكرر مع الذكاء الاصطناعي، لكن على نطاق أخطر، إذ يمتلك القدرة على التعلم و التطور بطرق غير متوقعة.
لا شك أن له فوائد عظيمة، مثل تحسين مجالات الطب و التعليم و التكنولوجيا، لكن في الوقت ذاته قد يؤدي إلى فقدان العديد من الوظائف (إجباري تماماً مثل الثورة الصناعية، و يخلق وظائف أخرى)، و التحكم في المعلومات، خصوصاً في مجالات السياسة و الاقتصاد و الحروب. المشكلة ليست في إيقاف التطور، بل في وضع ضوابط و رقابة فعالة (و هو ما يستحيل فعله من وجهة نظري المتواضعة).

السؤال الأهم: هل تمتلك الحكومات، لا سيما في الدول العربية، القدرة و الوعي الكافي لتنظيم استخدام الذكاء الاصطناعي؟ أم أننا سنظل مجرد مستخدمين لهذه الأنظمة، في حين تُدار من جهات خارجية تتحكم في مصيرنا؟

مع التحية؛​
 
  • Like
التفاعلات: Admin
السؤال الأهم: هل تمتلك الحكومات، لا سيما في الدول العربية، القدرة و الوعي الكافي لتنظيم استخدام الذكاء الاصطناعي؟ أم أننا سنظل مجرد مستخدمين لهذه الأنظمة، في حين تُدار من جهات خارجية تتحكم في مصيرنا؟

السعودية الآن تتجه لتكون رائدة في مجال التكنولوجيا ولكن بصناعات غربية
ولكن برأيك كيف تكون القدرة على تنظيم استخدام الذكاء الاصطناعي؟ ما هي الادوات لدى الحكومات وخاصة العربية؟
 
أتفق معك. "سدايا" السعودية، و "فنار" القطرية، و غيرها هي محاولة للحاق بركب هذه الثورة.
لكن في ظني، بعد فتح الكود عن طريق "Deep Seek"، سيكون من الوضع أسهل نسبياً سواء للحكومات أو الهيئات الخاصة لمواكبة المستحدث في هذا المجال.

برأيك كيف تكون القدرة على تنظيم استخدام الذكاء الاصطناعي؟ ما هي الادوات لدى الحكومات وخاصة العربية؟
أظن أنه لن يكون هناك آليات واضحة أو ذات كفاءة. و سيكون الأمر أشبه بمحاولات الحكومات السيطرة على البحث النووي حول العالم، أو الحد من انتشار التدخين ، أو التلوث.. إلخ
كلها آليات لم تقدم نجاح مقبول.
 
  • Like
التفاعلات: Admin
لكن في ظني، بعد فتح الكود عن طريق "Deep Seek"، سيكون من الوضع أسهل نسبياً سواء للحكومات أو الهيئات الخاصة لمواكبة المستحدث في هذا المجال.
فتح الكود لا يعني الانتاجية وانما التعديل و Deep Seek ليس الوحيد مفتوح المصدر من قبله وُجد مثل ollama

وبسبب العولمة اليوم لا يمكن لأحد ان يتحكم بتدفق المعرفة. لذلك نرى كل شيء شرعي وغير شرعي موجود بكل مكان فالعالم اليوم اصبح مترابط بشكل كبير ولا يمكن فك هذا الارتباط او التحكم به بسهولة
ولكن فعليًا هناك استخدامات للذكاء الاصطناعي موجودة في الحقول العسكرية والامنية منذ زمن ولم يتم تسريبها للاستخدام العام اذ تعد استخدامات تضر بالامن القومي، فالدول القوية لديها القدرة على تحييد هكذا امور حتى يتم اكتشافها عند الدول الاخرى.
 
فتح الكود لا يعني الانتاجية وانما التعديل و Deep Seek ليس الوحيد مفتوح المصدر من قبله وُجد مثل ollama
نعم، بكل تأكيد. لكنه أعطى البرهان على إمكانية التطوير بعيداً عن المساعدات الغربية، بل و عند وجود تحجيم مقصود.

وبسبب العولمة اليوم لا يمكن لأحد ان يتحكم بتدفق المعرفة. لذلك نرى كل شيء شرعي وغير شرعي موجود بكل مكان فالعالم اليوم اصبح مترابط بشكل كبير ولا يمكن فك هذا الارتباط او التحكم به بسهولة
ولكن فعليًا هناك استخدامات للذكاء الاصطناعي موجودة في الحقول العسكرية والامنية منذ زمن ولم يتم تسريبها للاستخدام العام اذ تعد استخدامات تضر بالامن القومي، فالدول القوية لديها القدرة على تحييد هكذا امور حتى يتم اكتشافها عند الدول الاخرى.
أتفق معك تماماً. ففي 2017 تابعت باهتمام منتج جوجل الخارق (Apha Zero). و الذي ظننت أنه سيكون ثورة الذكاء الاصطناعي. لكنهم أحجموا عن الاستمرار في نشره، و قاموا بإتاحته للمجال العسكري و العلمي فقط.

بمناسبة ذكر لعبة الشطرنج، قام لاعب الشطرنج الشهير (جاري كاسباروف) بتقديم محاضرة ملهمة عن الذكاء الاصطناعي منذ ما يقرب من عشر سنوات. و قد كان أول من ينافس الحاسوب (Deep Blue) وقتها. ملخص المحاضرة هو أن الذكاء الاصطناعي لن يمكن تحييده أو إيقافه. و أفضل حل هو مواكبته و تطويره قبل أن تقوم قوى الشر في العالم بذلك لصالحها.

رأيك يهمني.
 
  • Like
التفاعلات: Admin
اللقاء مسجل على يوتيوب.
ملحوظة: أخطأت في التاريخ، فهو ليس منذ عشر سنوات بل هو أقرب من ذلك. لكن بدا لي أنه منذ زمن بعيد مع الأحداث الكثيرة 😅
 
  • Like
التفاعلات: Admin
و هذه هي الورقة العلمية التي تم نشرها في ذلك الوقت (في مجلة Nature المرموقة).

كود:
Silver, D., Schrittwieser, J., Simonyan, K. et al. Mastering the game of Go without human knowledge.
Nature 550, 354–359 (2017). https://doi.org/10.1038/nature24270

يمكن تحميل النسخة الأصلية من المرفقات.
 

المرفقات

  • Like
التفاعلات: Admin
شكرا جزيلًا اخي سأطّلع على الموضوع باهتمام واحاول نشر موضوع عنه
 

ما هو انكور؟

هو منتدى عربي تطويري يرتكز على محتويات عديدة لاثراء الانترنت العربي، وتقديم الفائدة لرواد الانترنت بكل ما يحتاجوه لمواقعهم ومنتدياتهم واعمالهم المهنية والدراسية. ستجد لدينا كل ما هو حصري وكل ما هو مفيد ويساعدك على ان تصل الى وجهتك، مجانًا.
عودة
أعلى