يجلب قادة الذكاء الاصطناعي نقاش AGI على الأرض

يجلب قادة الذكاء الاصطناعي نقاش AGI على الأرض

خلال حفل عشاء حديث مع قادة الشركات في سان فرانسيسكو ، كان التعليق الذي جعلته باردًا فوق الغرفة. لم أسأل رفاقي مع الطعام الذي اعتبرته فو باس للغاية: لقد اعتقدوا ببساطة أن منظمة العفو الدولية اليوم يمكنها تحقيق الذكاء البشري ذات يوم (أي AGI).

إنه موضوع أكثر إثارة للجدل مما تعتقد.

في عام 2025 ، لا يوجد نقص في المديرين التنفيذيين للتكنولوجيا الذين يقدمون قضية ثور ، وكم نماذج اللغة الكبيرة (LLM) التي يمكن أن تصل الدردشة القوية مثل ChatGPT و Gemini إلى المستوى البشري أو حتى الذكاء البشري الفائق خلال الفترة المقبلة. يزعم هؤلاء المسؤولون التنفيذيون أن الذكاء الاصطناعى القادر للغاية ستجلب فوائد اجتماعية واسعة النطاق وموزعة على نطاق واسع.

على سبيل المثال ، كتب Dario Amodei ، الرئيس التنفيذي لشركة Anthropic ، في المقال أن الذكاء الاصطناعى القوي بشكل استثنائي يمكن أن يصل في عام 2026 ويكون “أكثر ذكاءً من الفائز بجائزة نوبل في أهم المجالات”. وفي الوقت نفسه ، قال الرئيس التنفيذي لشركة Openai Sam Altman مؤخرًا إن مجتمعه يعرف كيفية بناء “الذكاء العظمى” ، وتوقع أنه “يمكن أن يسرع على نطاق واسع الاكتشاف العلمي”.

ومع ذلك ، لا ينظر الجميع إلى هذه الادعاءات المتفائلة المقنعة.

يتشكك قادة الذكاء الاصطناعي الآخرين في أن LLMs اليوم يمكن أن يحقق AGI – أقل بكثير من الإلغاء – باستثناء بعض الابتكارات الجديدة. حافظ هؤلاء القادة تاريخياً على انخفاض منخفض ، لكنهم بدأوا في الحديث أكثر.

في عمل هذا الشهر ، توماس وولف ، وهو مؤسس مشترك وكبير المدير العلمي للوجه ، أطلق على بعض أجزاء من رؤية Amodei “في أفضل حالة من الرغبات المتدين”. يعتقد وولف ، الذي أبلغه أبحاثه من قبل الدكتوراه في الفيزياء الإحصائية والكمية ، أن الاختراقات على مستوى سعر نوبل لا تأتي من الإجابة على الأسئلة المألوفة-ما يقف عليه الذكاء الاصطناعى من خلال طرح الأسئلة التي لم يفكر أحد في طرحها.

في رأي الذئب ، لا يهتم LLMS اليوم بالمهمة.

وقال وولف في مقابلة: “أود أن أرى هذا” نموذج آينشتاين “في الخارج ، لكن علينا أن نغوص في تفاصيل كيفية الوصول إلى هناك”.

قال وولف إنه كتب هذه القطعة لأنه شعر أن هناك الكثير من الضجيج حول AGI ولم يكن هناك تقييم جاد للوصول إلى هناك. يعتقدون أن هناك احتمالًا حقيقيًا أن يحول الذكاء الاصطناعى العالم في المستقبل القريب ، ولكنه لا يحقق الذكاء أو الإلغاء الممتاز على المستوى البشري.

لقد أسر معظم عالم الذكاء الاصطناعي وعد AGI. أولئك الذين لا يعتقدون أن هذا غالبًا ما يتم تمييزه على أنه “مضاد للتكنولوجيا” أو مريرة ومضللة.

قد يكون البعض متشائمًا لهذا الرأي ، لكن وولف يعتقد أنه “متفائل مستنير” – شخص يريد دفع الذكاء الاصطناعي إلى الأمام دون أن يفقد الواقع. إنه بالتأكيد ليس زعيم الذكاء الاصطناعى الوحيد الذي لديه تنبؤات محافظة على التكنولوجيا.

استقال الرئيس التنفيذي لشركة Google DeepMind مع Hassabis ، وأخبر الموظفين ، في رأيه ، أن هذه الصناعة قد تصل إلى عشر سنوات بعد تطوير AGI – تفيد بأن هناك العديد من المهام التي لا يمكن أن تفعلها الذكاء الاصطناعي. كما أعرب Meta Ai Yann Lecun عن شكوكه حول إمكانات LLM. تحدث LeCun إلى Nvidia GTC يوم الثلاثاء وقال إن فكرة أن LLMS يمكن أن تصل إلى AGI كانت “هراء” ودعت بنيات جديدة بمثابة التربة للاستراحة.

كينيث ستانلي ، الباحث الرئيسي السابق Openai ، هو أحد الأشخاص الذين يحفرون بالتفصيل كيفية بناء الذكاء الاصطناعى المتقدم مع نماذج اليوم. وهو الآن مدير في Lila Sciences ، وهي شركة ناشئة جديدة تلقى رأس مال مخاطر قدره 200 مليون دولار لفتح الابتكار العلمي من خلال المختبرات الآلية.

يقضي ستانلي أيامه ويحاول استخراج الأفكار الإبداعية الأصلية من نماذج الذكاء الاصطناعى ، وهو الحقل الفرعي الذكاء يسمى Open-endness. الهدف من علوم Lila هو إنشاء نماذج منظمة العفو الدولية التي يمكن أن تؤدي إلى أتمتة العملية العلمية بأكملها ، بما في ذلك الخطوة الأولى الأولى – لتحقيق أسئلة وفرضيات جيدة حقًا من شأنها أن تؤدي في النهاية إلى اختراق.

“أتمنى أن أتمكن من الكتابة.” [Wolf’s] قال ستانلي في مقابلة مع TechCrunch: “إنه يعكس حقًا مشاعري”. [he] لقد لاحظت أن كونك على علم للغاية ومؤهل لا يؤدي بالضرورة إلى أفكار أصلية حقًا. “

يعتقد ستانلي أن الإبداع هو خطوة أساسية على طول الطريق إلى AGI ، ولكن يلاحظ أن بناء نموذج الذكاء الاصطناعي “الإبداعي” أسهل من القيام به.

يشير المتفائلون ، مثل Amodei ، إلى طرق مثل “التفكير” التي تستخدم المزيد من أداء الحوسبة للتحكم في عملهم والإجابة بشكل صحيح على بعض الأسئلة بشكل أكثر اتساقًا ، مثل الأدلة على أن AGI ليست بعيدة جدًا. ومع ذلك ، فإنه يأتي مع الأفكار الأصلية والأسئلة قد تتطلب نوعًا مختلفًا من الذكاء ، كما يقول ستانلي.

“إذا فكرت في الأمر ، فإن التبرير هو عكس ذلك تقريبًا.” [creativity]وأضاف.

لتصميم نماذج الذكاء الاصطناعى الذكي حقًا ، يقترح ستانلي أنه يجب علينا أن نكرر الخوارزميات ذوق الشخص الشخصي لأفكار جديدة. تعمل نماذج الذكاء الاصطناعى اليوم بشكل جيد في المجالات الأكاديمية مع إجابات واضحة مثل الرياضيات والبرمجة. ومع ذلك ، يشير ستانلي إلى أنه من الصعب للغاية تصميم نموذج الذكاء الاصطناعى للمهام الأكثر ذاتية التي تتطلب إبداعًا لا يحتوي بالضرورة على إجابة “صحيحة”.

“يتجنب الناس [subjectivity] في العلم – الكلمة شبه سامة “، قال ستانلي. [algorithmically]. إنه مجرد جزء من البيانات الحالية. “

يقول ستانلي إنه سعيد لأن حقل الانفتاح يحظى الآن بمزيد من الاهتمام ، حيث تعمل مختبرات الأبحاث المخلصين في العلوم ليلى وجوجل ديبميند وبدء بدء منظمة العفو الدولية ساكانا على المشكلة. يقول إنه يبدأ في رؤية المزيد من الناس يتحدثون عن الإبداع في الذكاء الاصطناعي – لكنهم يعتقدون أنك بحاجة إلى القيام بمزيد من العمل.

ربما يوافق الذئب وليكون. اتصل بهم الواقعيين من الذكاء الاصطناعي إذا كنت تريد: قادة الذكاء الاصطناعى يقتربون من Agi و Superintligence مع أسئلة خطيرة وترتكز حول جدواه. هدفهم ليس تقدم بوو في الحقل. بدلاً من ذلك ، إنها بداية للمحادثة مع صورة كبيرة لما يقف اليوم بين نماذج الذكاء الاصطناعى و AGI-A الفائقة الكتب ، وتلاحظ هذه الحاصرات.

المراجع المصدرية

You might also like