يحقق الباحثون الأنثروبريون اختراقًا كبيرًا في فهم كيفية تفكير نموذج الذكاء الاصطناعي

شارك الباحثون الأنثروبريون ورقتين جديدتين يوم الخميس ، حيث شاركوا المنهجية والنتائج حول كيفية تفكير نموذج الذكاء الاصطناعي (AI). طورت شركة الذكاء الاصطناعى ومقرها سان فرانسيسكو تقنيات لمراقبة عملية صنع القرار لنموذج لغة كبير (LLM) لفهم ما يحفز استجابة معينة وهيكل معين على الآخر. سلطت الشركة الضوء على أن هذا المجال المعين من نماذج الذكاء الاصطناعى يظل صندوقًا أسود ، حتى أن العلماء الذين يطورون النماذج لا يفهمون تمامًا كيف تقوم الذكاء الاصطناعي بتوصيلات مفاهيمية ومنطقية لإنشاء المخرجات.
يلقي الأبحاث الإنسانية الضوء على كيفية تفكير الذكاء الاصطناعي
في غرفة الأخبار بريد، نشرت الشركة تفاصيل من دراسة أجريت مؤخرًا حول “تتبع أفكار نموذج لغة كبير”. على الرغم من بناء chatbots ونماذج الذكاء الاصطناعى ، فإن العلماء والمطورين لا يتحكمون في الدائرة الكهربائية التي ينشئها النظام لإنتاج ناتج.
لحل هذا “المربع الأسود” ، نشر الباحثون الأنثروبريين ورقتين. ال أولاً يبحث في الآليات الداخلية التي يستخدمها كلود 3.5 هايكو باستخدام منهجية تتبع الدائرة ، والثاني ورق تدور حول التقنيات المستخدمة للكشف عن الرسوم البيانية الحسابية في نماذج اللغة.
بعض الأسئلة التي يهدف الباحثون إلى إيجاد إجابات لتشمل لغة “التفكير” لكلود ، وطريقة توليد النص ، ونمط التفكير. قال الإنسان ، “معرفة كيف أن نماذج مثل كلود تعتقد أنها ستتيح لنا فهم أفضل لقدراتهم ، وكذلك مساعدتنا في ضمان قيامهم بما نعتزمهم به.”
استنادًا إلى الأفكار المشتركة في الورقة ، كانت الإجابات على الأسئلة المذكورة أعلاه مفاجئة. اعتقد الباحثون أن كلود سيكون لديه تفضيل لغوية معينة تفكر فيه قبل أن تستجيب. ومع ذلك ، وجدوا أن AI chatbot يفكر في “الفضاء المفاهيمي الذي يتم مشاركته بين اللغات”. هذا يعني أن تفكيرها لا يتأثر بلغة معينة ، ويمكن أن يفهم ومعالجة المفاهيم في نوع من لغة الفكر العالمية.
بينما يتم تدريب كلود على كتابة كلمة واحدة في وقت واحد ، وجد الباحثون أن نموذج الذكاء الاصطناعى يخطط لاستجابته للعديد من الكلمات إلى الأمام ويمكنه ضبط ناتجه للوصول إلى تلك الوجهة. وجد الباحثون أدلة على هذا النمط أثناء دفع الذكاء الاصطناعي إلى كتابة قصيدة ولاحظوا أن كلود قرر أولاً الكلمات القافية ثم شكل بقية الخطوط لفهم هذه الكلمات.
وادعى البحث أيضًا أنه في بعض الأحيان ، يمكن لـ Claude أيضًا هندسة الحجج المنطقية العكسية للاتفاق على المستخدم بدلاً من اتباع الخطوات المنطقية. يحدث هذا “الهلوسة” المتعمدة عند طرح سؤال صعب للغاية. قالت الأنثروبور إن أدواتها يمكن أن تكون مفيدة للعلام فيما يتعلق بالآليات في نماذج الذكاء الاصطناعى ، حيث يمكنها تحديد متى يوفر chatbot سببًا مزيفًا في استجاباته.
أبرز الأنثروبور أن هناك قيودًا في هذه المنهجية. في هذه الدراسة ، تم إعطاء مطالبات عشرات الكلمات فقط ، وما زالت تستغرق بضع ساعات من الجهد البشري لتحديد الدوائر وفهمها. بالمقارنة مع قدرات LLMS ، استحوذ المسعى البحثي على جزء صغير فقط من إجمالي الحساب الذي يؤديه كلود. في المستقبل ، تخطط شركة الذكاء الاصطناعى لاستخدام نماذج الذكاء الاصطناعى لفهم البيانات.
اكتشاف المزيد من موقع لنكات مسلّم
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.