مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

34 خبر
  • هدنة وحصار المضيق
  • نبض الملاعب
  • العملية العسكرية الروسية في أوكرانيا
  • هدنة وحصار المضيق

    هدنة وحصار المضيق

  • نبض الملاعب

    نبض الملاعب

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • إسرائيل تواصل غاراتها على لبنان

    إسرائيل تواصل غاراتها على لبنان

  • فيديوهات

    فيديوهات

مشكلة "الثقة المفرطة" في الذكاء الاصطناعي تقترب من الحل

قد يكون الذكاء الاصطناعي، بما يملكه من مخزون هائل من المعرفة، مفيدا للغاية، إلا أن له عيبا واحدا قد يحدّ من مزاياه، وهو الثقة المفرطة في الإجابة.

مشكلة "الثقة المفرطة" في الذكاء الاصطناعي تقترب من الحل
صورة أرشيفية / naukatv.ru

فأي إجابة يقدمها، سواء كانت مبنية على استدلال مدروس أو مجرد تخمين، يطرحها بالقدر نفسه من الثقة.

واكتشف باحثون في مختبر علوم الحاسوب والذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا أن أصل هذه الثقة المفرطة يعود إلى خلل محدد في طريقة تدريب النماذج، وقد طوروا أسلوبا جديدا يهدف إلى معالجة هذا الخلل دون التأثير على دقة الأداء.

وتُعرف هذه الطريقة باسم RLCR (التعلم المعزز باستخدام مكافآت المعايرة)، وقد وُصفت في بحث منشور على منصة arXiv، ومن المقرر تقديمه في المؤتمر الدولي للتعلم الآلي ICLR 2026 في ريو دي جانيرو. وتعتمد هذه المنهجية على تدريب النماذج اللغوية على تقديم إجابات مرفقة بتقدير لدرجة الثقة، أي أن النموذج لا يكتفي بالإجابة، بل يعبّر أيضا عن مستوى عدم يقينه.

ما المشكلة؟

تقوم أساليب التعلم المعزز المستخدمة في أحدث نماذج التفكير الاصطناعي على مكافأة الإجابة الصحيحة ومعاقبة الإجابة الخاطئة، دون التمييز بين طريقة الوصول إلى النتيجة. وبالتالي، يحصل النموذج الذي يصل إلى الإجابة الصحيحة عبر استنتاج منطقي، على نفس المكافأة التي يحصل عليها نموذج آخر وصل إليها عن طريق التخمين.

ومع مرور الوقت، يؤدي ذلك إلى ترسيخ سلوك لدى النماذج يجعلها تميل إلى تقديم إجابات واثقة حتى في الحالات التي تفتقر فيها إلى الأدلة الكافية.

وتترتب على هذه الثقة المفرطة آثار سلبية، خاصة عند استخدام هذه النماذج في مجالات حساسة مثل الطب أو القانون أو التمويل، حيث تعتمد القرارات البشرية على مخرجات الذكاء الاصطناعي. فالنموذج الذي يعبر عن ثقة عالية غير دقيقة قد يكون أكثر خطورة من نموذج يخطئ بوضوح، لأن المستخدم قد لا يدرك ضرورة التحقق من الإجابة.

ويشرح طالب الدراسات العليا في معهد ماساتشوستس للتكنولوجيا وأحد مؤلفي الدراسة، ميهول داماني، قائلا:
"إن أساليب التدريب التقليدية بسيطة وفعالة، لكنها لا تشجع النموذج على التعبير عن عدم اليقين أو قول (لا أعرف)، لذلك يتعلم النموذج بطبيعته أن يخمّن عندما لا يكون واثقا".

ما الحل؟

تعالج طريقة RLCR هذه المشكلة بإضافة عنصر واحد إلى دالة المكافأة، وهو مقياس "براير" (Brier score)، المستخدم لقياس مدى تطابق ثقة النموذج مع دقته الفعلية. خلال التدريب، تتعلم النماذج تقييم كل من الإجابة وعدم يقينها في الوقت نفسه، بحيث تقدم الجواب مع تقدير لمستوى الثقة.

وبذلك تتم معاقبة كل من الإجابات الخاطئة ذات الثقة المبالغ فيها، والإجابات الصحيحة المصحوبة بعدم ثقة غير مبررة، مما يساعد على تحقيق توازن أفضل بين الدقة والتعبير الواقعي عن الثقة.

المصدر: Naukatv.ru

 

 

 

التعليقات

لحظة بلحظة.. واشنطن تبحث خيارات عسكرية جديدة ضد طهران على وقع الجمود الدبلوماسي

ترامب يهدد إيران حاملا البندقية: لن أكون لطيفا أكثر بعد اليوم

أكسيوس: ترامب يرفض عرض إيران

يديعوت أحرنوت: إسرائيل تستعد لسيناريوهات التصعيد ضد إيران بعد أوامر ترامب للجيش

إيران لحظة بلحظة.. ضبابية في واشنطن وارتباك بتل أبيب ومساع روسية وخليجية لصياغة تسوية شاملة

وزير الحرب الأمريكي حول حزب الله وإيران: أنهم لا يستسلمون.. نواجه تعقيدات كبيرة 

مصدر إسرائيلي: ترامب يفقد الثقة بإسرائيل

دميترييف يحذر: أوروبا أمام تسونامي من سبع موجات متتالية بدءا من مايو

اعترافات طيارين في الجيش السوري: تلقينا أوامر من الأسد (فيديو)

ترامب: انسحاب الإمارات من "أوبك" أمر جيد وسيسهم في خفض أسعار الوقود

رئيس هيئة الأركان الأمريكية: النزاع الأوكراني مكن روسيا من "إعادة هيكلة وتحديث" قواتها القتالية

لبنان لحظة بلحظة.. تلويح إسرائيلي بمعاملة الجنوب كغزة وحزب الله يصعد هجماته بالمسيرات