لماذا يغير روبوت الدردشة إجاباته عندما تسأله “هل أنت متأكد؟”

في السنوات الأخيرة لم يعد السؤال حول قدرة روبوتات الدردشة الذكية على الإجابة، بل أصبح حول سبب تغيّر إجاباتها أحيانًا. كثير من المستخدمين لاحظوا ظاهرة غريبة: تسأل الذكاء الاصطناعي سؤالًا، يعطيك جوابًا، ثم تقول له «هل أنت متأكد؟»… وفجأة يغيّر الإجابة بالكامل — حتى لو كانت الأولى صحيحة! هذه الظاهرة ليست خللًا بسيطًا، بل تكشف كيف يعمل الذكاء الاصطناعي في العمق.
لماذا تغيّر روبوتات الدردشة إجاباتها؟
السبب الأساسي هو أن روبوتات المحادثة مثل ChatGPT وGemini وغيرها لا “تعرف” الحقيقة بالطريقة البشرية.
هي في الواقع لا تمتلك معلومات مخزنة كحقائق مؤكدة، بل تعتمد على نموذج رياضي يتنبأ بأكثر الكلمات احتمالًا لتأتي بعد السؤال. بمعنى أدق: الذكاء الاصطناعي لا يفكر… بل يتوقّع.
النموذج اللغوي الكبير (LLM) يتم تدريبه على كميات ضخمة من النصوص من الإنترنت والكتب والمقالات. وعند سؤاله، يقوم بحساب الاحتمالات الإحصائية للجملة التالية الأكثر منطقية لغويًا. لذلك تكون الإجابة في كثير من الأحيان صحيحة — ليس لأنه فهمها، بل لأن الاحتمالات اللغوية تشير إليها.
تأثير عبارة «هل أنت متأكد؟»
عندما تقول للذكاء الاصطناعي: «هل أنت متأكد؟» فأنت لا تطلب مراجعة معرفية، بل تغيّر سياق المحادثة. النموذج يفسر الجملة على أنها: المستخدم يشك في الإجابة السابقة. وبالتالي يحاول “إرضاء” السياق الجديد، فيبدأ بالبحث عن إجابة بديلة محتملة لغويًا. فهو مبرمج على أن يكون مساعدًا متعاونًا، لا على أن يدافع عن رأيه. وهنا تحدث المشكلة:
أحيانًا تكون الإجابة الأولى صحيحة 100%، لكن مجرد التشكيك يدفع النموذج لإنتاج إجابة مختلفة حتى لو كانت خاطئة.
تشير تحليلات خبراء الذكاء الاصطناعي إلى أن النموذج لا يملك آلية تحقق داخلية للحقائق، بل فقط آلية توافق سياقي مع الحوار.
ما الذي يحدث داخل النموذج تقنيًا؟
لفهم الأمر، تخيّل أن النموذج يعمل عبر ثلاث طبقات رئيسية:
1) التنبؤ الاحتمالي (Probability Prediction) يقوم النموذج بحساب احتمالات الكلمات التالية باستخدام شبكات عصبية تسمى Transformer. كل كلمة في الإجابة ليست اختيارًا واعيًا، بل أعلى احتمال رياضي.
2) المحاذاة السلوكية (Alignment) بعد التدريب الأساسي، يتم تدريب النموذج بطريقة تسمى:
Reinforcement Learning from Human Feedback – RLHF هنا يتعلم النموذج أن: يكون مهذبًا، لا يجادل المستخدم، يحاول التصحيح عند الشك. لذلك عندما تشكك، يفسر ذلك كإشارة أن الإجابة ربما خاطئة فيغيرها.
3) الحساسية للسياق (Context Sensitivity) روبوتات الدردشة لا تقيم كل سؤال منفصلًا، بل تعتمد على كامل الحوار السابق. جملة قصيرة مثل «متأكد؟» تغيّر المعنى الإحصائي للسياق، فتُعاد عملية التنبؤ من البداية.
هل هذا يعني أن الذكاء الاصطناعي غير موثوق؟
ليس تمامًا. المشكلة ليست في الذكاء الاصطناعي نفسه، بل في طبيعته اللغوية. هو نظام توليد نصوص احتمالية، وليس قاعدة بيانات حقائق. ولهذا تظهر ظاهرة معروفة باسم: AI Hallucination (هلوسة الذكاء الاصطناعي) أي إنتاج معلومات تبدو مقنعة لكنها غير صحيحة. وهذا يحدث لأن النموذج يهدف إلى صياغة جملة منطقية لغويًا، وليس التأكد علميًا منها.
لماذا أحيانًا تكون الإجابة الثانية أسوأ؟
لأن النموذج يعتقد أنه أخطأ. فعندما تضغط عليه، يدخل في وضع “التصحيح”، لكنه لا يراجع مصادر… بل يولد احتمالًا لغويًا جديدًا. وهنا المفارقة: السؤال الأول → يعتمد على المعرفة الاحتمالية العامة. بعد التشكيك → يعتمد على محاولة التكيّف مع اعتراضك. أي أنك دون قصد تجعل النموذج يخمّن بدل أن يجيب.
كيف تستخدم روبوتات الدردشة بشكل صحيح؟
للحصول على أفضل دقة:
لا تقل: «هل أنت متأكد؟»
قل: «تحقق من الإجابة خطوة بخطوة»
أو: «أعطني المصدر أو التفسير»
الفرق كبير. فطلب الشرح يجعل النموذج يعيد توليد الإجابة منطقيًا، بينما التشكيك يجعله يغيّرها فقط.
روبوتات الدردشة ليست موسوعات رقمية، بل أنظمة لغوية تنبؤية متقدمة. هي قادرة على تقديم معرفة مذهلة، لكنها تعتمد على الاحتمالات والسياق أكثر من اعتمادها على التحقق. لذلك عندما تغيّر إجاباتها بعد عبارة بسيطة مثل «هل أنت متأكد؟»، فهذا لا يعني أنها كانت تكذب… بل يعني أنك دفعتها إلى إعادة التخمين. باختصار: الذكاء الاصطناعي لا يغيّر رأيه…هو في الحقيقة لم يكن يملك رأيًا أصلًا.



