أصبحت روبوتات الدردشة المعتمدة على الذكاء الاصطناعي جزءًا من الحياة اليومية لملايين المستخدمين حول العالم، إلا أن القليلين فقط يدركون آلية عملها الحقيقية. وفي هذا السياق، استعرض موقع The Conversation خمسة حقائق أساسية تشرح كيف تعمل هذه التقنيات، وكيف يمكن استخدامها بشكل أفضل، وفقًا لما نقله موقع «رامبلر».
التدريب يتم على مراحل
تمر روبوتات الدردشة بمرحلة تدريب أولي تُعرف بـ«التدريب المسبق»، تتعلم خلالها النماذج التنبؤ بالكلمة التالية ضمن كميات هائلة من النصوص. وتساعد هذه العملية الذكاء الاصطناعي على فهم اللغة والحقائق الأساسية والمنطق العام.
لكن النموذج في هذه المرحلة قد يقدّم إجابات غير منضبطة، حتى على أسئلة حساسة أو مشكوك فيها. لذلك، يتدخل أشخاص مختصون يُعرفون بـ«المُعلّقين» لتوجيه إجابات الذكاء الاصطناعي نحو مسار أكثر أمانًا وفائدة، وهي مرحلة تُسمّى «الضبط» أو Fine-tuning.
الأمان نتيجة التدخل البشري
بفضل مرحلة الضبط، يصبح بإمكان الذكاء الاصطناعي رفض الإجابة على الأسئلة الضارة أو غير القانونية، مستندًا إلى القوانين أو المصادر الموثوقة. وبدون هذا التدخل، ستكون روبوتات الدردشة غير متوقعة وقد تنشر معلومات مضللة أو محتوى ضارًا.
الذكاء الاصطناعي لا يتعلم بالكلمات
على عكس البشر الذين يتعلمون اللغات من خلال الكلمات، يعتمد الذكاء الاصطناعي على وحدات بيانات صغيرة تُسمّى «توكنز». وقد تكون هذه الوحدات كلمات، أو أجزاء من كلمات، أو حتى سلاسل من الرموز. ويبلغ عدد التوكنز في مفردات روبوتات الدردشة الحديثة ما بين 50 ألفًا و100 ألف توكن.
المعرفة تتقادم مع الوقت
لا تقوم روبوتات الدردشة بتحديث معلوماتها باستمرار، ما يجعلها عاجزة أحيانًا عن التعامل مع الأحداث الجديدة أو المصطلحات المستحدثة بعد تاريخ آخر تحديث لبيانات التدريب.
فعلى سبيل المثال، تنتهي بيانات التدريب في النسخة الحالية من ChatGPT عند يونيو 2024. وللإجابة عن أسئلة حديثة، قد يلجأ الذكاء الاصطناعي إلى محركات البحث لجلب معلومات محدثة. ومع ذلك، يظل تحديث هذه النماذج عملية معقدة ومكلفة، ولا تزال تمثل تحديًا علميًا مفتوحًا.
«الهلوسة» مشكلة قائمة
تعاني روبوتات الدردشة أحيانًا مما يُعرف بـ«الهلوسة»، حيث تقدم معلومات خاطئة أو مختلقة بثقة عالية. ويعود ذلك إلى أن الذكاء الاصطناعي يتنبأ بالنص بناءً على الأنماط اللغوية دون التحقق من صحة الحقائق فعليًا.
ورغم إدخال تحسينات مثل أدوات التحقق من المصادر أو طلب الاستشهاد بمراجع موثوقة، لا توجد حتى الآن طريقة تضمن القضاء التام على هذه الظاهرة.
الحسابات الرياضية تتم عبر أدوات مساعدة
اعتمدت بعض روبوتات الدردشة مؤخرًا نماذج تفكير منطقي تسمح بتقسيم المسائل المعقدة إلى خطوات متسلسلة. وعند إجراء العمليات الحسابية، يستخدم الذكاء الاصطناعي أدوات مدمجة مثل الآلات الحاسبة لضمان دقة النتائج، خصوصًا في العمليات الرياضية المعقدة.
Боты очень легко впадают в галлюцинации
ИИ-чатботы иногда испытывают «галлюцинации» — то есть, выдают ложные или просто выдуманные результаты с полной уверенностью в своей правоте, поскольку модель предсказывает текст на базе паттернов, не проверяя факты. Подобные ошибки — результат внутренней структуры ИИ; они делают приоритет на связность информации вместо ее точности, полагаясь на неидеальные обучающие данные и полное отсутствие понимания реального мира. Хотя тот же ChatGPT получил некоторые улучшения, вроде инструмента для проверки фактов и возможности прямо потребовать бота цитировать надежные источники, никакие ухищрения не могут предотвратить галлюцинации на корню.
Боты занимаются математикой с помощью калькуляторов
Недавно некоторые чатботы перешли на т.н. логическую модель рассуждений, которая позволяет им разбить задачу на отдельные составляющие, чтобы решить сложную проблему. Например, если спросить у ChatGPT «сколько будет 56 345 минус 7 865 умножить на 350 468», ИИ выдаст правильный ответ, потому что он «понимает», что умножение идет перед вычитанием. А для того, чтобы проводить расчеты, бот использует встроенный калькулятор, позволяющий добиться точного результата.

