تم إنشاء الصورة بواسطة الذكاء الاصطناعيالقيود على الشبكات العصبية لتحليل العواطف، حظرها على التمييز ضد الناس على أساس العرق أو الدين، وعدم قدرة الذكاء الاصطناعي على استخدام المواد ذات حقوق الطبع والنشر – كل هذا قد يحدث، وعلى الأرجح سيبدأ العمل به قريبًا في كازاخستان.
24 سبتمبر 2025 اعتمد مجلس النواب قانون “الذكاء الاصطناعي”. لا يزال هناك النظر في مجلس الشيوخ. لكن، كما تظهر الممارسة، لا تحدث تغييرات كبيرة عادة في المراحل التالية.
ما الذي لا يمكن للشبكات العصبية فعله في كازاخستان، وما الذي يقوله الوثيقة عن التزييف العميق، وما علاقة ذلك بحماية حقوق المستهلكين
لكن لنبدأ من البداية. أولاً، دعونا نفهم المفاهيم الأساسية.
أنواع الشبكات العصبية
يشير القانون إلى ثلاثة أنواع من الشبكات العصبية.
الأول – الذكاء الاصطناعي المساعد
هذا عندما تساعد الشبكة العصبية، لكن جميع القرارات يتخذها الإنسان نفسه.
النوع الثاني – شبه مستقلالذكاء الاصطناعي
يتخذ القرارات في إطار المعايير المحددة، ولكن يمكن للإنسان أن يتدخل ويغير النتيجة.
النوع الثالث –الذكاء الاصطناعي المستقل تمامًا
عندما تتخذ الشبكة العصبية القرارات بنفسها، دون رقابة وتدخل الإنسان.
سيتم تقسيم الأنظمة حسب مستوى المخاطر:
- الحد الأدنى من المخاطر – إذا كان العطل لا يؤثر تقريبًا على المستخدمين.
- المتوسط – عندما يمكن أن يؤدي العطل إلى تقليل كفاءة العمل، والتسبب في خسائر.
- مخاطر عالية— الحالات التي يمكن أن تتسبب فيها مشاكل الشبكات العصبية في حالات طوارئ، أو أضرار جسيمة للاقتصاد، أو الدفاع، أو الأمن، أو البنية التحتية، أو حياة الناس.
من المثير للاهتمام كيف يقترح الوثيقة تصنيف مستوى الخطر. حيث يُقال فيها:
“يتم تصنيف أنظمة الذكاء الاصطناعي إلى درجة خطر منخفضة أو متوسطة أو عالية من قبل مالكها و (أو) صاحبها وفقًا لقواعد تصنيف كائنات المعلوماتية”.
سيتم إدراج الأنظمة ذات المخاطر العالية في قائمة الكائنات الحيوية التي تتطلب حماية خاصة.
تحليل العواطف، التمييز، استغلال الثغرات — ما سيتم حظره عن الذكاء الاصطناعي
الوثيقة تفرض حظرًا على الذكاء الاصطناعي.
في كازاخستان، سيتم حظر إنشاء وتشغيل أنواع الذكاء الاصطناعي التي:
- يتلاعبون بالناس– يؤثرون على اللاوعي ويجبرونهم على اتخاذ قرارات قد تسبب ضررًا.
- يستغلون الضعف– يستغلون العمر أو الإعاقة أو الوضع الاجتماعي للشخص لخلق تهديد أو إلحاق ضرر.
- يقيمون “السلوك الاجتماعي”– يقيمون المواطنين أو المجموعات بناءً على خصائصهم الشخصية.
- يجمعون البيانات البيومترية من الإنترنت– يشكلون قواعد بيانات للوجوه من الصور ومقاطع الفيديو العشوائية.
- يميزون– يصنفون الناس حسب العرق أو الدين أو الآراء السياسية أو علامات أخرى.
- يقرؤون العواطف– يحللون مزاج الشخص دون موافقته.
- يراقبون في الوقت الحقيقي– يتعرفون على الوجوه في الأماكن العامة عبر الإنترنت (باستثناء الحالات المحددة في القانون).
- ينشئون محتوى محظور، أي المواد التي تنتهك قوانين كازاخستان.
“يجب إنشاء وتشغيل أنظمة الذكاء الاصطناعي بطريقة تضمن المساواة والعدالة، مع الاعتراف بكرامة كل شخص وقيمته المتساوية وحقوقه، مع استبعاد أي تمييز على أساس العرق أو الجنس أو العمر أو الدين أو أي خصائص اجتماعية أو ثقافية أو فردية أخرى”، كما جاء في الوثيقة.
عندما تم الاستماع إلى القانون في مجلس النواب، أكدت النائبة يكاترينا سميشلييفا أن الذكاء الاصطناعي نفسه لا يُعترف به كموضوع قانوني، وأن المسؤولية عن جميع القرارات ستظل تقع على عاتق أولئك الذين يلجأون إلى مساعدته، أي البشر.
لماذا يُحظر على الذكاء الاصطناعي تحليل العواطف؟
عندما تم تقديم المشروع في مجلس النواب، أفادت النائبة يكاترينا سميشلييفا بأن الذكاء الاصطناعي سيتم حظره من تحليل عواطف الناس.
هل يعني هذا أنه لا يمكن التحدث مع شات جي بي تي، على سبيل المثال، كطبيب نفسي؟ لا.
وأوضح نائب وزير التنمية الرقمية دميتري مون أنه من المهم التمييز بين قراءة العواطف المفيدة والخطيرة.
كمثال إيجابي لتحليل المشاعر، قدم مثالاً على أن الشبكات العصبية تساعد الهيئات الحكومية في فهم مزاج المواطنين، وتحديد الأولويات للقضايا العاجلة وتحسين عمل السلطة في المناطق.
كما ذكر الأنظمة التي يمكنها تحليل العواطف بشكل ضار للإنسان.
– هناك أنظمة تقرأ العواطف بهدف التلاعب وإحداث تأثيرات نفسية. أي أنه هنا يجب أيضًا النظر في الحالات.
– هل أفهم بشكل صحيح أن بعض التطبيقات الخارجية، حيث توجد الشبكة العصبية، قد يُمنع نظريًا من تحليل مشاعر الناس ومزاجهم إذا كان هناك مضمون سيء؟ – سألت مراسلة التحرير.
– نعم، هذه الفكرة نشأت جزئيًا بسبب المعايير الأخلاقية المختلفة التي يمليها الآن الاتحاد الأوروبي. ونعم، إذا كان ذلك سيُعتبر ضد المجتمع، ضد الفرد، بالطبع، سيكون من الخطأ القيام بذلك، – أضاف المتحدث.
التزييف العميق، حقوق المستهلكين والذكاء الاصطناعي
لمكافحة التزييف العميق، يفرض القانون وضع علامات إلزامية على المحتوى الاصطناعي (أي الذي تم إنشاؤه بواسطة الشبكات العصبية) “بشكل مفهوم للبشر”. بعبارة أبسط: يجب على منشئي مثل هذه الصور أو الفيديوهات أو النصوص دائمًا الإشارة إلى أنها تم إنشاؤها بمساعدة الذكاء الاصطناعي.
بالإضافة إلى ذلك، يجب الآن تحذير المستهلكين بأن الخدمة المقدمة لهم أو المنتج المباع لهم قد تم إنشاؤه باستخدام الذكاء الاصطناعي.
يمكن للمؤلفين منع “إطعام” أعمالهم إلى شات GPT
وفقًا للقانون الجديد، فإن الأعمال التي تم إنشاؤها بالكامل بواسطة الذكاء الاصطناعي دون تدخل بشري لا تحميها حقوق الطبع والنشر.
أي أنه إذا لم يساهم الإنسان بإبداعه فيها، فلن يكون له حقوق على هذا المحتوى.
ومع ذلك، يمكن اعتبار الطلبات الإبداعية للمستخدمين إلى نفس الشات GPT – مثل الصيغ الأصلية للمهام (ما يُعرف بالمطالبات) – محمية.
بشكل عام، لكي يتم تدريب الشبكات العصبية، يجب “إطعامها” بالكثير من المعلومات: حقائق علمية، أبحاث، كتب، قصائد، أغاني، صور، فيديوهات وغيرها. هكذا تتعلم النظام فهم منطق الإنسان وتشكيل روابطها “العصبية”.
لكن استخدام محتوى الآخرين يؤدي حتمًا إلىمشاكل حقوق الطبع والنشر:ليس كل المبدعين يرغبون في أن تُستخدم أعمالهم لتدريب الشبكات العصبية.
في قانون الذكاء الاصطناعي، سيُمنح المؤلفون الحق في حظر استخدام محتواهم لتدريب نفس ChatGPT، كما أوضح نائب وزير التنمية الرقمية دميتري مون لـ Tengrinews.kz.
“نحن نقدم مفهوم “الحظر” على أن يتم نقل العمل، الأدب الخاص بالمؤلف إلى الذكاء الاصطناعي. إذا وضعت على المحتوى علامة شرطية، فلن يمكن استخدامه للشبكات العصبية. سأشرح: لقد أنشأنا نسخ KazLLM(نموذج الذكاء الاصطناعي لمعالجة وتحليل وتوليد النصوص باللغة الكازاخية — ملاحظة المحرر). قمنا بتدريبها على الأرشيفات — كل ما ليس سريًا في جزء الأدب، جمعنا الوثائق. وهي تتحدث بشكل جيد جدًا باللغة الكازاخية، وتعرف تاريخ كازاخستان. ينص القانون على: عدم إيقاف إمكانية تدريب الآلة، ولكن إعطاء المؤلف الحق في وضع الحظر حسب رغبته”، أوضح.
“استخدام الأعمال لتدريب نموذج الذكاء الاصطناعي مسموح به فقط في حالة عدم وضع المؤلف أو صاحب الحقوق حظرًا علىقابلة للقراءة آليًافي شكل”، أضافت النائبة سميشليافا.
ماذا لو قام شخص ما بتسريب محتوى محمي بحقوق الطبع والنشر إلى الشبكات العصبية؟
هنا الدقة – هذا بالفعل نزاع بين المواطنين أو المنظمات، أوضح مون. يمكن للمؤلف رفع دعوى قضائية إذا رأى أن أعماله تُستخدم.
“لنفترض أنني كتبت قصة عن بينوكيو. لقد أخذت عملي، وكتبت قصة عبر GPT وسميتها “بوراتينو”. إنهما متشابهان جدًا، وبدأت في الربح من ذلك. ليس لتقديم واجب منزلي في الجامعة، بل لتحقيق الربح. لدي الحق في رفع دعوى ضدك، لأنك بدأت في الربح على أساس عملي ولا تدفع لي. هذه نية، رغبة واعية في الربح من عمل شخص ما دون موافقته، سيتم توثيقها، وهذا غير مسموح”، أضاف مون.
متى ستدخل هذه القيود حيز التنفيذ للذكاء الاصطناعي؟
في البداية، أي فور اعتماد القانون، لن تكون هناك قيود عالمية. سيتم تنفيذ التنظيم لاحقًا من خلال اللوائح والوثائق التنظيمية.
وبالمناسبة، يوضح نائب الوزير مون أنه لا ينبغي اعتبار كل هذا كقيود مطلقة وقاطعة:
يمكن بناء القانون على النحو التالي: يمكنك وصف كل خطوة بشكل مشروط والقول إنه إذا لم تفعل ذلك، فكل شيء سيء. أو يمكن العكس – فقط القول: إذا كانت لديك نوايا سيئة، وتم إثباتها، وهناك معايير خاصة لذلك، فإن هذا محظور بشكل مشروط. وكل شيء آخر مسموح به. لقد اتبعنا النهج الثاني. نحظر ما هو بالتأكيد سيء. كل شيء آخر نسمح به حالياً وسنقوم بتنظيمه لاحقاً بالمتطلبات واللوائح الفرعية. ولكن نكتب المبادئ الأساسية.
اقرأ أيضًا:

