كشف مهندس في شركة OpenAI عن معلومات غير مريحة عن الشركة ولقي حتفه في ظروف غامضة
قصة المهندس الأمريكي الشاب سوتشيرا بالاجي، الذي انضم إلى شركة OpenAI في عام 2020 في القسم المسؤول عن ChatGPT، أثارت الكثير من الضجة في عام 2024. ولكن لا يزال اسم بالاجي يتردد حتى الآن، وفي سبتمبر 2025 كتب إيلون ماسك في X (المعروف سابقًا بـ “تويتر”):“لقد تم قتله”.لكن ماذا حدث بالفعل؟
تم العثور على جثة سوشير بالاجي البالغ من العمر 26 عامًا في شقته في سان فرانسيسكو في 26 نوفمبر 2024. في ذلك الوقت، لم تكن هناك أخبار عن الشاب لفترة، وتلقت الشرطة مكالمة من شخص كان قلقًا بشأن حالة بالاجي. وصل رجال الشرطة لإجراء فحص، مما أدى إلى استدعاء الأطباء الشرعيين.
وفقًا للتقرير الرسمي، توفي سوشير بالاجي نتيجة انتحار، ولم يتم العثور على أي آثار لجريمة في شقة المهندس السابق في OpenAI. ربما في حالة أخرى كانت ستتلقى الحادثة تغطية إعلامية قصيرة، لكن الأحداث التي سبقت وفاة بالاجي لم تسمح لها بالذوبان في جدول الأخبار.
في OpenAI، سوشير بالاجي، كما يظهر منملفه الشخصي على LinkedIn، انضم في نوفمبر 2020، قبل أن يكمل دراسته في جامعة كاليفورنيا في بيركلي. قبل حصوله على الوظيفة في شركة سام ألتمان، عمل بالاجي بدوام كامل في Quora كمهندس برمجيات، ثم تدرب في شركات متخصصة في تطوير خوارزميات الذكاء الاصطناعي: Scale AI، Helia وفي نفس OpenAI. بالإضافة إلى ذلك، شارك بالاجي في عدد من المسابقات والبطولات البرمجية، محققًا مراكز متقدمة. يمكن القول إنه تم تكوين صورة لمهني موهوب وطموح يشق طريقه بمهاراته وإعداده.
كانت فترة التدريب في OpenAI الأولى في سلسلة من التدريبات، ولكن في النهاية انضم المبرمج إلى هذه الشركة بعد عدة سنوات. وهنا أيضًا سرعان ما أصبح موضع تقدير بين زملائه: حيث كان يُعتبر أحد أكثر الموظفين إنتاجية وقوة في القسم المسؤول عن تطوير ChatGPT (في البداية كان يعمل على مشروع WebGPT، وهو نسخة من GPT-3 التي تحولت لاحقًا إلى SearchGPT).
وهذا ما قاله أيضًا جون شولمان، المؤسس المشارك لـ OpenAI، بعد وفاة بالاجي. ومع ذلك، في أغسطس 2024، غادر شولمان أيضًا الشركة، وقبل بضعة أشهر منه غادر إيليا سوتسكيفر، المؤسس المشارك وآخر رئيس علمي للشركة.
أقل من أربع سنوات عمل الخريج الجامعي مؤخرًا في الشركة، وفي الآونة الأخيرة كان يعمل على تدريب GPT-4. دفعته هذه الوظيفة إلى التفكير بعمق في مدى نزاهة استخدام البيانات التي تبدو متاحة للجميع في تدريب الذكاء الاصطناعي: وقد دفعه إلى ذلك الأخبار المنتظمة عن الدعاوى القضائية نيابة عن عدد من المنشورات الكبرى، مؤلفي الكتب، الفنانين، مطوري البرمجيات وغيرهم.
بالأحرى، لم يكن يقلقه العملية نفسها، بل قضايا حقوق الطبع والنشر. وهذا بالضبط ما أصبح حجر عثرة في العلاقات بين بالادجي وOpenAI.“أعتقد أنه من غير النزيه استخدام المحتوى الذي أنشأه أشخاص مختلفون لتدريب نماذج اللغة، ثم التنافس معهم لاحقًا. لا أعتقد أن لأحد الحق في ذلك. لا أعتقد أن هذا قانوني”،صرح بذلك المتخصص في الذكاء الاصطناعي في أكتوبر 2024 في حديث مع صحفي من Associated Press، وذكر كلمات مشابهة سابقًافي حوارمع صحيفة The New York Times.
بالإضافة إلى ذلك، كان بالادجي حازمًا للغاية، حيث اتهم OpenAI مباشرة بانتهاك حقوق الطبع والنشر، في ذلك الوقت كان قد انتقل إلى حالة الموظفين السابقين في الشركة، حيث أنه استقال في أغسطس 2024.“إذا كنت تؤمن بنفس الشيء الذي أؤمن به، فعليك مغادرة الشركة”.لماذا لم يغادر في وقت سابق؟ هناك على الأرجح عدة أسباب لذلك. من بينها، عندما بدأ الشاب المتخصص العمل في الشركة، كانت OpenAI قد بدأت فقط في الانتقال إلى المسار التجاري، وكان بالادجي نفسه يعتبر نشاطه بحتًا بحثيًا.
بالإضافة إلى ذلك، كانت OpenAI ومايكروسوفت تروجان بنشاط لفكرة أن منهجية التعليم تندرج تحت مفهوم الاستخدام العادل. كما كتبت في نيويورك تايمز، من بين العوامل التي تؤكد اتباع العقيدة، هناك مطلب تغيير المادة الأصلية والمحمية بحقوق الطبع والنشر بالكامل، مما يمنع العمل الجديد (المنتج، المنشور، الكود البرمجي، وما إلى ذلك) من التنافس مع الأصل.
لكن بالادجي أكد أن الواقع ليس كذلك. وفقًا للمبرمج، عندما تتعلم الأنظمة مثل ChatGPT-4 من البيانات، فإنها تقوم بإنشاء نسخة كاملة منها. بعد ذلك يمكن لمالك الذكاء الاصطناعي تحديد درجة التكرار: إما تقديم محتوى متطابق أو توليده بحيث لا يكون هناك تشابه. الخيار الثاني يناسب الاستخدام العادل، لكن في الواقع، قال الموظف السابق في OpenAI، أن النتيجة عادة ما تكون شيئًا في المنتصف:“المخرجات ليست نسخة دقيقة، لكنها ليست محتوى جديد تمامًا أيضًا”. لتأكيد كلامه، نشر بالادجينشرمبررات نظريته على موقعه الشخصي.
كل هذا، كما يعتقد الخبير في مجال تعليم الذكاء الاصطناعي، يشير إلى أن الأمر يتعلق بانتهاك حقوق الطبع والنشر. وبشكل عام، يمكن للنماذج التوليدية أن تستبدل بمحتواها تقريبًا كل ما هو موجود على الإنترنت. إذا أرادوا ذلك. لكن من المؤكد أنهم سيضيفون شيئًا خاصًا بهم: ما يسمى بـ “الهلوسات”، التي تُنشأ في أعماق منطق الآلة واستنتاجات الذكاء الاصطناعي، مما سيزيد من تفاقم المشكلة.
من الصعب القول ما إذا كانت هذه الأنشطة “تعجب” بالاجي للشركات التي تروج وتربح من بيع خدمات الذكاء الاصطناعي. في الصحافة، قيل أن المعلومات من المهندس، وكذلك الوثائق التي قد تكون بحوزته، يمكن أن تصبح جزءًا من دعوى قضائية ضد OpenAI.
بعد مقابلة واسعة النطاق مع صحيفة نيويورك تايمز، أطلق على بالاجي لقب “المخبر” – وهو مصطلح يستخدم في الصحافة الغربية لوصف أولئك الذين قرروا إبلاغ الجمهور بمعلومات حول الأفعال غير القانونية المحتملة لصاحب عملهم. وفعلاً كان المهندس واحدًا من أوائل من غادروا شركة كبرى في مجال الذكاء الاصطناعي، متحدثًا بصوت عالٍ عن انتهاك حقوق الطبع والنشر في إنشاء وتطوير هذه التكنولوجيا.
من جانبها، لم تقدم نيويورك تايمز مقابلة بالاجي عبثًا: فقد رفعت الصحيفة بنفسها دعوى قضائية ضد OpenAI وشريكها الرئيسي – مايكروسوفت، متهمة إياهم باستخدام ملايين المنشورات لتدريب روبوتات المحادثة التي تنافس الآن… نيويورك تايمز. ما كان سيحدث بعد ذلك، لو بقي خريج جامعة كاليفورنيا على قيد الحياة، لا يمكن التكهن به.
بعد وفاة سوشير بالاجي، اتخذ والداه خطوات إضافية في محاولة لاكتشاف الظروف التي قد تكون خارج نطاق الرؤية الرسمية. لذلك، لجأ بورنيما راماراو وبالاجي رامامورتي إلى خبراء طبيين خاصين ومحققين. في مقابلة في منتصف سبتمبر 2025 مع قناة Diya TV،صرحوا أن النتائج التي تم الحصول عليها من التشريح وغيرها من النقاط تختلف عن تلك التي أُعلنت رسميًا.
وفقًا للتقرير الرسمي، فإن وفاة سوشير بالادجي كانت نتيجة انتحار: حيث استخدم الشاب، كما ورد في الوثائق، مسدسًا. وأظهرت الفحوصات السمّية وجود آثار للكحول والمواد النفسية في دمه.
في مقابلة، زعمت بورنيما راماراو أن ابنها تحت تأثير الكحول والأدوية لم يكن ليتمكن ببساطة من حمل المسدس بطريقة تلحق به الإصابات الموثقة من قبل الأطباء الشرعيين (عند التركيزات المعلنة يفقد الشخص وعيه). كما أشارت، مستندة إلى أطباء خاصين، إلى وجود إصابات لدى ابنها تشبه، على الأرجح، تلك التي تظهر عند استخدام الكمامة أو بعد التعذيب.
“قبل يوم من ذلك احتفل بعيد ميلاده السادس والعشرين. كان لديه يوم واحد فقط ليعيش في هذا العمر. لم يكن يبدو متعبًا. لم يكن يبدو مكتئبًا”،— قالت والدة سوشير. وأضافت أن ابنها لم يكن من محبي الشراب (حيث تم تسجيل مستوى الكحول في دمه كما في حالة سكر شديد)، مقترحة أنه تم تخديره أولاً ثم أعطيت له مواد نفسية “لإجباره على الكلام”.
وأشار الوالدان أيضًا إلى أنه في أحد المصاعد في المبنى الذي كان يعيش فيه سوشير بالادجي، تم “تعطيل” الكاميرا بشكل متعمد قبل أسبوع من الحادث، وأخبرا عن وجود بقع دم في الشقة لم تُدرج في تقرير الشرطة، وكذلك أن أحدًا لم يسمع أصوات إطلاق النار. هل تم أخذ ذلك بعين الاعتبار، لا يزال غير واضح.
ومع ذلك، هذه ليست المرة الأولى التي يحاول فيها والدا سوتشيرا بالاجي الطعن في استنتاجات الخبراء الرسميين والشرطة، حيث يرفضان قبول احتمال انتحار ابنهما. كما يظهر منالنشر في NDTV، لم تستبعد بورنيما راماراو سابقًا أن ابنها قد قُتل، حيث أن “OpenAI ترغب في إخفاء شيء مهم”، وطالبت بإشراك مكتب التحقيقات الفيدرالي في التحقيق.
تلقت عائلة خبير تكنولوجيا المعلومات المتوفى دعمًا معينًا على الأقل مرتين من إيلون ماسك. ففي ديسمبر 2024، تفاعل مع منشور لبورنيما راماراو في X، وكتب:“هذا لا يبدو كانتحار”.
هذا لا يبدو كانتحارًا
— إيلون ماسك (@elonmusk)29 ديسمبر 2024
وفي سبتمبر 2025 كتب الملياردير:«لقد تم قتله»، مشيرًا في المنشور إلى رابط مقابلة رئيس OpenAI تاكر كارلسون.
تحدث سام ألتمان في تلك المحادثة عن سوشير بالاجي، ومشاعره حيال ذلك، والانتحار المحتمل للمبرمج.
لقد تم قتله
— إيلون ماسك (@elonmusk)11 سبتمبر 2025
من الممكن أن اهتمام إيلون ماسك سيزيد من الاهتمام بما حدث للموظف السابق في شركة سام ألتمان، الذي لا يحبه ماسك، والجدير بالذكر أن هذا الشعور متبادل. من ناحية أخرى، بعد مطالبات وطلبات عائلة سوشير بالاجي، أكد المسؤولون فقط الأسباب الأصلية المعلنة لوفاة الشاب.
نذكركم، إذا كنتم تشعرون بالسوء، أو إذا كان لديكم أو لدى أقاربكم أفكار انتحارية، اتصلوا بالرقمخدمة الطوارئ للدعم النفسي. هذه الخدمة مجهولة الهوية ومجانية تمامًا.
أرقام الهواتف للبالغين: (8 017) 352-44-44، 304-43-70، للأطفال والمراهقين: (8 017) 263-03-03.
كما توجد في بيلاروسيا خدمة على مدار الساعة على الرقم 133.













