ضجة في الأوساط التقنية بعد اقتصار جوجل على فئة محدودة لاستخدام Claude
تتعرض Google لانقسام بسبب السماح لبعض الفرق باستخدام Claude بينما تلتزم البقية بأدوات Gemini الداخلية.
يثير استخدام Claude شعورًا بعدم المساواة المهنية وسط التركيز على أدوات الذكاء الاصطناعي.
تضيق الفجوة بين النماذج الداخلية والخارجية يصبح تحديًا ثقافيًا وإداريًا في الشركة.
ردود علنية تكشف عن تحديات تتعلق بتبني الذكاء الاصطناعي وقضايا الثقة بين الفرق.
تنعكس أزمات التحول الرقمي داخل الشركات على المناخ الثقافي والمهني للموظفين.
داخل الفرق الهندسية الكبرى، لا تتعلق الخلافات دائماً بالرواتب أو ساعات العمل. أحياناً يكون محور التوتر أداة برمجية. هذا ما يبدو أنه يحدث حالياً داخل Google، حيث تحوّل الوصول إلى نموذج Claude من شركة Anthropic إلى خط فصل غير معلن بين فرق تملك صلاحية استخدامه وأخرى مطالبة بالالتزام حصراً بأدوات Gemini الداخلية.
انقسام داخلي غير مسبوق
بحسب تقرير Business Insider، حصل بعض موظفي Google DeepMind في الأشهر الأخيرة على إذن لاستخدام Claude كمساعد برمجي، في وقت تُمنع فيه بقية الفرق الهندسية من الاستعانة بأي أدوات ذكاء اصطناعي خارجية غير مطوّرة داخلياً أو مخصّصة للاستخدام المؤسسي.
المفارقة أن الشركة نفسها تضغط حالياً باتجاه تسريع تبني الذكاء الاصطناعي داخل جميع الأقسام، بل وتربط في بعض الحالات بين استخدام أدوات AI وتقييم الأداء السنوي. هنا تحديداً بدأ الشعور بعدم المساواة يتسلل إلى المشهد.
لماذا Claude تحديداً؟
خلال العام الماضي، أصبح Claude أحد أكثر مساعدي البرمجة انتشاراً في أوساط المطورين، خصوصاً في مهام كتابة الشيفرة، إعادة الهيكلة، وبناء الوكلاء البرمجيين. بعض مهندسي Google يرون أن أداءه في توليد الكود وتحليل السياق الطويل يتفوق على نماذج Gemini الداخلية، وفق ما نقله التقرير عن مصادر مطلعة.
وهنا يكمن جوهر الإشكال: عندما يُطلب من الفرق تسريع الإنتاجية عبر أدوات الذكاء الاصطناعي، بينما يعتقد بعضهم أن الأداة الأفضل متاحة لزملائهم فقط، فإن المسألة تتحول من خيار تقني إلى قضية ثقة داخلية.
حين يرتبط تقييم الأداء باستخدام الذكاء الاصطناعي، تصبح جودة الأداة جزءاً من العدالة المهنية.
سياسة الأدوات… بين الانضباط والمرونة
تلتزم Google تاريخياً بمبدأ الاعتماد على بنيتها التحتية الداخلية، سواء لأسباب تتعلق بالأمن، تكامل الأنظمة، أو ثقافة “dogfooding” التي تشجع الموظفين على اختبار منتجاتهم بأنفسهم لتحسينها باستمرار. هذا النهج يمنح الشركة سيطرة كاملة على البيانات وسير العمل.
لكن في عصر تتطور فيه نماذج اللغة بوتيرة متسارعة، يصبح الحفاظ على الانغلاق الكامل أقل بساطة. شركات أخرى مثل Meta تسمح لموظفيها باستخدام أدوات خارجية مثل Claude ضمن بيئات داخلية خاضعة للرقابة، ما يعكس توجهاً أكثر براغماتية في بعض المؤسسات التقنية.
تبني الذكاء الاصطناعي ليس مسألة تقنية فقط
الجدل تصاعد أيضاً بعد منشورات للمهندس والمدوّن Steve Yegge على منصة X، حيث أشار إلى أن تبني الذكاء الاصطناعي داخل Google يتقدم بوتيرة أبطأ مما يُتوقع. ردّ Demis Hassabis، الرئيس التنفيذي لـ Google DeepMind، جاء حاداً، واصفاً تلك الادعاءات بأنها غير صحيحة.
بعيداً عن التراشق العلني، تكشف القصة عن تحدٍّ أعمق: تبني أدوات AI داخل مؤسسة بحجم Google لا يتوقف على قوة النموذج أو جودة الشيفرة الناتجة، بل يعتمد على توزيع الصلاحيات، السياسات الداخلية، وثقافة الثقة بين الفرق.
- عندما تُمنح بعض الفرق أدوات خارجية، تظهر حساسية تتعلق بالمساواة المهنية.
- ربط الأداء باستخدام الذكاء الاصطناعي يزيد الضغط على الفرق التقنية.
- الفجوة بين النماذج الداخلية والخارجية تصبح مسألة معنوية وليست تقنية فقط.
ما الذي تعنيه هذه الحكاية فعلاً؟
القصة ليست عن Claude مقابل Gemini بقدر ما هي عن كيفية إدارة التحول إلى عصر الذكاء الاصطناعي داخل الشركات العملاقة. فبين الرغبة في حماية البنية التحتية والبيانات، والحاجة إلى الاستفادة من أفضل الأدوات المتاحة في السوق، تقف المؤسسات أمام معادلة دقيقة.
ربما يكشف هذا الانقسام الداخلي أن المنافسة الكبرى في مجال النماذج اللغوية لم تعد فقط بين الشركات، بل داخلها أيضاً. وفي النهاية، الطريقة التي تُدار بها هذه التوترات ستحدد ليس فقط سرعة التطوير، بل صورة الشركة ذاتها لدى مهندسيها.
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.
LEAP26








