تريند 🔥

🌙 رمضان 2024

المنافسة مع الكبار!! تعرف على Mixtral 8x7B النموذج الجديد لمنافسة ChatGPT و Gemini

المنافسة مع الكبار!! تعرف على Mixtral 8x7B النموذج الجديد لمنافسة ChatGPT و Gemini
محمد نصار
محمد نصار

1 د

أعلنت شركة Mistral AI عن نموذجها القوي والجديد Mixtral 8x7B الذي يعمل بهندسة MOE.

يتفوق هذا النظام الجديد على نظام GPT-3,5 من شات جي بي تي وسرق الأضواء من جيميني من جوجل.

دخلت Mixtral 8x7B المنافسة بقوة مع عمالقة التكنولوجيا، كما حصلت الشركة على تمويل بقيمة 450 يورو.

أربكت Mistral AI مجتمع التكنولوجيا بآخر إبداع لها Mixtral 8x7B، والذي يعتمد على نهج مزيج الخبراء MOE، ويتحدى اللاعبين الكبار مثل شات جي بي تي و LIama 2 من ميتا، بفضل هندسته الفريدة، وتسبب Mixtral 8x7B في تسارع الأحداث في مشهد الذكاء الاصطناعي.

كان الانتباه مركزًا على جيميني من جوجل، لكن Mixtral 8x7B دخل بصمت متفوقًا بطريقته الفريدة لتوليد ردود تشبه البشر، وعلى عكس النماذج الأخرى فإنه يحتاج إلى جزء صغير من الموارد، مما يجعله خيارًا قويًا، كما يتفوق Mixtral 8x7B على أداء GPT-3.5 من شات جي بي تي، كما يضمن طابعه مفتوح المصدر توفره للجميع.

ذو صلة

يرجع نجاح النموذج إلى شركة Mistral AI التي تأسست بواسطة خبراء سابقين في ميتا وجوجل، كما حظيت الشركة بتمويل قدره 450 مليون يورو، وكان إطلاق النموذج الجديد مختلفًا من خلال تغريدة غير تقليدية على منصة X، وتُعالج هندسة MOE الرموز عن طريق توزيعها على خبراء مختلفين داخل النظام، وبفضل 8 خبراء في الشبكة العصبية، يسمح النظام بتشكيل شبكة هرمية مما يتيح بمعالجة الرموز بفعالية، كما يتميز النظام بسهولة الاستخدام والوصول، ويفتح منافسة جديدة وشديدة مع عملاقة التكنولوجيا.

أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية

بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك

عبَّر عن رأيك

إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.

ذو صلة