هذا الأسبوع في الذكاء الاصطناعي.. هل يمكننا الوثوق بأخلاقية DeepMind؟ إليك ماورد في خطابها
3 د
شركة DeepMind التابعة لـ Google قدمت إطارًا لتقييم الأثار الاجتماعية والأخلاقية لتطبيقات الذكاء الاصطناعي، وذلك قبل قمة السلامة في الذكاء الاصطناعي.
تمت دراسة شفافية Google والتشكيك في نوايا DeepMind، خصوصًا مع تطويرها لروبوت دردشة جديد يُدعى Gemini.
العالم الافتراضي للذكاء الاصطناعي شهد تطورات مهمة، بما في ذلك استجابات من Microsoft وOpenAI، وتقديم تقنيات جديدة من Google وAmazon وغيرها.
قبل انعقاد قمة سلامة الذكاء الاصطناعي، قدم مختبر DeepMind التابع لشركة جوجل ورقة بحثية تتناول كيفية تقييم الأثر الاجتماعي والأخلاقي لتكنولوجيا الذكاء الاصطناعي. هذه الورقة، التي تم نشرها في ظل الاهتمام المتزايد بمخاطر الذكاء الاصطناعي، تشدد على أهمية التعاون بين جميع أصحاب المصلحة وتبرز القضايا الأخلاقية الرئيسية المرتبطة بالذكاء الاصطناعي ومسؤولية قادة هذا المجال.
تم الحديث عن أهمية اتباع نهج مدروس للتعامل مع الذكاء الاصطناعي. وتم التأكيد على دور المطورين وأصحاب المصلحة في هذا السياق. وبالتزامن مع هذا، تستعد المملكة المتحدة لإقامة قمة حول سلامة الذكاء الاصطناعي وتخطط لتأسيس مجموعة استشارية عالمية تعمل كاللجان التابعة للأمم المتحدة لتقييم التغيرات المناخية. هدف هذه المجموعة هو متابعة آخر التطورات في الذكاء الاصطناعي والتحذير من المخاطر المرتبطة به.
إليك مخطط يظهر أي الأشخاص سيكونون الأكثر كفاءة في تقييم جوانب معينة من الذكاء الاصطناعي حسب ما ورد في TechCrunch:
ومع ذلك، فإن تسليط الضوء لا يقتصر فقط على إطار عمل DeepMind الجديد. فبالنظر إلى الصورة الأكبر، فإن شركة جوجل، الشركة الأم لشركة DeepMind، تخضع للتدقيق بسبب شفافيتها في عمليات الذكاء الاصطناعي. إذ كشفت دراسة أجرتها جامعة ستانفورد أن نموذج الذكاء الاصطناعي من Google، PaLM 2، حصل على 40% فقط بناءً على معايير الشفافية. على الرغم من أن DeepMind لم تقم بتطوير PaLM 2 بشكل مباشر، إلا أن هناك مخاوف بشأن سجل الشفافية الخاص بها.
وفي محاولة لتغيير المفاهيم، تعهدت DeepMind، جنبًا إلى جنب مع OpenAI وAnthropic، قبل بضعة أشهر بمنح حكومة المملكة المتحدة أولوية الوصول إلى مخططات الذكاء الاصطناعي الخاصة بها لتعزيز البحث في تقييم الذكاء الاصطناعي وسلامته. ومع ذلك، لا تزال هناك أسئلة حول ما إذا كانت هذه الخطوة مجرد رمزية أم التزام حقيقي بالممارسات الأخلاقية.
وبينما تستعد شركة ديب مايند لتقديم روبوت الدردشة الجديد القائم على الذكاء الاصطناعي، جيميني، والذي يستعد لمنافسة برنامج ChatGPT التابع لشركة OpenAI، ينتظر مجتمع الذكاء الاصطناعي بفارغ الصبر ليرى ما إذا كانت ديب مايند سوف تكشف بشفافية ليس فقط عن نقاط قوة الروبوت، بل وأيضاً عن حدوده.
شهد عالم الذكاء الاصطناعي أيضًا تطورات ملحوظة أخرى:
- حددت دراسة تابعة لشركة Microsoft المشكلات المحتملة في GPT-4 الخاص بـ OpenAI، مشيرة إلى قابليتها لتوليد محتوى سام.
- قدمت OpenAI إمكانات تصفح الإنترنت إلى ChatGPT وكشفت النقاب عن DALL-E 3.
- تم إعداد OpenAI أيضًا لإصدار GPT-4V، وهو نموذج هجين يفهم كلاً من النص والصور. وهي تواجه منافسة من نماذج مفتوحة المصدر مثل LLaVA-1.5 وFuyu-8B.
- تدخل Google في مجال تعلم اللغة من خلال ميزة بحث جديدة لتحسين التحدث باللغة الإنجليزية.
- قدمت Nvidia وMeta تطورات في تدريب عملاء الذكاء الاصطناعي ومحاكاة البيئة الواقعية.
- التوترات السياسية واضحة حيث أن الولايات المتحدة تقيد توريد شرائح الذكاء الاصطناعي للصين، وتستثمر شركات التكنولوجيا الصينية العملاقة بكثافة في الشركات الناشئة المحلية في مجال الذكاء الاصطناعي.
تأتي جهود DeepMind لوضع إطار أخلاقي للذكاء الاصطناعي في لحظة محورية بالنسبة لصناعة الذكاء الاصطناعي، التي تتصارع مع قضايا الشفافية والسلامة والتأثير المجتمعي. ومع استمرار الذكاء الاصطناعي في التغلغل في جوانب متنوعة من المجتمع، فإن المسؤولية تقع على عاتق عمالقة الصناعة وصناع السياسات والباحثين لضمان تطوره بشكل مسؤول وأخلاقي. ستكون الأشهر القليلة المقبلة حاسمة في تحديد مسار أخلاقيات الذكاء الاصطناعي وإدارته.
أحلى ماعندنا ، واصل لعندك! سجل بنشرة أراجيك البريدية
بالنقر على زر “التسجيل”، فإنك توافق شروط الخدمة وسياسية الخصوصية وتلقي رسائل بريدية من أراجيك
عبَّر عن رأيك
إحرص أن يكون تعليقك موضوعيّاً ومفيداً، حافظ على سُمعتكَ الرقميَّةواحترم الكاتب والأعضاء والقُرّاء.