كشفت شركة "آبل" عن إطلاق نموذجين جديدين للذكاء الاصطناعي مفتوحي المصدر، متاحين مجانًا للباحثين والمطورين عبر منصة "هاجينغ فيس" المتخصصة.
النموذج الأول يحمل اسم "فاست في إل إم" (FastVLM)، ويجمع بين نماذج اللغة العميقة والقدرات البصرية، ما يجعله قادرًا على تحليل الصور ومقاطع الفيديو والتعرف إلى محتواها. أما النموذج الثاني "موبايل كليب 2" (MobileCLIP2)، فيركز على معالجة البيانات البصرية واللغوية معًا، ويتميز بسرعة أكبر بـ 85 مرة مقارنة بالجيل السابق، إضافة إلى كونه أصغر حجمًا بمقدار 3.4 مرات.
ورغم أن النماذج لا تتيح إنتاج صور أو فيديوهات بشكل مباشر، فإنها تُقدَّم كـ"إثبات مفهوم" يوضح قوة خوارزميات "آبل" في مجال الذكاء الاصطناعي. ويمكن استخدامها لترجمة مقاطع الفيديو أو كتابة وصف نصي دقيق للصور والمقاطع التي تُزود بها، بما في ذلك عبر كاميرا الحاسوب.
تصميم هذه النماذج تم بالاعتماد على إطار التعلم الآلي مفتوح المصدر الذي طورته "آبل"، وهي مهيأة للعمل بأداء أفضل على معالجات الشركة الخاصة. وقد لاقت التجربة ترحيبًا واسعًا من مستخدمي منصات التواصل، خصوصًا عبر "إكس"، حيث أشادوا بدقة وسرعة النتائج في التعامل مع مقاطع الفيديو والصور.
إعلان "آبل" يأتي قبل مؤتمرها السنوي المقرر في 9 أيلول/ سبتمبر، ما أثار توقعات بأن الشركة قد تقدم ميزات ذكاء اصطناعي جديدة مستندة إلى نسخة مطوّرة من هذه النماذج، في إطار سعيها لمنافسة شركات مثل "غوغل" و"مايكروسوفت" التي سبقتها في هذا المضمار.