ميتا تطلق نموذج SAM 2.. الذكاء الاصطناعي في تحليل الصور والفيديو

502

- Advertisement -

أعلنت شركة “ميتا” عن إطلاق نموذج الذكاء الاصطناعي الجديد “Segment Anything Model 2” أو اختصارًا (SAM 2)، الذي يمتلك قدرات متقدمة في تحليل الصور والفيديوهات. يأتي هذا النموذج كتطور للنموذج السابق الذي تم دمجه في أدوات مثل “Backdrop” و”Cutouts” على منصة “إنستغرام”. يتميز “SAM 2” بقدرته على تحديد وتتبع الأجزاء في الفيديوهات بشكل دقيق وفعال، مما يعزز من استخداماته في مجالات متنوعة مثل العلوم البحرية والطب.

اقرأ/ي أيضاً: تأجيل إطلاق أدوات الذكاء الاصطناعي من أبل.. ماذا يحدث؟

في بيان صحفي، أوضحت “ميتا” أن “SAM 2” يُعتمد على هيكلية بسيطة من نوع “ترانسفورمر” ويستخدم ذاكرة متدفقة لمعالجة الفيديوهات في الوقت الحقيقي. يُعتبر هذا النموذج جزءًا من مجموعة النماذج مفتوحة المصدر للشركة، مما يعني أنه متاح للتحميل والاستخدام الأكاديمي والبحثي عبر منصة “GitHub” الخاصة بها، تحت ترخيص “Apache 2.0”.

- Advertisement -

يتمتع النموذج بقدرة على تتبع الأجسام في الفيديوهات حتى في الظروف الصعبة، مثل الحركة السريعة أو تغيير المظهر أو حتى إخفاء الأجسام بواسطة مشاهد أخرى. تُعتبر هذه القدرات مفيدة بشكل خاص في تحسين عمليات تحرير الفيديو أو توليد الفيديوهات عبر الذكاء الاصطناعي، بالإضافة إلى تسهيل عملية ترميز البيانات البصرية لتدريب أنظمة الرؤية الحاسوبية الأخرى.

تأمل “ميتا” أن يسهم هذا النموذج في تطوير تجارب جديدة في بيئة الواقع المختلط التي تطورها، بالإضافة إلى تسريع عملية تحديد الأجسام في البيانات البصرية، مما يدعم تطوير أنظمة أخرى تعتمد على الذكاء الاصطناعي.

التعليقات مغلقة، ولكن تركبكس وبينغبكس مفتوحة.