MIT LFM2VL: inteligencia multimodal que cabe en tu bolsillo
El MIT presentó recientemente LFM2VL, un modelo multimodal capaz de procesar visión y lenguaje de manera integrada, pero con una diferencia clave frente a otros sistemas: puede ejecutarse de forma local en un dispositivo móvil. En un ecosistema dominado por soluciones que dependen de la nube, este avance apunta a un futuro más privado, rápido […]