15 de Marzo de 2024 in Noticias de IA by Sofía González
En la era digital, la organiz
Read more5 de Abril de 2024 in Análisis y Reseñas by Alejandro García
En el ámbito de la inteligencia artificial, la arquitectura de Mixture of Experts (MoE) está marcando un antes y un después en la eficiencia y velocidad de los modelos de aprendizaje profundo. Esta metodología, que ya se intuye forma parte de la infraestructura detrás de gigantes como GPT-4, se diferencia de los modelos tradicionales (dense) por su diseño innovador que integra capas sparse (o dispersas) reemplazadas por MoE-layers.
Read more17 de Mayo de 2024 in Noticias de IA by Alejandro García
Mientras tanto, la batalla por los datos continúa. Ya he mencionado que la apertura de GPT-4 para todos es, ante todo, una caza de nuevos datos, datos para el entrenamiento. Los usuarios van a alimentar la inteligencia artificial con sus incansables prompts, imágenes, videos y diálogos.
Read more