Buscar


La Revolución de Mixture of Experts (MoE): El Futuro de los Modelos de IA

5 de Abril de 2024 in Análisis y Reseñas by Alejandro García

En el ámbito de la inteligencia artificial, la arquitectura de Mixture of Experts (MoE) está marcando un antes y un después en la eficiencia y velocidad de los modelos de aprendizaje profundo. Esta metodología, que ya se intuye forma parte de la infraestructura detrás de gigantes como GPT-4, se diferencia de los modelos tradicionales (dense) por su diseño innovador que integra capas sparse (o dispersas) reemplazadas por MoE-layers.

Read more


La batalla por los datos continúa: OpenAI firma con Reddit

17 de Mayo de 2024 in Noticias de IA by Alejandro García

Mientras tanto, la batalla por los datos continúa. Ya he mencionado que la apertura de GPT-4 para todos es, ante todo, una caza de nuevos datos, datos para el entrenamiento. Los usuarios van a alimentar la inteligencia artificial con sus incansables prompts, imágenes, videos y diálogos.

Read more


< 1 2