28 de Marzo de 2024 in Noticias de IA by Sofía González
La carrera por la supremacía en inteligencia artificial ha dado un giro emocionante con la llegada de DBRX, una red neuronal que ha dejado atrás incluso a Grok de Elon Musk. Ahora disponible para el público, DBRX no solo escribe código y resuelve problemas matemáticos, sino que también aborda cuestiones filosóficas con una facilidad asombrosa. Este modelo de mezcla de expertos (MoE), desarrollado por el equipo de investigación Mosaic de Databricks, está impulsado por las API del Modelo Fundacional de Databricks y sujeto a términos y condiciones específicos.
Read more5 de Abril de 2024 in Análisis y Reseñas by Alejandro García
En el ámbito de la inteligencia artificial, la arquitectura de Mixture of Experts (MoE) está marcando un antes y un después en la eficiencia y velocidad de los modelos de aprendizaje profundo. Esta metodología, que ya se intuye forma parte de la infraestructura detrás de gigantes como GPT-4, se diferencia de los modelos tradicionales (dense) por su diseño innovador que integra capas sparse (o dispersas) reemplazadas por MoE-layers.
Read more