Actualizado: 3 Dic| Publicado: 2 Dic
Mistral AI ha presentado la familia Mistral 3 compuesta por diez modelos de inteligencia artificial multilingües y multimodales de código abierto, encabezada por Mistral Large 3 que emplea una arquitectura Mixture of Experts (MoE) optimizada para el sistema supercomputacional NVIDIA GB200 NVL72.La gama incluye nueve variantes "Ministral 3" más pequeñas desarrolladas para las plataformas edge de NVIDIA, mientras que el cofundador Guillaume Lample destaca que incluso el modelo Ministral3 3B más pequeño supera a modelos cuatro veces más grandes y puede funcionar en dispositivos sin conexión a internet.Mistral AI, que ha reunido más de $1.050 millones con inversiones de ASML, se diferencia de los competidores privados estadounidenses al lanzar sus modelos bajo licencia Apache 2.0 y apoyar iniciativas del sector público como "AI for Citizens".
Tags

#Francia

#París

#GuillaumeLample

#MistralAI

#MistralLarge3

#NVIDIAGB200NVL72

#Ministral3

#NVIDIA

#Ministral33B

#ASML

#Apache20

#AIForCitizens

Leer más
VentureBeat Nvidia Semafor
Conversar
English
Français
Deutsch
Italiano
Svenska
6
Tierra
Europa
USA
Tags

#Ministral3

#

GuillaumeLample

Mistral AI ha presentado la familia Mistral 3 compuesta por diez modelos de inteligencia artificial multilingües y multimodales de código abierto, encabezada por Mistral Large 3 que emplea una arquitectura Mixture of...

2 Dic/3 Dic
Threads Facebook X Instagram Bluesky
Términos de servicio Política de privacidad
Stockholm, Sweden
+46 (0)8 525-171-42 Email