Las recientes iniciativas de xAI subrayan los desafíos de utilizar de manera eficiente las GPUs de grado servidor de NVIDIA en el entrenamiento de IA, a pesar de adquisiciones exitosas. La industria de la IA enfrenta un nuevo obstáculo en la "eficiencia de utilización", ya que el entrenamiento de modelos a menudo implica cargas de trabajo "intermitentes": uso intenso de la GPU seguido de períodos de inactividad para el análisis. Este patrón conduce a un desperdicio significativo de capacidad de cómputo, incluso con hardware abundante. Expertos de la industria sugieren que las empresas de IA deben rediseñar las arquitecturas de entrenamiento y los sistemas de programación para mejorar la utilización de los clústeres de GPU, en lugar de simplemente aumentar la capacidad de cómputo.