Inicio Noticiero Digital Intel prepara su propio ChatGPT para el ámbito científico. Uno con un...

Intel prepara su propio ChatGPT para el ámbito científico. Uno con un trillón de parámetros

La inteligencia artificial se ha convertido en foco absoluto de la industria tecnológica, y muchas empresas (aunque no todas) han virado y redirigido sus esfuerzos hacia este campo. El último ejemplo lo tenemos en Intel, que acaba de anunciar las especificaciones de su próximo y alucinante supercomputador, y lo ha acompañado de un nuevo modelo de inteligencia artificial generativa.

Aurora. Así se llamará el nuevo supercomputador creado por Intel para el Argonne National Laboratory de Estados Unidos. Tras numerosos retrasos, este proyecto ha doblado sus objetivos iniciales y contará con una potencia de más de 2 exaFlops (Frontier, el actual líder del ranking Top500, alcanza los 1,6 ExaFlops). Para ello usará 21.248 CPUs Xeon, 63.744 GPUs Xeon Max y 10,9 Pbytes de memoria DDR5.

IA generativa y científica. Parte de esos recursos se utilizarán para el desarrollo y aplicación de nuevos modelos de IA generativa específicamente orientados al ámbito científico. Según la empresa, esos modelos se entrenarán con texto general, código, textos científicos y «datos científicos estructurados de campos como la biología, la química, la ciencia de materiales, la física, la medicina y otras fuentes».

Un trillón* de parámetros. Según Intel los modelos resultantes «Aurora genAI» podrán llegar a tener hasta un trillón (*en escala numérica corta, equivalente a nuestro billón) de parámetros. Es casi el doble de los que por ejemplo se utilizaron para entrenar a PaLM (predecesor del recién lanzado PaLM 2), y casi seis veces más de los usados para GPT-3, cuya variante GPT-3.5 es la base de ChatGPT.

Ciencia generada por IA. El objetivo de estos gigantescos modelos será el de ser aplicados a campos como el diseño de materiales o a la experimentación en biología, ciencia climática o cosmología. El modelo, afirman en Intel, se podrá usar para acelerar la identificación de procesos biológicos relacionados con el cáncer y otras enfermedades, además de sugerir objetivos para el diseño de medicamentos.

Y por supuesto, chips. Estos esfuerzos vendrán acompañados del desarrollo de chips específicamente orientados al procesamiento y entrenamiento de modelos de IA. Los chips de la familia Falcon Shores tendrán 288 gigabytes de memoria y soportarán computación de coma flotante de 8-bit. Esas especificaciones son importantes para su aplicación en el campo de la IA, y el objetivo de Intel es recortar la distancia que en este ámbito la separan de NVIDIA e incluso de AMD, que pronto lanzará los prometedores chips MI300.

En Xataka | PaLM 2 ha sido entrenado con muchísimos menos parámetros que la versión anterior (según CNBC). Y tiene todo el sentido del mundo