Bogotá, Colombia -Edición: 625

 Fecha: Domingo 07-04-2024

Página 13

  

TECNOLOGÍA-CIENCIA

 

 

 

La fibra óptica podría ser la pieza clave en la creación de supercomputadoras de IA

 

 

  “El paso facilitará algoritmos de IAG”, sugiere convencido.

 

Los grandes centros de datos necesarios para entrenar algoritmos enormes de IA suelen constar de racks llenos de miles de computadoras con chips de silicio especializados y un spaghetti de conexiones, en su mayoría eléctricas, entre ellas. Mantener los procesos de entrenamiento de la IA en tantos sistemas, todos conectados por cables e interruptores, es una gigantesca labor de ingeniería. La conversión entre señales electrónicas y ópticas también impone límites fundamentales a la capacidad de los chips para ejecutar operaciones de procesamiento como si fueran uno solo.

 

El enfoque de Lightmatter está diseñado para simplificar el complicado tráfico dentro de los centros de datos de IA. “Normalmente tienes un montón de GPU, y después una capa de conmutadores, y otra capa, y otra más, y debes atravesar ese árbol” para comunicarte entre dos GPU, explica Harris. En un centro de datos conectado por Passage, destaca Harris, cada GPU dispondría de una conexión de alta velocidad con cada uno de los demás chips.

 

El trabajo de Lightmatter con Passage es un ejemplo del modo en que el reciente florecimiento de la IA ha inspirado a empresas grandes y pequeñas a intentar reinventar el hardware clave detrás de avances como el ChatGPT de OpenAI. Nvidia, el principal proveedor de GPU para proyectos de inteligencia artificial, celebró su conferencia anual el mes pasado, en la que Jensen Huang, su CEO, presentó el último chip de la compañía para el entrenamiento de IA: una GPU llamada Blackwell, que venderá como un “superchip” compuesto por dos GPU Blackwell y un procesador CPU convencional, todo ello conectado mediante la nueva tecnología de comunicaciones de alta velocidad de la compañía conocida como NVLink-C2C.

 


La industria de los chips es famosa por encontrar formas de exprimir más capacidad de procesamiento de los mismos sin hacerlos más grandes, pero Nvidia ha optado por romper esa tendencia. Las GPU Blackwell incluidas en el superchip de la empresa son el doble de potentes que sus predecesoras, pero se fabrican uniendo dos chips, lo que significa que consumen mucha más energía. Esta compensación, además de los esfuerzos de Nvidia por conectar sus chips con enlaces de alta velocidad, sugiere que las mejoras de otros componentes clave para las supercomputadoras de IA, como la propuesta por Lightmatter, quizá adquieran mayor relevancia.

 

La mayoría de los expertos en inteligencia artificial (IA) parecen estar de acuerdo en que dar el próximo gran salto en este campo dependerá, al menos en parte, de la construcción de supercomputadoras a una escala antes inimaginable. En un evento organizado por la empresa de capital de riesgo Sequoia el mes pasado, el CEO de una startup llamada Lightmatter presentó una tecnología que quizá haga posible este replanteamiento de la informática a hiperescala, al permitir que los chips se comuniquen directamente entre sí mediante la luz.

 

Fibra óptica para acelerar los procesos de la IA

 

Hoy en día, la información se mueve generalmente dentro de las computadoras, y en el caso del entrenamiento de algoritmos de IA, entre chips dentro de un centro de datos, mediante señales eléctricas. A veces, partes de esas interconexiones se transforman en enlaces de fibra óptica para obtener un gran ancho de banda, pero la conversión de señales de ida y vuelta entre ópticas y eléctricas crea un cuello de botella en las comunicaciones.

 

 

En su lugar, Lightmatter quiere conectar directamente miles o incluso millones de unidades de procesamiento gráfico (GPU, por sus siglas en inglés), esos chips de silicio que son fundamentales para el entrenamiento de la IA, empleando enlaces de fibra óptica. Reducir el cuello de botella de la conversión debería facilitar el movimiento de datos entre los chips a velocidades mucho mayores que las actuales, lo que posibilitaría la creación de supercomputadoras de IA distribuidas en niveles extraordinarios.

La tecnología de Lightmatter, que llama Passage, adopta la forma de interconexiones ópticas, o fotónicas, construidas en silicio que permiten a su hardware interactuar directamente con los transistores de un chip de silicio como una GPU. La compañía asegura que esto ayuda a transferir información entre chips con un ancho de banda 100 veces superior al habitual.

Para contextualizar, se rumorea que GPT-4, el algoritmo de IA más potente de OpenAI y el cerebro de ChatGPT, se ha ejecutado en más de 20,000 GPU. Harris indica que Passage, que estará listo en 2026, debería admitir la ejecución en paralelo de más de un millón de GPU en la misma operación de entrenamiento de inteligencia artificial.

Uno de los asistentes al evento de Sequoia era Sam Altman, CEO de OpenAI, que en  

 

  ocasiones parece obsesionado con la cuestión de construir centros de datos más grandes y rápidos para hacer avanzar aún más la IA. En febrero, The Wall Street Journal informó que Altman ha buscado fondos por un valor de hasta siete billones de dólares que destinaría al desarrollo de inmensas cantidades de chips para la inteligencia artificial, mientras que un reportaje más reciente de The Information sugiere que OpenAI y Microsoft están diseñando planes para un centro de datos de 100,000 millones de dólares, cuyo nombre en clave es Stargate, con millones de chips. Dado que las interconexiones eléctricas consumen demasiada energía, conectar chips a tal escala requeriría una cantidad extraordinaria de energía, y dependería de que hubiera nuevos métodos, como los que propone Lightmatter.

 

Hacia una IA más capaz impulsada con luz

 

GlobalFoundries, una empresa que fabrica chips para otras, como AMD y General Motors, anunció previamente una asociación con Lightmatter. Harris señala que su organización está “trabajando con las mayores compañías de semiconductores del mundo, así como con los hiperescaladores”, refiriéndose a las mayores corporaciones dedicadas a servicios en la nube, como Microsoft, Amazon y Google.

 

Si Lightmatter u otra compañía consigue reinventar el cableado de los gigantescos proyectos de IA, es posible que desaparezca un cuello de botella crítico en el desarrollo de algoritmos más inteligentes. El uso de más procesamiento fue fundamental para los avances que condujeron a ChatGPT, y muchos investigadores en la materia consideran que seguir incrementando el hardware es esencial para futuros avances en este campo y para las esperanzas de alcanzar alguna vez el objetivo vagamente definido de la inteligencia general artificial, o IAG, es decir, programas que igualen o superen a la inteligencia biológica en todos los sentidos.

Enlazar un millón de chips con luz permitiría crear algoritmos varias generaciones por encima de la tecnología de punta actual, sostiene Nick Harris, CEO de Lightmatter. 

 

 

Página 13

 

© 2020-2023 - Noticias5 - La idea y concepto de este periódico fue hecho en  Online Periodical Format© (OPF) es un Copyright de ZahurK.

    Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK

Suscribirse gratis