Bogotá, Colombia -Edición: 617

 Fecha: Miércoles 20-03-2024

 

 

Página 12

   

TECNOLOGÍA-CIENCIA

 

 

 

Musk cumple y hace público el código de su IA Grok para desafiar a OpenAI y ChatGPT

 

 

 

únicamente el hardware de inferencia de clase para centros de datos disponga de la RAM (memoria de acceso aleatorio) y la potencia de procesamiento necesarias para cargar todo el modelo a la vez. A modo de comparación, el mayor archivo de pesos de Llama 2, un modelo 70B con precisión de 16 bits, posee un tamaño de unos 140 GB.

 

Hasta ahora, no hemos visto a nadie que lo haya ejecutado localmente, pero nos enteramos de que se está trabajando en un modelo cuantizado que reducirá su tamaño para que funcione en una GPU de consumo general; aunque esto también reducirá drásticamente su capacidad de procesamiento.

Willison confirmó nuestras sospechas, al manifestar que “es difícil evaluar [Grok-1] en este momento porque es muy grande; un archivo torrent [enorme], y además necesitas todo un conjunto de GPU costosas para ejecutarlo. Es muy posible que en las próximas semanas haya versiones cuantificadas que la comunidad genere y que presenten un tamaño más práctico, pero si no es por lo menos competitivo en calidad con Mixtral, es difícil entusiasmarse con él”.

 

 

Acertadamente, xAI no denomina “código abierto” al debut de Grok-1 en GitHub porque ese término tiene un significado específico en software, y el sector aún no ha establecido un concepto para los lanzamientos de modelos de IA que incluyen código y pesos con restricciones (como Llama 2 de Meta) o que proporcionan código y pesos sin publicar los datos de entrenamiento, lo que supone que el proceso de entrenamiento del modelo de IA no puede ser reproducido por otros. Por eso, solemos llamar a estas versiones “código de fuente disponible” o “ pesos abiertos”.

 

“Lo más interesante es que cuenta con una licencia Apache 2”, comenta Willison. “No una de las licencias poco compatibles con OSI [modelo de interconexión de sistemas abiertos] que se usan para modelos como Llama 2, y que es uno de los modelos de pesos abiertos más grandes que nadie ha presentado hasta ahora”.

 

El domingo, xAI, la compañía de inteligencia artificial (IA) de Elon Musk, publicó los pesos del modelo base y la arquitectura de red de Grok-1, un gran modelo de lenguaje (LLM, por sus siglas en inglés) diseñado para competir con aquellos que impulsan ChatGPT de OpenAI. La divulgación de los pesos abiertos a través de GitHub y BitTorrent ocurre mientras Musk sigue criticando y demandando a su rival por no difundir sus modelos de IA de forma abierta.

 

 

Grok, anunciado en noviembre, es un asistente de IA similar a ChatGPT que está disponible para los suscriptores de X Premium+ que pagan 16 dólares al mes a la plataforma de redes sociales antes conocida como Twitter. Su núcleo es un LLM de mezcla de expertos llamado “Grok-1”, con 314,000 millones de parámetros. Como referencia, GPT-3 incluía 175,000 millones de ellos. El recuento de parámetros es una medida aproximada de la complejidad de un modelo de IA, que refleja su potencial para generar respuestas más útiles.

xAI publica el modelo base de Grok-1, que no se ajusta a una tarea específica, por lo que probablemente no sea el mismo modelo que X emplea para impulsar su asistente de IA Grok. “Este es el punto de partida del modelo base en bruto de la fase de preentrenamiento de Grok-1, que concluyó en octubre de 2023”, señala xAI en su página de lanzamiento. “Esto significa que el modelo no está optimizado para ninguna aplicación concreta, como el diálogo”, lo que quiere decir que no se ofrecerá necesariamente como un chatbot. Pero hará predicciones del token siguiente, lo que implica que completará una frase u otro mensaje con su respectiva valoración de la cadena de texto más relevante.

 

“No es un modelo orientado a las instrucciones”, declara el investigador en IA Simon Willison, que habló con Ars Technica a través de un mensaje de texto. “Lo que implica que hace falta un trabajo adicional considerable para llevarlo al punto en que funcione en un contexto conversacional. Será interesante ver si alguien ajeno a xAI con las habilidades y la capacidad de procesamiento pone en marcha esa labor”.

 

 

Musk anunció inicialmente que Grok se publicaría como “código abierto” en un tuit publicado el lunes de la semana pasada. El aviso se realizó después de que Musk demandara a OpenAI y a sus directivos, acusándoles de dar prioridad a las ganancias frente a la liberación de los modelos de IA abiertos. Musk fue cofundador de OpenAI, pero ya no está vinculado a la organización, aunque suele insistir a la compañía para que difunda sus modelos como código abierto o pesos abiertos, tal y como muchos creen que el nombre de la empresa sugiere que debería hacer.

El 5 de marzo, OpenAI respondió a las acusaciones de Musk revelando antiguos emails que parecían apuntar a que Musk estaba de acuerdo con el cambio de OpenAI a un modelo de negocio con fines comerciales a través de una filial. OpenAI también manifestó que el término “abierto” de su nombre sugiere que sus productos resultantes estarían disponibles para beneficio de todos, en lugar de ser un enfoque de código abierto. Ese mismo día, Musk tuiteó (dividido en dos tuits): “Cambia tu nombre a ClosedAI y retiraré la demanda”. Su declaración de ofrecer Grok en un régimen abierto llegó cinco días después.

 

Grok-1: un modelo de pesos

 

Así que Grok-1 ya está disponible, pero ¿alguien puede ejecutarlo? xAI publicó los pesos del modelo base y la arquitectura de red bajo la licencia Apache 2.0. El código de inferencia se descarga en GitHub y los pesos se obtienen a través de un enlace Torrent que aparece en la página de GitHub.

 

Con un tamaño de punto de partida con pesos de 296 GB, es probable que

 

 

Página 12

 

© 2020- 2023- Noticias5 - La idea y concepto de este periódico fue hecho en  Online Periodical Format© (OPF) es un Copyright de ZahurK.

    Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK

Suscribirse gratis