Bogotá, Colombia -Edición: 657

 Fecha: Viernes 21-06-2024

 

 

Página 12

   

TECNOLOGÍA-CIENCIA

 

 

 

El excientífico en jefe de OpenAI lanza una startup de IA enfocada en la seguridad

 

 

 

iniciado una campaña para restablecer la confianza en sus principios, operaciones y la seguridad de sus sistemas. En mayo, la empresa anunció la formación de un comité de seguridad dirigido por Sam Altman, Adam D'Angelo y Nicole Seligman, miembros de la junta directiva. Este comité tiene la tarea de realizar recomendaciones sobre decisiones críticas de protección y control para el desarrollo de nuevos proyectos.

Recientemente, OpenAI nombró a Paul M. Nakasone, exjefe de la Agencia de Seguridad Nacional de Estados Unidos, como miembro de su junta directiva. Este nombramiento forma parte de los esfuerzos continuos de la compañía para fortalecer su enfoque en la seguridad y la gobernanza.

 

La visión a futuro de Safe Superintelligence Inc.

El enfoque de Safe Superintelligence Inc. es claro: desarrollar una IA superinteligente segura y avanzar en la ingeniería y la ciencia necesarias para controlar esta poderosa tecnología. Al mantener un enfoque exclusivo en la SSI y evitar las presiones comerciales, Sutskever y su equipo buscan asegurar que los futuros sistemas de IA sean seguros y beneficiosos para la humanidad.

 

 

La nueva startup, con su dedicación a la seguridad y la protección en la IA, podría convertirse en un modelo a seguir para otras empresas del sector. A medida que la tecnología de la superinteligencia avanza, la prioridad de Safe Superintelligence Inc. será garantizar que estos desarrollos se realicen de manera responsable y segura, minimizando los riesgos potenciales y maximizando los beneficios para la sociedad.

Con este lanzamiento, Sutskever no solo continúa su trabajo en el campo de la IA, sino que también subraya la importancia de la seguridad y la ética en el desarrollo de tecnologías avanzadas. Safe Superintelligence Inc. se posiciona así como un pionero en la creación de una IA que no solo sea avanzada, sino también segura y controlable.

 

Ilya Sutskever, cofundador y ex director científico de OpenAI, ha anunciado la creación de Safe Superintelligence Inc., una nueva empresa de inteligencia artificial (IA) que prioriza la seguridad sobre las presiones comerciales. Sutskever describe la startup como el primer laboratorio de superinteligencia segura (SSI) del mundo, cuyo objetivo es abordar conjuntamente la protección y el desarrollo de algoritmos más avanzados. Para él, estos desafíos deben ser tratados como problemas técnicos que requieren soluciones de ingeniería revolucionaria y avances científicos, lo que permitirá escalar en paz.

Por ahora, el primer y único producto de Safe Superintelligence Inc. será un sistema de SSI. La empresa no tiene planes inmediatos de vender sus desarrollos o servicios de IA, con el objetivo de evitar distracciones y desvío de recursos hacia otros proyectos. Según Sutskever, este modelo de negocio garantiza que la seguridad, la protección y el progreso estén aislados de las presiones comerciales a corto plazo.

 

 

Daniel Gross, exlíder de IA en Apple, y Daniel Levy, antiguo miembro del personal técnico de OpenAI, también son cofundadores de esta nueva organización. Con oficinas en Palo Alto y Tel Aviv, la compañía está reclutando investigadores e ingenieros dedicados exclusivamente a la SSI.

Continuidad y enfoque en la seguridad

Sutskever, que siempre ha abogado por la necesidad de privilegiar la seguridad en el desarrollo e implementación de algoritmos avanzados de IA, pretende continuar lo que inició en OpenAI. En una publicación del año pasado, advirtió sobre el vasto poder y el potencial peligro de la superinteligencia, señalando la falta actual de soluciones para dirigir o controlar una IA de estas características. Según él, se requieren nuevos avances científicos y técnicos.
 

En OpenAI, Sutskever fue codirector del equipo 'Superalignment', creado para conducir y controlar sistemas de IA mucho

 

 

más inteligentes que los humanos. Sin embargo, este equipo fue desmantelado posteriormente, y Sutskever dejó la compañía en mayo tras una disputa con la directiva sobre cómo abordar la seguridad de la IA. En su despedida, expresó su confianza en que OpenAI construiría una IA General (IAG) segura y beneficiosa, mostrando entusiasmo por su nuevo proyecto.

Desafíos y controversias en OpenAI

La creadora de ChatGPT ha sido criticada por supuestas omisiones en la seguridad durante la producción y comercialización de sus modelos de IA. Jan Leike, que también fue colíder del equipo 'Superalignment', dejó su cargo acusando en redes sociales que la seguridad en la compañía había pasado a un segundo plano frente a la urgencia de lanzar productos brillantes.

 

Recientemente, The Information sugirió que Sam Altman, CEO de OpenAI, está evaluando convertir la corporación en una empresa con fines de lucro. Algunos analistas temen que este cambio podría obligar a la empresa a priorizar productos con mayor potencial comercial, lo que podría aumentar los precios de las soluciones de IA existentes y acelerar el ritmo de innovación. Esto, a su vez, podría incrementar los temores sobre los riesgos del uso de sistemas avanzados de IA sin un marco regulatorio adecuado.

Medidas de confianza y seguridad en OpenAI

En respuesta a las críticas, OpenAI ha

 

 

Página 12

 

© 2020-2024 - Noticias5 - La idea y concepto de este periódico fue hecho en  Online Periodical Format© (OPF) es un Copyright de ZahurK.

    Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK

Suscribirse gratis