|
![]() |
Bogotá, Colombia -Edición: 634 Fecha: Domingo 28-04-2024 |
Página 13 |
|
TECNOLOGÍA-CIENCIA |
|||
|
|
OpenAI, Nvidia, Microsoft y Google asesorarán al Gobierno de EE. UU. sobre los riesgos de la IA |
|||||
![]()
|
El Gobierno de Estados Unidos ha intentado regular el avance de la IA sin éxito. Analistas citados por The Wall Street Journal sugieren que los pocos avances están relacionadas con las disputas internas protagonizadas por las fuerzas políticas del Congreso.
La urgencia de regular la IA aumenta
La regulación de la IA se ha convertido en uno de los temas de mayor interés a nivel mundial. El marco regulatorio impuesto por la Unión Europea es considerado como uno de los proyectos más sólidos hasta ahora. La normativa fue criticada en diversas ocasiones por Sam Altman, CEO de OpenAI. Sundar Pichai, director ejecutivo de Alphabet, se anticipó a la aprobación de la ley y anunció un acuerdo voluntario con los legisladores europeos para establecer un conjunto provisional de acuerdos alrededor del desarrollo de la IA.
Los expertos han advertido que la industria tecnológica pretende establecer normativas bajo sus propios estándares. OpenAI, Google, Microsoft y Anthropic se unieron para lanzar el Foro Frontier Model, un panel enfocado en garantizar el desarrollo seguro y responsable de modelos de inteligencia artificial. Las big tech esperan constituir mejores prácticas y mecanismos que reglamenten el avance de esta tecnología. El éxito de los esfuerzos está comprometido. Diversos intereses están de por medio. Cifras del banco de datos Statista anticipan que el valor de mercado de la inteligencia artificial puede superar los 300,000 millones de dólares. en 2025.
|
|||||
Los directivos ejecutivos de OpenAI, Microsoft, Alphabet y Nvidia se unirán a la Junta de Seguridad de Inteligencia Artificial de Estados Unidos, de acuerdo con un reporte de The Wall Street Journal. El organismo federal está diseñado para asesorar al Departamento de Seguridad Nacional (DHS, por su siglas en inglés) sobre la implementación segura de sistemas de inteligencia artificial (IA) en la infraestructura crítica del país.
La entidad está conformada por
especialistas en inteligencia artificial del sector privado,
académicos y funcionarios gubernamentales. Su misión es
“aprovechar la experiencia e infraestructura en IA para evaluar
los riesgos emergentes relacionados con el uso de la tecnología
en los sectores nacionales críticos y brindar asesoramiento y
recomendaciones para mitigar esos peligros”. El consejo
contribuirá en el diseño de pautas y estándares para garantizar
el uso seguro de algoritmos inteligentes en sectores como la red
eléctrica, el transporte y la manufactura. |
políticas y mecanismos que contengan las
posibles amenazas.
La administración del presidente Joe Biden ordenó
el año pasado la creación del consejo de IA mediante una orden ejecutiva. Entre
otras cosas, el decreto habilita el uso de Ley de Producción de Defensa para
exigir a los fabricantes de grandes modelos de IA información clave sobre los
procesos de entrenamiento de sus sistemas. Esto incluye la divulgación de los
resultados de los llamados ejercicios de equipo rojo, destinados a revelar
vulnerabilidades en los modelos de IA que facilita su uso malintencionado o para
generar malware. |
|||||
![]()
|
Página 13 |
© 2020-2024 - Noticias5 - La idea y concepto de este periódico fue hecho en Online Periodical Format© (OPF) es un Copyright de ZahurK. Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK
|