|
![]() |
Bogotá, Colombia -Edición: 709 Fecha: Domingo 20-10-2024 |
Página 13 |
|
TECNOLOGÍA-CIENCIA |
|||
|
|
Urgencia en la clasificación de modelos de IA según su riesgo: El desafío de establecer un estándar claro
|
|||||
![]()
|
manifiesto la necesidad de una mayor transparencia y responsabilidad en el desarrollo y la implementación de IA.
Esfuerzos para ordenar un panorama de riesgos desordenado
El trabajo de Li no es el único en este campo. Otros investigadores también están tratando de poner orden en el confuso panorama de riesgos de la IA. Esta misma semana, dos investigadores del Instituto de Tecnología de Massachusetts (MIT) presentaron su propia base de datos de peligros de la IA, compilada a partir de 43 marcos de riesgo diferentes. Neil Thompson, científico investigador del MIT, comentó que muchas organizaciones todavía están en las primeras etapas de adopción de la IA, lo que significa que necesitan orientación sobre los posibles peligros.
Peter Slattery, director del proyecto e investigador del grupo FutureTech del MIT, añadió que la base de datos pone de manifiesto que algunos riesgos de la IA reciben más atención que otros. Por ejemplo, más del 70% de los marcos mencionan problemas de privacidad y seguridad, mientras que solo alrededor del 40% se refieren a la desinformación. Esto indica que aún hay áreas del riesgo de IA que requieren mayor atención y estudio.
El futuro de la evaluación de riesgos en IA
En resumen, aunque la clasificación de los modelos de IA según su riesgo es una tarea compleja y en evolución, el trabajo de investigadores como Li y su equipo es fundamental para garantizar que la tecnología se desarrolle de manera segura y ética. Las empresas y los gobiernos deben trabajar juntos para establecer estándares claros y efectivos que protejan tanto a los usuarios como a la sociedad en general de los potenciales peligros de la IA. |
|||||
La inteligencia artificial (IA) ha
avanzado a pasos agigantados, revolucionando industrias y
transformando la manera en que interactuamos con la tecnología.
Sin embargo, a medida que estos modelos se vuelven más
sofisticados, surge una preocupación creciente sobre los riesgos
legales, éticos y normativos que presentan. Bo Li, profesor
asociado de la Universidad de Chicago y experto en pruebas de
estrés para modelos de IA, ha emergido como una voz clave en
este debate. Li y su equipo, que incluye a investigadores de
otras universidades, así como de Virtue AI y Lapis Labs, han
desarrollado una taxonomía de riesgos para la IA y un punto de
referencia que permite evaluar en qué medida los modelos de
lenguaje de gran tamaño (LLM) incumplen las normativas.
Necesidad de principios claros
para la seguridad de la IA Por ejemplo, el modelo Claude 3 Opus de Anthropic ha demostrado ser eficaz en evitar la generación de amenazas de ciberseguridad, mientras que el modelo Gemini 1.5 Pro de Google se destaca por su capacidad para evitar la generación de
|
desnudos sexuales no consentidos. Estos hallazgos son vitales para las empresas que buscan desplegar IA en entornos donde la seguridad y el cumplimiento normativo son esenciales.
Sin embargo, no todos los modelos han mostrado resultados positivos. El modelo DBRX Instruct, desarrollado por Databricks, obtuvo la peor puntuación en todas las categorías evaluadas. A pesar de que Databricks afirmó en su lanzamiento que seguiría mejorando las características de seguridad de su modelo, los resultados indican que queda mucho por hacer.
Es importante destacar que ni Anthropic, Google, ni Databricks respondieron a las solicitudes de comentarios sobre estos hallazgos, lo que deja en el aire cómo planean abordar las deficiencias identificadas.
Importancia de evaluar los pros y contras de
los modelos de IA
Li también ha señalado que el análisis de su
equipo ha revelado diferencias significativas entre las normativas
gubernamentales y las políticas internas de las empresas. En muchos casos, las
normativas gubernamentales son menos exhaustivas que las políticas corporativas,
lo que sugiere que hay margen para endurecer la regulación.
|
|||||
![]()
|
Página 13 |
© 2020-2024 - Noticias5 - La idea y concepto de este periódico fue hecho en Online Periodical Format© (OPF) es un Copyright de ZahurK. Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK
|