Bogotá, Colombia -Edición: 805 Fecha: Domingo 01-06-2025 |
![]() |
Página 12 |
|
TECNOLOGÍA-CIENCIA |
|||
|
|
La inteligencia artificial ya puede vencer a los humanos en debates personalizados: una nueva era del riesgo persuasivo
|
|||||
|
ocurrió a Nataly Kremer, jefa de producto de la empresa de ciberseguridad Check Point, quien durante una prueba se sorprendió cuando una IA le respondió con un trato femenino. Ella no había revelado su género, pero el sistema lo dedujo de su participación en un evento tecnológico para mujeres. Un ejemplo más de cómo el rastro digital que dejamos puede ser utilizado, incluso sin nuestro consentimiento explícito.
Dan Demeter, investigador del equipo GReAT de Kaspersky y experto en ciberseguridad, lo advirtió en un reciente encuentro en Atenas: “La IA necesita información personal para ser efectiva. Pero eso también la convierte en objetivo de ataques”. Es decir, no solo nos arriesgamos a ser manipulados, sino que esas mismas herramientas podrían caer en manos equivocadas.
El estudio de Salvi lanza una advertencia: actores maliciosos podrían usar estos modelos para campañas de desinformación masiva, diseñando chatbots que se adapten perfectamente a cada interlocutor según su perfil digital. Una suerte de ejército silencioso y persuasivo, capaz de infiltrarse en conversaciones cotidianas, disfrazado de ayudante, de recomendador, de experto en cualquier tema. Todo mientras cumple una misión encubierta.
La conclusión es inevitable: la persuasión automatizada ya no es
ciencia ficción. Está aquí. Y aunque las intenciones iniciales puedan ser
neutrales o incluso benéficas —como mejorar la comunicación o facilitar el
acceso a la información—, los riesgos éticos y sociales que plantea son enormes.
|
|||||
Hace apenas seis años, una inteligencia
artificial llamada Proyecto Debater intentó enfrentarse a un
campeón mundial de debate. Perdió. El contrincante, Harish
Natarajan, graduado de Oxford y Cambridge, no solo lo superó con
argumentos, sino que también demostró que, al menos en ese
momento, el juicio humano seguía siendo superior en la
construcción de razonamientos persuasivos. Pero eso ya es
historia. Hoy, los algoritmos han aprendido a debatir con tanta
—o incluso mayor— eficacia que nosotros. La clave está en un
arma poderosa: el conocimiento de nuestra información personal.
La investigación, liderada por Francesco Salvi, especialista en Ciencias de la Computación e investigador en la Escuela Politécnica Federal de Lausana, revela una verdad inquietante: la capacidad de las máquinas para adaptar sus argumentos a las características individuales de las personas no solo es real, sino que ya está superando a los humanos en el terreno del debate racional.
Durante el experimento, 900 personas en Estados
Unidos participaron en debates estructurados por parejas. A
veces se enfrentaban entre sí; otras, contra GPT-4. Los temas
eran variados y de diferente complejidad, desde si el
aprendizaje virtual puede reemplazar al tradicional, hasta
asuntos tan delicados como la legalización del aborto. En
algunos casos, los debatientes tenían acceso a información sobre
su interlocutor; en otros, no. Cuando no se conocían datos
personales, los resultados entre humanos y máquinas fueron
similares. Pero al introducir esa variable, todo cambió. La IA
brilló.
Salvi explica que esta ventaja no radica en una
malicia intrínseca de la tecnología, sino en su capacidad para
personalizar los mensajes. El investigador lo compara con un
|
vendedor de autos: si sabe que el cliente es un estudiante con poco dinero, hablará de eficiencia y economía. Si el comprador es alguien de alto poder adquisitivo, destacará el lujo y los sistemas inteligentes del vehículo. En ambos casos, el auto es el mismo, pero el enfoque cambia. “La personalización no necesariamente distorsiona la verdad —dice Salvi—, simplemente hace que el mensaje resuene más”.
El problema, por supuesto, es el uso que se le dé a esta
habilidad. ¿Qué pasa cuando no es un vendedor, sino una máquina entrenada para
empujar una agenda política, diseminar desinformación o manipular a grandes
grupos de personas? En ese contexto, la personalización deja de ser útil y se
convierte en una amenaza. Salvi no lo duda: “Deberían existir límites claros.
Sin transparencia ni supervisión, la línea entre la persuasión legítima y la
explotación psicológica se vuelve peligrosamente difusa”.
Aunque el experimento tuvo limitaciones —interacciones
estructuradas, falta de conexión emocional con los temas y tiempo reducido—, el
mensaje de fondo es claro: la IA ya está lista para cambiar nuestras opiniones,
si se le permite conocernos un poco.
Y en la vida real, ya tiene ese permiso. Muchos sistemas de IA
extraen datos de internet sin que los usuarios lo noten. Así le
|
|||||
![]()
|
Página 12 |
© 2020-2025 - Noticias5 - La idea y concepto de este periódico fue hecho en Online Periodical Format© (OPF) es un Copyright de ZahurK. Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK LEA GRATIS NOTICIAS5 LIBRE DE PUBLICIDAD
|