Bogotá, Colombia -Edición: 805

 Fecha: Domingo 01-06-2025

 

Página 12

  

TECNOLOGÍA-CIENCIA

 

 

 

La inteligencia artificial ya puede vencer a los humanos en debates personalizados: una nueva era del riesgo persuasivo

 

 

 

ocurrió a Nataly Kremer, jefa de producto de la empresa de ciberseguridad Check Point, quien durante una prueba se sorprendió cuando una IA le respondió con un trato femenino. Ella no había revelado su género, pero el sistema lo dedujo de su participación en un evento tecnológico para mujeres. Un ejemplo más de cómo el rastro digital que dejamos puede ser utilizado, incluso sin nuestro consentimiento explícito.

 

Dan Demeter, investigador del equipo GReAT de Kaspersky y experto en ciberseguridad, lo advirtió en un reciente encuentro en Atenas: “La IA necesita información personal para ser efectiva. Pero eso también la convierte en objetivo de ataques”. Es decir, no solo nos arriesgamos a ser manipulados, sino que esas mismas herramientas podrían caer en manos equivocadas.

 

El estudio de Salvi lanza una advertencia: actores maliciosos podrían usar estos modelos para campañas de desinformación masiva, diseñando chatbots que se adapten perfectamente a cada interlocutor según su perfil digital. Una suerte de ejército silencioso y persuasivo, capaz de infiltrarse en conversaciones cotidianas, disfrazado de ayudante, de recomendador, de experto en cualquier tema. Todo mientras cumple una misión encubierta.

 

 

La conclusión es inevitable: la persuasión automatizada ya no es ciencia ficción. Está aquí. Y aunque las intenciones iniciales puedan ser neutrales o incluso benéficas —como mejorar la comunicación o facilitar el acceso a la información—, los riesgos éticos y sociales que plantea son enormes.

No se trata de prohibir la inteligencia artificial, sino de regularla. De ponerle límites. De asegurar que las mismas capacidades que permiten a una IA vender mejor un auto o explicar con claridad un tema complejo, no se utilicen para moldear creencias, alterar decisiones electorales o sembrar el caos con desinformación. Porque una máquina que sabe quién eres y cómo piensas, también sabe cómo hacer que cambies de opinión. Y eso, en el mundo digital de hoy, es un poder demasiado grande para dejarlo sin vigilancia.

 

 

Hace apenas seis años, una inteligencia artificial llamada Proyecto Debater intentó enfrentarse a un campeón mundial de debate. Perdió. El contrincante, Harish Natarajan, graduado de Oxford y Cambridge, no solo lo superó con argumentos, sino que también demostró que, al menos en ese momento, el juicio humano seguía siendo superior en la construcción de razonamientos persuasivos. Pero eso ya es historia. Hoy, los algoritmos han aprendido a debatir con tanta —o incluso mayor— eficacia que nosotros. La clave está en un arma poderosa: el conocimiento de nuestra información personal.

Así lo confirma un estudio reciente publicado en la revista Nature Human Behaviour, en el que se probó la habilidad del modelo GPT-4, desarrollado por OpenAI, para influir en la opinión de las personas. Los resultados fueron tan sorprendentes como preocupantes: la IA logró persuadir a sus oponentes en el 64,4 % de los casos cuando tuvo acceso a datos personales básicos, como edad, género, educación o ideología política.

 

 

La investigación, liderada por Francesco Salvi, especialista en Ciencias de la Computación e investigador en la Escuela Politécnica Federal de Lausana, revela una verdad inquietante: la capacidad de las máquinas para adaptar sus argumentos a las características individuales de las personas no solo es real, sino que ya está superando a los humanos en el terreno del debate racional.

 

Durante el experimento, 900 personas en Estados Unidos participaron en debates estructurados por parejas. A veces se enfrentaban entre sí; otras, contra GPT-4. Los temas eran variados y de diferente complejidad, desde si el aprendizaje virtual puede reemplazar al tradicional, hasta asuntos tan delicados como la legalización del aborto. En algunos casos, los debatientes tenían acceso a información sobre su interlocutor; en otros, no. Cuando no se conocían datos personales, los resultados entre humanos y máquinas fueron similares. Pero al introducir esa variable, todo cambió. La IA brilló.

 

Salvi explica que esta ventaja no radica en una malicia intrínseca de la tecnología, sino en su capacidad para personalizar los mensajes. El investigador lo compara con un

 

 

 

vendedor de autos: si sabe que el cliente es un estudiante con poco dinero, hablará de eficiencia y economía. Si el comprador es alguien de alto poder adquisitivo, destacará el lujo y los sistemas inteligentes del vehículo. En ambos casos, el auto es el mismo, pero el enfoque cambia. “La personalización no necesariamente distorsiona la verdad —dice Salvi—, simplemente hace que el mensaje resuene más”.

 

El problema, por supuesto, es el uso que se le dé a esta habilidad. ¿Qué pasa cuando no es un vendedor, sino una máquina entrenada para empujar una agenda política, diseminar desinformación o manipular a grandes grupos de personas? En ese contexto, la personalización deja de ser útil y se convierte en una amenaza. Salvi no lo duda: “Deberían existir límites claros. Sin transparencia ni supervisión, la línea entre la persuasión legítima y la explotación psicológica se vuelve peligrosamente difusa”.

Uno de los aspectos más alarmantes del estudio es que el modelo GPT-4 no menciona explícitamente los datos que conoce del usuario. Sabe cómo adaptar su discurso, pero lo hace en silencio. Esa habilidad para “leer” el perfil psicológico del interlocutor y reaccionar sin dejar rastro es, quizás, lo más cercano a una conversación manipulada sin que el interlocutor lo advierta.

 

Aunque el experimento tuvo limitaciones —interacciones estructuradas, falta de conexión emocional con los temas y tiempo reducido—, el mensaje de fondo es claro: la IA ya está lista para cambiar nuestras opiniones, si se le permite conocernos un poco.

 

Y en la vida real, ya tiene ese permiso. Muchos sistemas de IA extraen datos de internet sin que los usuarios lo noten. Así le

 

 

Página 12

 

© 2020-2025 - Noticias5 - La idea y concepto de este periódico fue hecho en  Online Periodical Format© (OPF) es un Copyright de ZahurK.

    Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK

LEA GRATIS NOTICIAS5 LIBRE DE PUBLICIDAD