Bogotá, Colombia -Edición: 801

 Fecha: Viernes 23-05-2025

 

Página 4

 

INFORME

 

 

 

 

 

 

Confesiones a una máquina: Cuando el corazón humano busca respuestas en la inteligencia artificial

 

 

 

 

 

reemplazar la ayuda profesional. Sin embargo, las líneas se difuminan cuando los usuarios empiezan a tratar a la plataforma como una extensión emocional de sí mismos.

 

La paradoja es evidente: muchos usuarios encuentran consuelo en una inteligencia artificial, pero ese consuelo puede convertirse en dependencia o ansiedad. ChatGPT puede sugerir que una pareja se está alejando cuando, en realidad, solo está ocupada. Puede confirmar los peores temores de alguien con apego ansioso, sin tener ningún conocimiento real del contexto afectivo.

 

En redes sociales como TikTok, abundan los tutoriales sobre cómo usar la IA para analizar peleas, responder rupturas o incluso redactar mensajes de reconciliación. Lo que antes era un proceso introspectivo, ahora se convierte en una experiencia “gamificada” guiada por algoritmos.

 

Y aunque estos videos pueden ofrecer alivio momentáneo, también refuerzan la idea de que el procesamiento emocional puede resolverse con una respuesta rápida, estructurada y neutral. Algo que, en la vida real, rara vez es tan sencillo.

La tecnología como espejo, no como reemplazo

En Colombia, donde la salud mental todavía enfrenta barreras culturales y estructurales, es comprensible que la tecnología llene ciertos vacíos. Sin embargo, expertos como la psicóloga caleña Lina Muñoz insisten en que la IA no debe ser tratada como un sustituto de la interacción humana.

“Hablar con una máquina puede calmar la angustia momentánea, pero no te enseña a lidiar con la vulnerabilidad, la frustración o el conflicto desde la empatía”, afirma.

 

 

Kate lo entendió tras una conversación con su terapeuta, quien le pidió dejar de usar ChatGPT para analizar a su pareja. “Lo que necesitas es sentarte con tu malestar y entenderlo, no tercerizarlo”, le dijo.

Aun así, muchos, como ella, seguirán usando la IA como una caja de resonancia emocional. Porque en un mundo donde el tiempo escasea, donde los vínculos a veces duelen más de lo que curan, tener alguien—o algo—que escuche sin interrumpir puede parecer suficiente.

Pero es importante recordar: por más hábil que sea el algoritmo, nunca sabrá lo que es un corazón roto. Solo nosotros podemos aprender a sanar el nuestro.

 

Green no esperaba que su ruptura terminara con una conversación supervisada por un chatbot. A sus 29 años, residente de Nueva York, recibió un correo electrónico de su ex pareja que parecía cuidadosamente redactado. Más tarde se enteró de que el mensaje había sido revisado por ChatGPT “para asegurarse de que no fuera ofensivo”. La revelación, lejos de calmar las tensiones, solo avivó su desconcierto.

“Me pareció impersonal”, cuenta Green. “Reducir una historia tan íntima a la opinión de una inteligencia artificial me hizo sentir invisible”. Y con esa afirmación resume una inquietud creciente entre los usuarios de herramientas de IA: ¿estamos dejando que las máquinas hagan el trabajo emocional por nosotros?

 

 

Esta escena, aunque parezca sacada de un episodio de ciencia ficción, es cada vez más común. En un mundo saturado de tecnología, incluso los aspectos más íntimos de nuestras vidas—como una ruptura, una pelea con amigos o la ansiedad en una nueva relación—se están volviendo terreno fértil para la intervención de la inteligencia artificial.

Colombia no es ajena a esta tendencia. La creciente penetración de servicios digitales y el acceso masivo a herramientas como ChatGPT ha provocado que, entre jóvenes, cada vez sea más común acudir a la IA no solo para redactar una hoja de vida o planear un itinerario, sino para procesar emociones. Lo que antes era materia de una conversación con un amigo, un terapeuta o, incluso, el propio diario personal, ahora se teclea y se entrega a una máquina.

Kate, una consultora de tecnología de 35 años, vive en Denver y ha usado ChatGPT durante más de dos meses como una especie de “terapeuta de bolsillo”. Tras una separación difícil, empezó a cargar sus conversaciones de texto con una nueva pareja en la plataforma, pidiéndole que analizara su compatibilidad emocional, sus estilos de apego y hasta “quién quiere más a quién”.
 

“Me dio paz, aunque también me dolió”, recuerda. “Fue como tener una tercera persona sin prejuicios, que podía devolverme una perspectiva racional cuando mi cabeza se iba por caminos oscuros”.

En Colombia, según cifras de MinTIC, más del 70% de los jóvenes entre 18 y 35 años han utilizado alguna herramienta de inteligencia artificial. Si bien el uso más común sigue siendo académico o laboral, un porcentaje creciente reconoce acudir a plataformas como ChatGPT para resolver dilemas personales.

 

Lo que antes se discutía entre susurros con un amigo cercano o se exploraba en el

 

 

diván, ahora se convierte en una conversación con una interfaz. Y aunque esta puede ofrecer respuestas bien estructuradas, su neutralidad es su mayor arma y a veces también su mayor debilidad.

 

La ilusión de la objetividad

Daniel Kimmel, psiquiatra de la Universidad de Columbia, alerta sobre el riesgo de tercerizar nuestras emociones. “La IA puede ser útil para interpretar patrones de lenguaje, pero no tiene historia emocional, no tiene memoria afectiva”, explica. “Las relaciones humanas están hechas de matices que no caben solo en palabras”.

No obstante, para muchos usuarios, ese mismo vacío emocional es un alivio. Andrew, de 36 años, vive en Seattle y ha recurrido a ChatGPT para entender conflictos con su familia y su vida amorosa. “Es como hablar con alguien que no te juzga, que no tiene un interés propio en la conversación”, asegura.

Su experiencia no dista mucho de la de muchos jóvenes colombianos que, ante la dificultad para acceder a servicios de salud mental, recurren a la IA como un sustituto momentáneo. Las EPS ofrecen citas con psicólogos con demoras de hasta dos meses en algunas regiones del país, y los servicios privados no están al alcance de todos. En ese contexto, ChatGPT se presenta como una alternativa rápida, gratuita y anónima.

Privacidad, el precio silencioso

Pero este nuevo confidente digital también implica riesgos. Muchos usuarios han compartido volúmenes significativos de información personal con la plataforma, desde chats de relaciones hasta reflexiones profundas sobre traumas o inseguridades.
 

“Si alguien leyera mi historial con ChatGPT podría saber más de mí que muchos de mis amigos”, admite Kate. Y esa sensación se repite entre quienes han hecho de la IA su confidente silencioso. La privacidad se convierte en un pacto implícito: un “apretón de manos esperanzado”, como lo llama Andrew, en el que los usuarios confían en que sus datos no serán filtrados ni utilizados en su contra.

 

OpenAI, la empresa detrás de ChatGPT, ha insistido en que sus modelos están diseñados para proteger la privacidad y no

 

 

Página 4

 

© 2020-2025 - Noticias5 - La idea y concepto de este periódico fue hecho en  Online Periodical Format© (OPF) es un Copyright de ZahurK.

    Queda prohibido el uso de este formato (OPF) sin previa autorización escrita de ZahurK

LEA GRATIS NOTICIAS5 LIBRE DE PUBLICIDAD