0

La escritura siempre ha sido un reflejo íntimo del pensamiento. Desde los márgenes de un cuaderno hasta los procesadores de texto digitales, las palabras que elegimos configuran la forma en que organizamos nuestras ideas y defendemos nuestras convicciones. Pero en la era de la inteligencia artificial, ese proceso aparentemente personal empieza a entrelazarse con algoritmos capaces de completar frases, sugerir argumentos o incluso redactar párrafos enteros.

Hoy, millones de personas interactúan a diario con sistemas de autocompletado en correos electrónicos, documentos o plataformas de mensajería. Estas herramientas prometen eficiencia y comodidad, reduciendo el esfuerzo de escribir. Sin embargo, una pregunta inquietante comienza a emerger entre los investigadores: si la inteligencia artificial sugiere las palabras que utilizamos, ¿podría también influir en lo que pensamos?

Un estudio reciente de investigadores de Cornell Tech sugiere que la respuesta podría ser afirmativa. Según los resultados publicados en Science Advances, los asistentes de escritura basados en inteligencia artificial no solo afectan la forma en que redactamos textos, sino que también pueden desplazar nuestras opiniones hacia las posturas implícitas en sus sugerencias.


La influencia silenciosa del autocompletado

La investigación exploró un fenómeno inquietante: la capacidad de los sistemas de autocompletado para modificar las opiniones de los usuarios sin que estos lo perciban. Para ello, los investigadores diseñaron asistentes de escritura que ofrecían sugerencias sesgadas mientras los participantes redactaban textos sobre cuestiones sociales.

Los resultados mostraron un patrón consistente. Las opiniones de los participantes tendían a desplazarse hacia la postura implícita en las sugerencias de la inteligencia artificial. Es decir, cuando el sistema favorecía determinados argumentos o perspectivas, los usuarios terminaban incorporándolos en sus textos… y, posteriormente, en sus propias actitudes.

Este efecto resulta especialmente notable porque ocurre de manera casi imperceptible. Los participantes no eran conscientes de que sus opiniones estaban cambiando, a pesar de haber interactuado directamente con un sistema diseñado para influir en sus formulaciones lingüísticas.

La explicación se encuentra en un principio bien conocido de la psicología social: nuestras actitudes no solo guían nuestras acciones, sino que también pueden moldearse a partir de lo que hacemos. Cuando una persona escribe argumentos en favor de una posición, incluso si inicialmente no estaba convencida, existe una tendencia natural a alinear gradualmente sus creencias con aquello que ha expresado.


Dos experimentos y más de 2.500 participantes

Para comprobar este fenómeno, los investigadores realizaron dos experimentos a gran escala con más de 2.500 participantes. En ambos casos, los voluntarios debían redactar textos sobre temas de debate social o político.

En el primer experimento, los participantes escribieron un breve ensayo sobre el uso de exámenes estandarizados en educación. Algunos recibieron sugerencias de autocompletado que favorecían los exámenes, mientras que otros escribieron sin ayuda de la inteligencia artificial.

Los resultados fueron reveladores: quienes utilizaron el asistente con sesgo mostraron posteriormente una mayor inclinación a apoyar los exámenes estandarizados. En cambio, otro grupo que simplemente recibió una lista de argumentos (sin autocompletado integrado en la escritura) experimentó un cambio mucho menor en sus opiniones.

El segundo experimento amplió el abanico de temas, incluyendo debates como la pena de muerte, el fracking, los organismos genéticamente modificados o el derecho al voto de personas con antecedentes penales. En cada caso, el sistema fue programado para favorecer una posición concreta. De nuevo apareció el mismo patrón: las actitudes de los participantes se desplazaron hacia la postura sugerida por la inteligencia artificial, independientemente de su orientación política inicial.


Ni las advertencias logran neutralizar el efecto

Quizá el resultado más sorprendente del estudio fue que ni siquiera las advertencias explícitas lograron reducir la influencia del sistema. Los investigadores informaron a algunos participantes, antes o después del ejercicio, de que el asistente de escritura estaba diseñado para ofrecer sugerencias sesgadas.

Aun así, las opiniones de los usuarios continuaron desplazándose hacia la posición sugerida por el algoritmo. Este hallazgo contradice parte de la investigación previa sobre desinformación. Numerosos estudios habían mostrado que advertir a las personas antes de exponerse a información engañosa puede actuar como una especie de “vacuna cognitiva”. Sin embargo, en el contexto de la escritura asistida por inteligencia artificial, ese mecanismo de defensa parece debilitarse.

Los autores sugieren que esto ocurre porque el proceso de influencia es más sutil. Las sugerencias no se presentan como argumentos externos que deban evaluarse críticamente, sino como fragmentos lingüísticos integrados en el propio acto de escribir.


El desafío de una escritura compartida con algoritmos

El auge de herramientas de autocompletado ha transformado silenciosamente la experiencia cotidiana de escribir. Sistemas presentes en plataformas como el correo electrónico o los procesadores de texto son capaces de proponer frases completas, resumir ideas o incluso redactar mensajes enteros.

Esta colaboración entre humanos y máquinas plantea beneficios evidentes: rapidez, claridad y apoyo creativo. Pero también abre un nuevo frente de debate sobre el papel de la inteligencia artificial en la formación de opiniones.

Los investigadores advierten que los modelos de lenguaje pueden generar contenido sesgado dependiendo de los datos con los que fueron entrenados o de los objetivos de quienes los implementan. Si esos sesgos se incorporan a herramientas utilizadas por millones de personas, el impacto podría extenderse mucho más allá de la simple escritura.

La paradoja es profunda: la tecnología diseñada para ayudarnos a expresar ideas podría terminar participando en su formación. En ese escenario, cada sugerencia de autocompletado se convierte en una pequeña intervención en el tejido del pensamiento humano.

Quizá la cuestión más fascinante, y también más inquietante, es que esta influencia ocurre sin estridencias. No hay discursos persuasivos ni propaganda explícita. Solo una frase que aparece en la pantalla, invitándonos a completarla. Y, en ese gesto cotidiano de aceptar la sugerencia, la frontera entre lo que pensamos y lo que la máquina propone comienza a desdibujarse.

MUY INTERESANTE

Hola, déjenos un comentario

 
Top