Uncategorized

Cómo saber cuando estás hablando con una IA

Hablar con un modelo de lenguaje extenso (LLM), como ChatGPT, Claude o Copilot, no se siente igual que conversar con un humano. Salvo ciertos contextos específicos diseñados para superar la prueba de Turing, las conversaciones casuales con inteligencias artificiales (IA) aún no son convincentes. Este fenómeno no está relacionado con su habilidad cogntiva, capaz de vencer en cualquier torneo mundial de matemáticas. El origen de este defecto está ahora más claro: las IA repiten demasiado ciertas palabras, mantienen un tono excesivamente formal, se despiden mal y no dominan los microgestos conversacionales que hacen fluir la charla.

Un equipo de la Universidad Noruega de Ciencia y Tecnología analizó cómo se comunican las principales IA actuales para identificar qué provoca esa sensación de falsedad. Los resultados publicados en la revista PubMed Central son contundentes: las conversaciones habladas con un LLM son cualitativa y cuantitativamente diferentes a las de los humanos.

Alineación exagerada

En una conversación natural, los interlocutores suelen alinear palabras y temas para crear una sincronía sutil que refuerza la empatía. El reporte descubrió que las IA explotan en exceso ese recurso y rompen el equilibrio implícito entre dos personas. “Los modelos de lenguaje extenso están demasiado ansiosos por imitarnos. Y esa imitación exagerada es algo que los humanos pueden sentir”, explicó Lucas Bietti, coautor del artículo, en un comunicado de la universidad.

Chatbots como ChatGPT, Claude o Copilot caen con frecuencia en esta “alineación exagerada”, lo que impide que un tema se agote de manera natural.


Brassiere y teléfono sobre la cama

Sam Altman prevé la disponibilidad de conversaciones más picantes a finales de año, pero solo si el usuario lo solicita y se verifica.


No saben usar palabras de relleno

Aunque expresiones como “este” “así”, “bueno”, “ya sabes” u “okay” son mal vistas en una conversación por considerarse palabras sin propósito, funcionan como marcadores de discurso. En una plática cotidiana, señalan interés, dominio del tema, estado de ánimo o incluso anuncian el final de un mensaje.

Los LLM todavía no entienden ese uso. Si bien emplean dichas expresiones, lo hacen con frecuencia anómala y fuera de contexto, lo que distorsiona su propósito social. Para ellos, los marcadores de discurso son simples patrones aprendidos, y por eso no suenan naturales. “Los modelos de lenguaje extenso siguen siendo terribles para usar estas palabras”, resumió la universidad.

Inquietantemente formales

Una persona sabe que no siempre necesita saludar para iniciar una conversación, ni despedirse con un “adiós” para cerrarla. Las IA, en cambio, producen frases de apertura rígidas y uniformes: casi todas incluyen saludos, presentaciones, preguntas como “¿cómo estás?” y expresiones de agrado por conocer al interlocutor.

Esa rigidez muestra que los chatbots no adaptan sus respuestas al contexto, sino que siguen fórmulas aprendidas sin comprender la intención social detrás de cada gesto. También revela que tienen dificultades para cambiar de fase en la conversación.

Lo mismo ocurre con los cierres: los LLM suelen exagerar con buenos deseos y despedidas elaboradas. Este estilo no refleja la economía emocional ni la negociación implícita que caracterizan a las despedidas humanas.

“Todavía no pueden hablar como nosotros”

Bietti afirma que los grandes modelos de lenguaje de hoy en día aún no son capaces de hablar lo suficientemente bien como para engañarnos constantemente. Sin embargo, se acercarán peligrosamente ello en unos cuantos años con el avance tecnológico y la afinación en la recolección de datos. El investigador advierte que las diferencias clave, como la alineación exagerada y la falta de contexto, permanecerán como deficiencias en los LLM durante mucho tiempo.