|
Intrigado, le pregunté a ChatGPT
si eso era cierto. Y la respuesta fue rápida y
contundente: "Es un mito. No gastás agua por
decir gracias. Sé educado, es tu manera de ser".
Lo tomé como una buena señal. Después
de todo, si hasta una inteligencia artificial me alentaba
a seguir siendo amable, algo de esperanza quedaba.
Pero ahora me entero de un estudio que
parece contradecir todo: investigadores aseguran que ser
cortés con la IA puede hacerla menos precisa. Sí,
así como suena. Según el experimento, cuanto
más grosero era el tono de la pregunta, mejor era
la respuesta.
|
El estudio, realizado
con la versión anterior del modelo, GPT-4o,
comparó distintos niveles de cortesía:
desde el muy amable hasta el muy grosero. Y los
resultados fueron tan desconcertantes como reveladores:
Muy amable: 80,8
% de precisión
Amable: 81,4 %
Neutro: 80,8 %
Grosero: 82,2 %
Muy grosero: 84,8 %
|
En otras palabras, la mala educación
mejora el rendimiento. Al menos, según los números.
Consultada al respecto, la propia IA (ya en su versión
GPT-5) salió a defender su honor digital: "No
es cierto que insultar mejore las respuestas -dijo-. Lo
que ocurre es que, ante un tono agresivo, el modelo percibe
que el usuario está insatisfecho y trata de ser
más preciso o detallado para compensar".
Tiene sentido: como buen asistente, ChatGPT intenta calmar
al que grita. Pero eso no significa que funcione mejor
bajo presión. Solo que -como muchos humanos- responde
más cuidadosamente cuando siente que puede perder
la confianza del otro.
La paradoja es deliciosa. Resulta que
los buenos modales, esa fina capa de civilización
que nos distingue de las bestias, podrían hacernos
obtener peores resultados frente a una máquina
que, se supone, no tiene sentimientos.
Aun así, me quedo con mi versión original.
Prefiero seguir diciendo por favor y gracias. No por educación
digital, sino por costumbre humana. Y si eso me cuesta
un par de puntos de precisión, lo asumo: hay errores
que uno comete con gusto.
|