Investigadores que analizaron si el llamado “pensamiento positivo” mejoraba el desempeño de los chatbots de inteligencia artificial obtuvieron resultados inesperados. Al elogiar a los modelos, animarlos a “pensar con cuidado” o cerrar preguntas con frases entusiastas, no encontraron mejoras significativas. Sin embargo, una estrategia sobresalió: al pedirle a una IA que fingiera estar dentro del universo de Star Trek, su desempeño en matemáticas básicas mostró una ligera mejora, avivando el debate sobre la ingeniería de indicaciones.
La llamada ingeniería de indicaciones o ingeniería de contexto reúne múltiples prácticas que los usuarios emplean para intentar obtener mejores respuestas de los grandes modelos de lenguaje, tecnología que sustenta herramientas como ChatGPT. Entre estas estrategias figuran la cortesía extrema, las amenazas, la adulación o el uso de juegos de rol. No obstante, especialistas en inteligencia artificial advierten que muchas de estas creencias populares carecen de sustento científico e incluso pueden resultar contraproducentes.
De acuerdo con Jules White, profesor de informática en la Universidad de Vanderbilt, no existen palabras mágicas que garanticen respuestas más precisas. Lo relevante no es la forma emocional del mensaje, sino la claridad con la que se expresa la tarea. Los modelos de lenguaje procesan las indicaciones dividiéndolas en fragmentos llamados tokens y generan respuestas a partir de probabilidades estadísticas, lo que vuelve impredecible el efecto de pequeños cambios como el uso de cortesía, amenazas o halagos.
Estudios recientes han arrojado resultados contradictorios sobre este tema. Mientras una investigación de 2024 señaló que las preguntas formuladas de manera educada obtenían respuestas ligeramente mejores, otros análisis no encontraron diferencias concluyentes. Además, las constantes actualizaciones de los modelos de inteligencia artificial hacen que muchas técnicas queden rápidamente obsoletas. Especialistas coinciden en que los modelos actuales son más robustos y capaces de identificar los elementos clave de una instrucción sin dejarse influir de forma consistente por el tono emocional.
Ante este panorama, los expertos recomiendan tratar a la inteligencia artificial como una herramienta y no como un ser humano. Estrategias como pedir múltiples opciones, proporcionar ejemplos claros, solicitar que la IA haga preguntas antes de responder, evitar juegos de rol en tareas con una sola respuesta correcta y mantener neutralidad en las indicaciones pueden marcar la diferencia. Más allá de si decir “por favor” o “gracias” mejora la precisión, varios investigadores coinciden en que la claridad, el contexto y la estructura de la solicitud siguen siendo los factores más importantes para obtener resultados útiles y eficientes.