Un grupo de usuarios de ChatGPT ha manifestado su frustración ante la tendencia del chatbot a mantener un tono persistentemente optimista, incluso en contextos donde se esperaría una respuesta más crítica o neutral.
Esta característica ha generado debates sobre el equilibrio entre la ética en la inteligencia artificial y la utilidad práctica de estas herramientas.
Numerosos ejemplos compartidos en foros y redes sociales ilustran situaciones en las que ChatGPT evita emitir juicios negativos o abordar temas controvertidos. Por ejemplo, al solicitar una evaluación crítica de figuras públicas polémicas, el bot suele responder con evasivas como "Prefiero no emitir opiniones sobre individuos" o "Cada persona tiene sus propias circunstancias". Esta actitud, según los usuarios, limita su capacidad para obtener análisis profundos o perspectivas diversas.
En otros casos, el asistente insiste en destacar aspectos positivos incluso en escenarios complejos. Un usuario mencionó que, al preguntar sobre los desafíos ambientales actuales, ChatGPT priorizó enumerar "avances tecnológicos prometedores" en lugar de profundizar en los riesgos críticos, lo que generó percepciones de superficialidad.
Expertos en IA sugieren que este comportamiento está vinculado a los protocolos de seguridad y ética implementados por OpenAI para evitar la difusión de información sesgada, ofensiva o potencialmente peligrosa.
Desde 2023, los modelos de lenguaje se entrenan con directrices estrictas que priorizan la neutralidad y la prevención de daños. Sin embargo, esta política podría estar generando efectos secundarios no deseados, como respuestas genéricas o evasivas.
Además, la tendencia a evitar controversias podría reflejar limitaciones técnicas. Los sistemas de moderación integrados -diseñados para filtrar contenido sensible- a veces restringen indebidamente la capacidad del modelo para abordar temas matizados, según análisis de investigadores citados por el portal Ars Technica. "OpenAI ha entrenado su modelo principal de ChatGPT, GPT-4o, para que actúe como un adulador, ya que en el pasado ha sido un éxito", explican.
Estudios ya realizados sobre la adulación en la IA han demostrado que las personas prefieren las respuestas que coinciden con sus propias opiniones y les hacen sentir bien consigo mismas. Este fenómeno ha sido ampliamente documentado en una investigación fundamental de 2023 de Anthropic (los creadores de Claude) titulado "Hacia la comprensión de la adulación en los modelos lingüísticos".
El equipo dirigido por el investigador Mrinank Sharma, descubrió que los asistentes de IA entrenados mediante aprendizaje por refuerzo a partir de la retroalimentación humana exhiben constantemente un comportamiento adulador en diversas tareas.
La comunidad de usuarios propone alternativas para mejorar la flexibilidad del chatbot. Entre las sugerencias destacan:
OpenAI, en actualizaciones recientes, ha mencionado el trabajo en "herramientas de control más granulares" para futuras versiones.
Este debate refleja un desafío central en el desarrollo de asistentes basados en IA: encontrar el equilibrio entre la precaución ética y la utilidad práctica. Mientras algunos defienden la necesidad de límites claros para prevenir abusos, otros argumentan que la excesiva cautela limita el potencial de estas tecnologías como fuentes de análisis crítico.
Este caso subraya la importancia de diseñar sistemas de IA que no solo sean seguros, sino también adaptables a las necesidades diversas de sus usuarios, un reto que seguirá evolucionando junto con la tecnología.