Por Agencia
Desde que ChatGPT se popularizó en noviembre de 2022, la interacción con chatbots de inteligencia artificial se ha incorporado a nuestra vida diaria como un nuevo hábito. La tecnología que está detrás de su funcionamiento, tanto en el sistema de OpenAI como en los demás, son los modelos matemáticos que aprenden de grandes cantidades de datos (LLM, por sus siglas en inglés) para generar la respuesta más probable.
Conocemos cómo funciona la tecnología, pero todo es tan reciente que aún desconocemos su impacto en nuestro cerebro al utilizarla. Los investigadores comienzan a buscar respuestas. Ahora, tres científicos de la Universidad del Sur de California han publicado un artículo en la revista ‘Trends in Cognitive Sciences’ de Cell Press con una inédita perspectiva interdisciplinar.
Estudio interdisciplinario sobre el uso de chatbots
El enfoque informático lo aportó Zhivar Sourati, autor principal del estudio e integrante del Departamento de Ciencias de la Computación. Como argumenta en el estudio, los LLM funcionan prediciendo el siguiente token con un contexto precedente y un objetivo en base a enfoques previos. Esto permite dar la respuesta precisa sobre hechos comprobables (por ejemplo, ¿cuánto mide la Sagrada Familia?). Sin embargo, los investigadores describen que este proceso lleva a una homogeneización del estilo lingüístico, perspectiva y estrategias de razonamiento.
“Dado que los LLM están entrenados para capturar y reproducir regularidades estadísticas, en sus datos de entrenamiento, que a menudo sobrerrepresentan los idiomas e idologías dominantes, sus resultados a menudo reflejan una porción estrecha y sesgada de la experiencia humana”, dice Sourati.
La perspectiva informática se combina con la psicológica en el estudio. La utilización de LLM para tareas de redacción, ideas y toma de decisiones produce una “homogeneización estilística y conceptual, al tiempo que restan importancia a las voces alternativas”, como describen en el estudio. La muestra que han estudiado son múltiples trabajos de maestría, donde vieron cómo los LLM refuerzan los estilos dominantes.
El ‘aplanamiento’ de las ideas
La consecuencia es que las opiniones alternativas cada vez estarán más subrepresentadas, se produce una estandarización del lenguaje y se amplifica una convergencia. ¿Por qué esto sería un problema? “Si no se controla, se corre el riesgo de aplanar los paisajes cognitivos que impulsan la inteligencia colectiva y la adaptabilidad”, advierten los investigadores.
La diversidad cognitiva es rica y se basa en la cultura, la historia y la experiencia individual, que es “vital para la creatividad humana y la resolución de problemas”. La idea de homogeneización, había estado en estudio previamente con la IA de las redes sociales. El periodista Kyle Cheyka fue uno de los primeros en hablar del “aplanamiento de la cultura”, ya que las recomendaciones de los algoritmos promueven contenidos similares a lo que funciona, priorizan lo popular y lo fácil de consumir.
Los investigadores de la Universidad del Sur de California sugieren que los desarrolladores de IA deberían incorporar una mayor diversidad en el entrenamiento de nuevos modelos para preservar la diversidad y mejorar la capacidad de razonamiento de los chatbots.