La IA nos está volviendo más tontos y flojos en el trabajo, revela estudio de Microsoft
Sigue acumulándose la evidencia científica que señala los numerosos riesgos de depender de forma excesiva en la inteligencia artificial (IA). El estudio más reciente indica que entre más confianza tengamos en las herramientas de la IA generativa para ser más productivo en el trabajo, mayor es la reducción en nuestra capacidad de pensar de manera crítica.
“Si se utilizan incorrectamente, las tecnologías pueden, y de hecho lo hacen, provocar el deterioro de facultades cognitivas que deberían preservarse”, señalan los autores en el artículo. “Una ironía clave de la automatización es que, al mecanizar las tareas rutinarias y dejar la gestión de excepciones en manos del usuario humano, se le priva de las oportunidades rutinarias para practicar su juicio y fortalecer su musculatura cognitiva”, lo que resulta en un aumento en la pereza intelectual del trabajador y una mayor incapacidad de resolver problemas en caso de situaciones excepcionales.
El estudio consistió de una encuesta a 319 trabajadores del conocimiento realizada por investigadores de Microsoft y la Universidad Carnegie Mellon. Los trabajadores del conocimiento (knowledge workers, en inglés) son aquellos trabajadores que, en lugar de desarrollar un oficio manual, dependen de sus conocimientos (educación, experiencia laboral) para desempeñarse como profesionistas en áreas como ingeniería, investigación, programación, derecho, arquitectura, medicina, asesoría financiera, etc.
En el cuestionario, los voluntarios tenían que dar tres ejemplos de cómo usan la IA generativa en su trabajo (como ChatGPT, Copilot, Gemini), y luego responder a una serie de preguntas sobre cómo aprovechaban la información brindada por estas herramientas. También les hicieron preguntas sobre cómo harían estas tareas sin el apoyo de la IA, y de la confianza en sus propias habilidades para resolver problemas y pensar críticamente. Alrededor del 70% de los voluntarios admitió no utilizar su pensamiento crítico en tareas de conocimiento, comprensión, aplicación, análisis y síntesis. Solo en tareas de evaluación hubo un mayor esfuerzo de razonamiento.
El trabajador humano: Orillado a checar que todo esté bien
«El pensamiento crítico en el trabajo del conocimiento implica diversas actividades cognitivas, como el análisis, la síntesis y la evaluación», indica el estudio sobre los resultados obtenidos. “Observamos que el uso de herramientas de GenAI [la IA generativa] modifica la percepción del esfuerzo de pensamiento crítico de los trabajadores del conocimiento de tres maneras. Específicamente, para la memorización y la comprensión, el enfoque se desplaza de la recopilación de información a la verificación de la misma. Para la aplicación, el énfasis se desplaza de la resolución de problemas a la integración de respuestas de IA. Por último, para el análisis, la síntesis y la evaluación, el esfuerzo se desplaza de la ejecución de tareas a la gestión de tareas”.
En otras palabras, el experto corre el riesgo de convertirse en un copy/paster profesional o, en el mejor de los casos, un verificador de datos (aunque es de notar que, según las percepciones de los voluntarios, la IA comete “pocos errores”). «Si bien la GenAI puede mejorar la eficiencia del trabajador, también puede inhibir el compromiso crítico con el trabajo y potencialmente conducir a una dependencia excesiva a largo plazo de la herramienta y a una disminución de la habilidad para la resolución independiente de problemas», concluyeron los investigadores.
En lugar de tratar de revertir o combatir esta tendencia, los investigadores prácticamente sugieren resignarse y capacitar a los profesionistas en estas nuevas tareas donde la aportación humana aún es requerida, como “en el desarrollo de habilidades de verificación de información, integración de respuestas y gestión de tareas”, claro, asegurando que no haya un olvido permanente de las habilidades que la IA va asumiendo.
Los resultados del estudio, los cuáles aún no han pasado por un proceso de revisión académica, serán presentados a finales de abril en CHI 2025 (Conference on Human Factors in Computing Systems), evento organizado por la Asociación de Maquinaria Computacional (ACM, por sus siglas en inglés).
Share this content:
Publicar comentario