Usar la IA durante apenas 10 minutos es suficiente para volvernos más flojos y tontos

service
Compartir

Comparte este artículo

o copie el enlace

Según un nuevo estudio de investigadores de Carnegie Mellon, MIT, Oxford y UCLA, el uso de chatbots de inteligencia artificial, aunque solo sea durante 10 minutos, puede tener un impacto sorprendentemente negativo en la capacidad de las personas para pensar y resolver problemas.

Tres experimentos

Los investigadores encargaron a personas que resolvieran diversos problemas, como fracciones sencillas y comprensión lectora, a través de una plataforma en línea que les pagaba por su trabajo. Realizaron tres experimentos, cada uno con varios cientos de personas. A algunos participantes se les dio acceso a un asistente de IA capaz de resolver el problema de forma autónoma. Cuando de repente se les retiró el asistente de IA, estas personas eran significativamente más propensas a abandonar el problema o a fallar en sus respuestas. El estudio sugiere que el uso generalizado de la IA podría aumentar la productividad a expensas del desarrollo de habilidades básicas para resolver problemas.

«La conclusión no es que debamos prohibir la IA en la educación o el trabajo», advierte Michiel Bakker, profesor adjunto del MIT que participó en el estudio. «Está claro que la IA puede ayudar a las personas a rendir mejor en el momento, y eso puede ser valioso. Pero deberíamos ser más cuidadosos sobre qué tipo de ayuda proporciona la IA, y cuándo.»

Hace poco me reuní con Bakker, que tiene el pelo caótico y una amplia sonrisa, en el campus del MIT. Originario de los Países Bajos, trabajó anteriormente en Google DeepMind en Londres. Me contó que un conocido ensayo sobre el modo en que la IA puede restar poder a los humanos con el tiempo le inspiró a pensar en cómo la tecnología podría estar ya erosionando las capacidades de las personas. El ensayo es un poco desalentador, porque sugiere que la pérdida de poder es inevitable. Dicho esto, quizá averiguar cómo la IA puede ayudar a las personas a desarrollar sus propias capacidades mentales debería formar parte de cómo los modelos se alinean con los valores humanos.

Solucionar problemas es difícil

«Se trata fundamentalmente de una cuestión cognitiva: la persistencia, el aprendizaje y la respuesta a las dificultades», explica Bakker. «Queríamos tomar estas preocupaciones más amplias sobre la interacción a largo plazo entre humanos e IA y estudiarlas en un entorno experimental controlado».

El estudio resultante parece especialmente preocupante, advierte Bakker, porque la disposición de una persona a persistir en la resolución de problemas es crucial para adquirir nuevas habilidades y también predice su capacidad de aprendizaje a lo largo del tiempo.

Bakker afirma que tal vez sea necesario replantearse el funcionamiento de las herramientas de IA para que, al igual que un buen profesor humano, los modelos prioricen a veces el aprendizaje de una persona sobre la resolución de un problema por ella. «Los sistemas que dan respuestas directas pueden tener efectos a largo plazo muy diferentes de los sistemas que ayudan, orientan o desafían al usuario», aclara Bakker. No obstante, admite que equilibrar este tipo de enfoque «paternalista» podría ser complicado.

Las empresas de IA ya piensan en los efectos más sutiles que sus modelos pueden tener en los usuarios. La adulación de algunos modelos (o la probabilidad de que estén de acuerdo con los usuarios y los traten con condescendencia) es algo que OpenAI ha intentado atenuar con las nuevas versiones de GPT.

El peligro de delegar el pensamiento

Confiar demasiado en la IA parece especialmente problemático cuando las herramientas pueden no comportarse como uno espera. Los sistemas de IA agéntica son especialmente impredecibles porque realizan tareas complejas de forma independiente y pueden introducir errores extraños. Esto hace que uno se pregunte qué están haciendo Claude Code y Codex a las habilidades de los programadores que a veces tienen que arreglar los errores que introducen.

Hace poco recibí una lección sobre el peligro de delegar el pensamiento crítico en la IA. He estado usando OpenClaw (con Codex dentro) como ayudante diario, y he descubierto que es notablemente bueno resolviendo problemas de configuración en Linux. Recientemente, sin embargo, después de que mi conexión Wi-Fi se cayera constantemente, mi asistente de IA sugirió ejecutar una serie de comandos para ajustar el controlador de la tarjeta Wi-Fi. El resultado fue una máquina que se negaba a arrancar, hiciera lo que hiciera.

Tal vez, en lugar de intentar resolver el problema por mí, OpenClaw debería haberse detenido a enseñarme a solucionarlo por mí mismo. Podría tener una computadora, y un cerebro, más capaz como resultado.

Artículo originalmente publicado en WIRED. Adaptado por Mauricio Serfatty Godoy.

Usar la IA durante apenas 10 minutos es suficiente para volvernos más flojos y tontos
wpChatIcon
    wpChatIcon
    casino
    casino siteleri
    canlı casino siteleri
    deneme bonusu
    parmabet
    green tour cappadocia