Automatizar no es lo mismo que entender
Hacia una inteligencia compartida que fortalezca la colaboración humana
Ed. 74
La promesa de automatización nos ha acompañado desde mucho antes de que existiera la inteligencia artificial. Desde las lavadoras hasta los macros en Excel, hemos confiado en la tecnología para reducir el esfuerzo en tareas repetitivas y liberar energía humana para cosas más importantes.
Automatizar lo mecánico, lo predecible, lo que no requiere pensar dos veces, tiene sentido. Es una forma de cuidar nuestros recursos cognitivos. Delegar a una máquina aquello que desgasta sin aportar valor profundo nos permite enfocarnos en lo que realmente importa.
Pero en tiempos de IA generativa, la pregunta ya no es si queremos automatizar lo repetitivo… La pregunta es: ¿queremos también automatizar lo que no entendemos?
Nota: cuando hablo de automatizar en este contexto, me refiero a usar IA
Cuando la IA sabe más que nosotros o la usamos, para aquello que no dominamos.
Cada vez más herramientas de IA que prometen ayudarnos en tareas que no dominamos: escribir código, diseño visual o proponer soluciones creativas. Todo parece posible… incluso cuando no tenemos idea de por dónde empezar.
Pero hay un riesgo que se esconde detrás de esta delegación sin criterio:
Si no tienes la experiencia para juzgar una decisión, tampoco tienes la experiencia para juzgar si la IA está tomando una buena decisión por ti.
¿Te operarías con un doctor que nunca ha operado en su vida?
Uno que solo ha trabajado con colegas que saben hacerlo y dice tener una idea general, pero que ahora confía en que la IA lo guíe paso a paso.
La IA puede asistir. Puede potenciar.
Pero no puede reemplazar el juicio cuando ni siquiera hay juicio que supervisar.
¿Queremos eficiencia evitando colaborar?
Cuando diseñadores quieren evitar a los desarrolladores, cuando devs esquivan el diseño, o cuando un PM quiere construir un producto sin sus roles complementarios… hay algo más profundo que una preferencia por la eficiencia.
Lo que estamos viendo es una versión disfrazada de una vieja aspiración: evitar la fricción de trabajar con otros, el sueño de la independencia absoluta.
Pero esa visión parte de una premisa equivocada: que la colaboración es una carga.
La colaboración, bien entendida, es un multiplicador de inteligencia y perspectiva.
Usar IA para evitar esa colaboración es como taparse los oídos y decir: "ya lo hago yo con mi herramienta mágica." Pero los productos no son solo entregables funcionales. Son acuerdos. Son contexto. Son decisiones compartidas que viven en las costuras entre los roles.
IA centrada en las personas: diseñar para amplificar, no reemplazar
El enfoque de Human-Centered AI (HCAI) parte de una verdad tan simple como poderosa: las personas no quieren ser reemplazadas por la tecnología, quieren ser potenciadas por ella.
"Los humanos siempre han sido constructores de herramientas, y ahora son constructores de superherramientas, cuyas invenciones pueden mejorar nuestra salud, vida familiar, educación, negocios, el medio ambiente y mucho más."
—Ben Shneiderman, Human Centered AI
Shneiderman propone que el verdadero valor de la IA no está en su autonomía, sino en su capacidad de convertirse en superherramientas: tecnologías que amplifican nuestras capacidades humanas —nuestra creatividad, juicio, conexión social y responsabilidad.
El enfoque HCAI no busca sustituir el pensamiento humano, sino expandirlo. Diseñar sistemas que no invisibilicen al usuario, sino que lo mantengan informado, con control y con voz. La clave está en encontrar el punto justo entre automatización avanzada y control humano significativo.
Esto implica:
Usar métodos centrados en las personas: observación, iteración, evaluación del desempeño humano.
Diseñar interfaces comprensibles, con retroalimentación clara, donde el usuario pueda anticipar lo que hará el sistema.
Crear herramientas que no se impongan, sino que acompañen la intención humana.
El marco de Human-Centered AI nos recuerda que detrás de cada sistema inteligente hay personas: diseñadores, desarrolladores, líderes, y sobre todo, usuarios. Y que todos ellos merecen participar de un diseño que:
Reconozca la complejidad humana,
Haga espacio para la diversidad,
Mantenga la dignidad como principio de diseño.
El objetivo no es construir máquinas que piensen como nosotros, sino herramientas que nos ayuden a pensar mejor, decidir mejor, crear mejor.
Hacia una inteligencia compartida
El futuro no se trata de elegir entre humanos o máquinas.
Se trata de crear formas de inteligencia compartida que nos ayuden a avanzar juntos.
No queremos sistemas que actúen por su cuenta, sin darnos explicaciones.
Queremos herramientas que nos ayuden a colaborar mejor. Que hagan más fluida la conexión entre personas.Queremos IA que, en lugar de reemplazar el trabajo colectivo, lo fortalezca.
Porque automatizar no es lo mismo que entender.
Y construir tecnología sin entender qué nos hace humanos… no es progreso. Es omisión
Postdata para diseñadores, líderes y tecnólogos: El verdadero reto no está en lo que la IA puede hacer. Está en lo que decidimos hacer con ella.Y eso, todavía, es una decisión humana.
Nos vemos en la siguiente edición…
Para ver
Meet liquid Glass
Este video es muy interesante, ya otra discusión es si nos gusta o no la nueva idea de Apple para para homologar sus sistemas operativos y sentirse menos alejados de de los Apple vision Pro: el Liquid glass. He notado que todas las fallas de contraste visual que suceden en OS 26 pasan por una sencilla razón: Apple no sigue sus reglas de liquid Glass.