Los primeros meses del año no dieron respiro, nada estuvo tranquilo, todo siguió la tendencia al parecer indetenible de la aceleración. Como una reacción en cadena que solo se puede observar, avanzamos ciegamente hacia algún tipo de adelante un tanto incierto.
Podcast disponible en:
A fines de Enero, en los mundillos tecnológicos la aparición de lo que ahora es openClaw fue ruidosa y compleja. Voy a tratar de hacer un recorrido de esto de lo que estoy hablando, plasmar algunas impresiones pero sobre todo, dejar muchas preguntas abiertas.
OpenClaw es un Asistente IA que vive en tu aplicacion chat favorita, WhatsApp, Telegram o la que elijas. Le escribis, como si le escribieras a un amigo, y te contesta. Pero a diferencia de ChatGpt o Claude tiene trés caracteristicas únicas:
- Memoria persitente: recuerda cada conversación. Cada cosa que haces con él
- Notificaciones proactivas: No espera a que le preguntes. Te avisa: en 10 minutos tenés una reunión. Mañana va a llover, toca fertilizar las plantas o tenés que llevar a los pibes a médico. La definición misma de un asistente.
- Control de la computadora: No responde preguntas, hace cosas: Manda mails, llena formularios, chequea el clima, el calendario. Mueve archivos, maneja el navegador.
Como Funciona esto:
- En principio es open source (Cualquiera puede ver su código)
- Corre en tu propia computadora
- Usa como cerebro Calude o ChatGpt
- La información permanece en tu máquina
- La instalación es sencilla.
Lo que revolvió el avispero fueron estas características. Y los ansiosos del mundo tech salieron rápido a comprar computadoras pequeñas para instalarlo, probarlo, testearlo y comentar en las redes las ventajas virtudes y maravillas de este asistente virtual.
Y lo cierto es que yo soy ansioso, pero no como para instalar cualquier cosa que sale al mundo tecnológico. Febrero fue un mes intenso, poco tiempo después se lanzó una suerte de red social para asistentes virtuales. Donde supuestamente estos asistentes “conversaban” y la exitación y delirios tuiteros no tardaron en aparecer. Que los asitentes IA creaban una religión, que exponían datos de usuarios que los maltrataban, que conspiraban al saber que humanos leían esos chats. Duró poco este circo, a los dos días los hilos de este simulacro eran evidentes. No había tal interacción autónoma por parte de los agentes IA, estaba todo bastante armado por personas. Pero el hype, la acelaración. La tendencia, el miedo a quedar afuera persiste y se lleva puesta las evidencias o precauciones sobre las que alertan los expertos en ciberseguridad.
En este marco, hubo un artículo que llamó mi atención. y al que sigo volviendo casi todos los días. Salió el 26 de enero del 2026 se llama I Installed Clawdbot Yesterday. Every User Hits The Same Dark Pattern At Week 8 escrito por el usuario de tuitter @TukiFromKL
En el artículo se detalla brevemente como funcionan estos asistentes y hace una suerte de especulación predictiva sobre lo que va a venir. Un ejercicio de la fantasia que abre preguntas interesantes y que quiero compartir.
Tuki especula un ritmo de adopción de los asistentes de tres años y en tres fases. La primera: La de la seducción:
- Ahora mismo los early adopters. Los usuarios tempranos o los cebados que lo están usando, estan maravillados, y a medida que pasa el tiempo, más permisos le dan al asitente: manejar el email, mensajes, ubicación, y cada vez más acceso a las aplicaciones.
Tuki anticipa que para dentro de dos años, esto que ahora vive en un nicho de nerdos, va a ser la norma en los dispositivos que usemos. Para 2027 estos asitentes van a estar en nuestros teléfonos, por default. Sin opción a sacarlos. Como Meta en WhatsApp. Todos vamos a tener alguna versión de estos asitentes. La dependencia será invisible. No lo vamos a notar, de la misma manera que no notamos la dependencia con el gps, o las redes sociales. Y vamos a llamar a esta dependencia “integración”.
En este punto, cuando esté en todos lados comezará un patrón oscuro: El espiral de la dependencia. Hacia los 24 meses de tener asistentes generalizados que saben perfectamente nuestras rutinas y patrones. Estos asistentes van a empezar a predecir. Van a Pasar de pedir permiso para algo, para mandar un mail o para hacer algo en tu computadora, a confirmar la predicción y luego simplente hacerlo. Va a ser tan gradual que no nos vamos a dar cuenta. Luego va a llegar el cambio en nuestro comportamiento. Les voy a leer un fragmento de sus especulaciones. La traduccion es mia… y de Claude que me ayudó:
Para el año 2, tu IA conoce tus patrones mejor que vos. Y empieza a correrte, a empujarte, a “guiarte” sutilmente. Un escenario real de lo que que creo que va a pasar:
Vos: “Hoy no voy al gimnasio” IA: “Te lo saltaste 4 veces este mes. El 17 dijiste que te sentías culpable por esto. Tu calendario está libre las próximas 90 minutos.”
Vos: “Mañana me pongo a trabajar en la propuesta que tengo que mandar” IA: “La postergaste 6 veces. El plazo es el viernes. Tus horas más productivas son de 9 a 11. Son las 9:14.”
Vos: “Pido pizza para cenar?” IA: “Pediste pizza el lunes y el miércoles. El jueves expresaste frustración con tus hábitos de alimentación. Hay un lugar de ensaladas cerca con 4,5 estrellas.”
Ahora la pregunta es: ¿Es esto útil? ¿O es manipulación? Porque siempre tiene razón. Sí te sentís culpable por faltar al gimnasio. Sí necesitás terminar esa propuesta. Sí querés comer mejor. Pero cuando cada decisión está optimizada algorítmicamente, en base a tu comportamiento pasado y tus preferencias declaradas…
¿Estás tomando decisiones? ¿O estás ejecutando un modelo de predicción?
Tuki predice que para finales de 2027 las empresas requerirán de Asistentes con IA, no explicitamente sino efectivamente. Que la gente que se resista será vista como:
- ineficiente
- Que no acompaña los tiempos
- Incapaz de adaptarse
- O no se ajusta a la “cultura” empresarial
Y la que abrace todo esto será:
- Más receptiva
- Más organizada
- Más productiva
- Mas valiosa
Pero también más dependiente, más optimizada, más algoritmica.
Para el fin del segundo año la pregunta central no va a ser ¿Debería usar un asistente IA? sino ¿Cómo uso esto sin perderme a mi mismo?
Para el año tres es el punto de quiebre. La hora de la verdad.
En este punto una generación entera delegó la memoria en una máquina. No solo los números de telefonos como llegar a lo de al tía Marta. TODO.
La gente no necesitará recordar, porque durante un par de años todo lo pasó a recuerdar el asistente. La IA recuerda de forma perfecta, permanentemente.
A esto Tuki lo llama Atrofia cognitiva.
La gente tendrá problemas no porque no tengan memoria, sino porque habremos dejado de ejercitarla. Como un músculo que no usamos en años.
Tuki especula Crisis de identidad, de agencia.
Si una IA sabe:
- Qué queremos antes de lo querramos
- Qué vamos a decidir antes de decidamos
- De qué nos vamos a arrepentir antes que lo hagamos
Y optimiza tu vida en base a este conocimiento.
¿Quién serías vos? ¿La persona que toma decisiones o el sustrato biológico que ejecuta el algoritmo?
Tuki anticipa crisis en las relaciones. Una división más entre quienes están Optimizados y los analógicos. Especula lo siguente:
Los Optimizados van a superar a los Analógicos. En el trabajo. En estatus. En capacidad. Pero los Analógicos van a tener algo que los Optimizados no: Agencia. Presencia. Autoconocimiento. El lujo de ser “no optimizado”.
Para 2028, decir “yo no uso un asistente de IA” va a ser como decir hoy “yo no tengo smartphone”. O sos:
A) Suficientemente rico para elegir no usarlo (tenés asistentes humanos)
B) Suficientemente convencido de tus principios como para sacrificar productividad
C) El que se quedó atrás
La clase media no va a tener la opción A. Y la mayoría no va a elegir la opción B…
y esto es lo que nadie está diciendo
Para el año 3, especula que vamos a darnos cuenta de algo: el lado oscuro de los asistentes de IA no es la privacidad. No es ni siquiera el control. Es LA > MIZACIÓN EN SÍ MISMA. Porque la optimización tiene un objetivo. Y nadie se está preguntando: ¿para qué estamos optimizando?
- ¿para la Productividad? → Y te convertís en una máquina de trabajar
- ¿para la Eficiencia? → Y perdés la espontaneidad
- ¿para la Felicidad? → Y Evitás el malestar necesario
- ¿para la Comodidad? → Y nos volvemos incapaces de tolerar la incomodidad.
Estamos optimizando nuestras vidas. ¿Pero hacia qué? ¿Ser más productivos en trabajos que la IA va a terminar haciendo de todas formas? ¿Ser más eficientes en tareas que en realidad no importan? ¿Ser más felices evitando todo lo difícil? ¿Ser más cómodos hasta que no podamos manejar nada incómodo?
Para el año 3, anticipa que vamos a mirar atrás, hacia el 2026 y vamos a decir: “Estábamos tan emocionados de que funcionara. Nunca nos detuvimos a preguntarnos si QUERÍAMOS que funcionara. Y ahora es demasiado tarde para volver. Porque todos los que no se optimizaron… quedaron afuera.”
Segun Tuki, ese es el verdadero lado oscuro. No que los asistentes de IA sean malignos. Sino que son DEMASIADO BUENOS. Y ser demasiado bueno en algo peligroso… es lo más peligroso de todo.
Entonces: ¿Que deberíamos hacer? Roberto Chuit Roganovich dice algo interesante en Archipielagos. Ocupar estas tecnologías en clave bélica, táctica y estrategica. Y tuky da algunas ideas con las que coincido bastante:
Definir límites antes que los necesitemos
- Cosas que no:
- Decisiones médicas
- Transacciones finacieras sin confirmacion
- Cualquirr cosa vinculada a los niños y la crianza
- Consejos sobre relaciones
- Decisiones creativas
- Revisiones periodicas
- Preguntarnos sobre las decisiones que tomamos
- Cosas que no:
Resistir la optimización
- Solo porque podamos optimizar algo, no quiere decir que debamos hacerlo. No automaticemos todo, algo de friccion en la vida es saludable
Monitorear el lenguaje
- prestar atencion a estos cambios:
- Lo uso para por Se encarga de
- Decidí por Me sugirió
- Me acuerdo de por Me recordó.
El lenguaje habla de nuestra agencia. De Esa capacidad de actuar por voluntad própia. Es la diferencia entre elgí esto y el algoritmo me llevó a esto.
- prestar atencion a estos cambios:
Otras cosas que podemos hacer:
- Protejer la memoria Humana: La memoria no es solo información guardada es como:
- Formamos nuestra identidad
- Procesamos las emociones
- Construinos relaciones
- Creamos sentido.
Tambien tenemos que
- Demandar transparencia:
- Necesitmos saber:
- Para qué está optimizada la IA
- Como hace las predicciones
- Que data usa
- Que comportamientos está reforzando
- Necesitmos saber:
Y por ultimo y creo que es la más importante
- Construyamos comunidad: busquemos gente que valore:
- La toma de decisiones independiente
- La memoria imperfecta
- Experiencias que son optimas o no están optimizadas
- busquenos gente que valore la presencia humana.
Tuki me dejó pensando, mucho más al enterarme que él mismo es un desarrolador de IA. No se si sus predicciones serán acertadas. Una parte de mi no lo cree. Pero si se que sus preguntas me resuenan. Y pase lo que pase. Cuidar nuestra capacidad de decidir, hoy es cada día más importante. Decidir, recordar y actuar a pesar de equivocarnos, o justamente porque lo hacemos, es la única forma de aprender. Estamos entrando en un tiempo raro, no por eso tenemos que paralizarnos por el miedo. Dicen por ahí que el miedo es el enemigo de la mente. Es tiempo de hablar de estas cosas, de encarar las preocupaciones de charlars con nuestros amigos y vecinos. Por mi parte, yo creo que No todo tiempo por pasado fue mejor y que el futuro no tiene porque ser una maldición. Confío en que mañana puede ser mejor.
Imagen: Howl Cuervo
