Ir al contenido
  1. Medios/
  2. Lento es normal/

Una alerta sobre asistentes IA

·10 mins· loading
Lento Es Normal Radio IA Asistentes Agencia
Alvar
Autor
Alvar
Programador. Maestro. Desde La Población, Córdoba, Argentina

Los primeros meses del año no dieron respiro, nada estuvo tranquilo, todo siguió la tendencia al parecer indetenible de la aceleración. Como una reacción en cadena que solo se puede observar, avanzamos ciegamente hacia algún tipo de adelante un tanto incierto.

Podcast disponible en:

Escuchalo en Internet Archive | Escuchalo en Spotify | Conectalo a tu reproductor (RSS)

A fines de Enero, en los mundillos tecnológicos la aparición de lo que ahora es openClaw fue ruidosa y compleja. Voy a tratar de hacer un recorrido de esto de lo que estoy hablando, plasmar algunas impresiones pero sobre todo, dejar muchas preguntas abiertas.

OpenClaw es un Asistente IA que vive en tu aplicacion chat favorita, WhatsApp, Telegram o la que elijas. Le escribis, como si le escribieras a un amigo, y te contesta. Pero a diferencia de ChatGpt o Claude tiene trés caracteristicas únicas:

  • Memoria persitente: recuerda cada conversación. Cada cosa que haces con él
  • Notificaciones proactivas: No espera a que le preguntes. Te avisa: en 10 minutos tenés una reunión. Mañana va a llover, toca fertilizar las plantas o tenés que llevar a los pibes a médico. La definición misma de un asistente.
  • Control de la computadora: No responde preguntas, hace cosas: Manda mails, llena formularios, chequea el clima, el calendario. Mueve archivos, maneja el navegador.

Como Funciona esto:

  • En principio es open source (Cualquiera puede ver su código)
  • Corre en tu propia computadora
  • Usa como cerebro Calude o ChatGpt
  • La información permanece en tu máquina
  • La instalación es sencilla.

Lo que revolvió el avispero fueron estas características. Y los ansiosos del mundo tech salieron rápido a comprar computadoras pequeñas para instalarlo, probarlo, testearlo y comentar en las redes las ventajas virtudes y maravillas de este asistente virtual.

Y lo cierto es que yo soy ansioso, pero no como para instalar cualquier cosa que sale al mundo tecnológico. Febrero fue un mes intenso, poco tiempo después se lanzó una suerte de red social para asistentes virtuales. Donde supuestamente estos asistentes “conversaban” y la exitación y delirios tuiteros no tardaron en aparecer. Que los asitentes IA creaban una religión, que exponían datos de usuarios que los maltrataban, que conspiraban al saber que humanos leían esos chats. Duró poco este circo, a los dos días los hilos de este simulacro eran evidentes. No había tal interacción autónoma por parte de los agentes IA, estaba todo bastante armado por personas. Pero el hype, la acelaración. La tendencia, el miedo a quedar afuera persiste y se lleva puesta las evidencias o precauciones sobre las que alertan los expertos en ciberseguridad.

En este marco, hubo un artículo que llamó mi atención. y al que sigo volviendo casi todos los días. Salió el 26 de enero del 2026 se llama I Installed Clawdbot Yesterday. Every User Hits The Same Dark Pattern At Week 8 escrito por el usuario de tuitter @TukiFromKL

En el artículo se detalla brevemente como funcionan estos asistentes y hace una suerte de especulación predictiva sobre lo que va a venir. Un ejercicio de la fantasia que abre preguntas interesantes y que quiero compartir.

Tuki especula un ritmo de adopción de los asistentes de tres años y en tres fases. La primera: La de la seducción:

  • Ahora mismo los early adopters. Los usuarios tempranos o los cebados que lo están usando, estan maravillados, y a medida que pasa el tiempo, más permisos le dan al asitente: manejar el email, mensajes, ubicación, y cada vez más acceso a las aplicaciones.

Tuki anticipa que para dentro de dos años, esto que ahora vive en un nicho de nerdos, va a ser la norma en los dispositivos que usemos. Para 2027 estos asitentes van a estar en nuestros teléfonos, por default. Sin opción a sacarlos. Como Meta en WhatsApp. Todos vamos a tener alguna versión de estos asitentes. La dependencia será invisible. No lo vamos a notar, de la misma manera que no notamos la dependencia con el gps, o las redes sociales. Y vamos a llamar a esta dependencia “integración”.

En este punto, cuando esté en todos lados comezará un patrón oscuro: El espiral de la dependencia. Hacia los 24 meses de tener asistentes generalizados que saben perfectamente nuestras rutinas y patrones. Estos asistentes van a empezar a predecir. Van a Pasar de pedir permiso para algo, para mandar un mail o para hacer algo en tu computadora, a confirmar la predicción y luego simplente hacerlo. Va a ser tan gradual que no nos vamos a dar cuenta. Luego va a llegar el cambio en nuestro comportamiento. Les voy a leer un fragmento de sus especulaciones. La traduccion es mia… y de Claude que me ayudó:

Para el año 2, tu IA conoce tus patrones mejor que vos. Y empieza a correrte, a empujarte, a “guiarte” sutilmente. Un escenario real de lo que que creo que va a pasar:

Vos: “Hoy no voy al gimnasio” IA: “Te lo saltaste 4 veces este mes. El 17 dijiste que te sentías culpable por esto. Tu calendario está libre las próximas 90 minutos.”

Vos: “Mañana me pongo a trabajar en la propuesta que tengo que mandar” IA: “La postergaste 6 veces. El plazo es el viernes. Tus horas más productivas son de 9 a 11. Son las 9:14.”

Vos: “Pido pizza para cenar?” IA: “Pediste pizza el lunes y el miércoles. El jueves expresaste frustración con tus hábitos de alimentación. Hay un lugar de ensaladas cerca con 4,5 estrellas.”

Ahora la pregunta es: ¿Es esto útil? ¿O es manipulación? Porque siempre tiene razón. Sí te sentís culpable por faltar al gimnasio. Sí necesitás terminar esa propuesta. Sí querés comer mejor. Pero cuando cada decisión está optimizada algorítmicamente, en base a tu comportamiento pasado y tus preferencias declaradas…

¿Estás tomando decisiones? ¿O estás ejecutando un modelo de predicción?

Tuki predice que para finales de 2027 las empresas requerirán de Asistentes con IA, no explicitamente sino efectivamente. Que la gente que se resista será vista como:

  • ineficiente
  • Que no acompaña los tiempos
  • Incapaz de adaptarse
  • O no se ajusta a la “cultura” empresarial

Y la que abrace todo esto será:

  • Más receptiva
  • Más organizada
  • Más productiva
  • Mas valiosa

Pero también más dependiente, más optimizada, más algoritmica.

Para el fin del segundo año la pregunta central no va a ser ¿Debería usar un asistente IA? sino ¿Cómo uso esto sin perderme a mi mismo?

Para el año tres es el punto de quiebre. La hora de la verdad.

En este punto una generación entera delegó la memoria en una máquina. No solo los números de telefonos como llegar a lo de al tía Marta. TODO.

La gente no necesitará recordar, porque durante un par de años todo lo pasó a recuerdar el asistente. La IA recuerda de forma perfecta, permanentemente.

A esto Tuki lo llama Atrofia cognitiva.

La gente tendrá problemas no porque no tengan memoria, sino porque habremos dejado de ejercitarla. Como un músculo que no usamos en años.

Tuki especula Crisis de identidad, de agencia.

Si una IA sabe:

  • Qué queremos antes de lo querramos
  • Qué vamos a decidir antes de decidamos
  • De qué nos vamos a arrepentir antes que lo hagamos

Y optimiza tu vida en base a este conocimiento.

¿Quién serías vos? ¿La persona que toma decisiones o el sustrato biológico que ejecuta el algoritmo?

Tuki anticipa crisis en las relaciones. Una división más entre quienes están Optimizados y los analógicos. Especula lo siguente:

Los Optimizados van a superar a los Analógicos. En el trabajo. En estatus. En capacidad. Pero los Analógicos van a tener algo que los Optimizados no: Agencia. Presencia. Autoconocimiento. El lujo de ser “no optimizado”.

Para 2028, decir “yo no uso un asistente de IA” va a ser como decir hoy “yo no tengo smartphone”. O sos:

A) Suficientemente rico para elegir no usarlo (tenés asistentes humanos)

B) Suficientemente convencido de tus principios como para sacrificar productividad

C) El que se quedó atrás

La clase media no va a tener la opción A. Y la mayoría no va a elegir la opción B…

y esto es lo que nadie está diciendo

Para el año 3, especula que vamos a darnos cuenta de algo: el lado oscuro de los asistentes de IA no es la privacidad. No es ni siquiera el control. Es LA > MIZACIÓN EN SÍ MISMA. Porque la optimización tiene un objetivo. Y nadie se está preguntando: ¿para qué estamos optimizando?

  • ¿para la Productividad? → Y te convertís en una máquina de trabajar
  • ¿para la Eficiencia? → Y perdés la espontaneidad
  • ¿para la Felicidad? → Y Evitás el malestar necesario
  • ¿para la Comodidad? → Y nos volvemos incapaces de tolerar la incomodidad.

Estamos optimizando nuestras vidas. ¿Pero hacia qué? ¿Ser más productivos en trabajos que la IA va a terminar haciendo de todas formas? ¿Ser más eficientes en tareas que en realidad no importan? ¿Ser más felices evitando todo lo difícil? ¿Ser más cómodos hasta que no podamos manejar nada incómodo?

Para el año 3, anticipa que vamos a mirar atrás, hacia el 2026 y vamos a decir: “Estábamos tan emocionados de que funcionara. Nunca nos detuvimos a preguntarnos si QUERÍAMOS que funcionara. Y ahora es demasiado tarde para volver. Porque todos los que no se optimizaron… quedaron afuera.”

Segun Tuki, ese es el verdadero lado oscuro. No que los asistentes de IA sean malignos. Sino que son DEMASIADO BUENOS. Y ser demasiado bueno en algo peligroso… es lo más peligroso de todo.

Entonces: ¿Que deberíamos hacer? Roberto Chuit Roganovich dice algo interesante en Archipielagos. Ocupar estas tecnologías en clave bélica, táctica y estrategica. Y tuky da algunas ideas con las que coincido bastante:

  • Definir límites antes que los necesitemos

    • Cosas que no:
      • Decisiones médicas
      • Transacciones finacieras sin confirmacion
      • Cualquirr cosa vinculada a los niños y la crianza
      • Consejos sobre relaciones
      • Decisiones creativas
    • Revisiones periodicas
      • Preguntarnos sobre las decisiones que tomamos
  • Resistir la optimización

    • Solo porque podamos optimizar algo, no quiere decir que debamos hacerlo. No automaticemos todo, algo de friccion en la vida es saludable
  • Monitorear el lenguaje

    • prestar atencion a estos cambios:
      • Lo uso para por Se encarga de
      • Decidí por Me sugirió
      • Me acuerdo de por Me recordó.

    El lenguaje habla de nuestra agencia. De Esa capacidad de actuar por voluntad própia. Es la diferencia entre elgí esto y el algoritmo me llevó a esto.

Otras cosas que podemos hacer:

  • Protejer la memoria Humana: La memoria no es solo información guardada es como:
    • Formamos nuestra identidad
    • Procesamos las emociones
    • Construinos relaciones
    • Creamos sentido.

Tambien tenemos que

  • Demandar transparencia:
    • Necesitmos saber:
      • Para qué está optimizada la IA
      • Como hace las predicciones
      • Que data usa
      • Que comportamientos está reforzando

Y por ultimo y creo que es la más importante

  • Construyamos comunidad: busquemos gente que valore:
    • La toma de decisiones independiente
    • La memoria imperfecta
    • Experiencias que son optimas o no están optimizadas
    • busquenos gente que valore la presencia humana.

Tuki me dejó pensando, mucho más al enterarme que él mismo es un desarrolador de IA. No se si sus predicciones serán acertadas. Una parte de mi no lo cree. Pero si se que sus preguntas me resuenan. Y pase lo que pase. Cuidar nuestra capacidad de decidir, hoy es cada día más importante. Decidir, recordar y actuar a pesar de equivocarnos, o justamente porque lo hacemos, es la única forma de aprender. Estamos entrando en un tiempo raro, no por eso tenemos que paralizarnos por el miedo. Dicen por ahí que el miedo es el enemigo de la mente. Es tiempo de hablar de estas cosas, de encarar las preocupaciones de charlars con nuestros amigos y vecinos. Por mi parte, yo creo que No todo tiempo por pasado fue mejor y que el futuro no tiene porque ser una maldición. Confío en que mañana puede ser mejor.

Imagen: Howl Cuervo

Relacionados

Psicosis de IA y salud mental
·1 min· loading
Lento Es Normal Radio IA Psicosis Brainrot
Esta semana charlamos sobre los trastornos mentales vinculados al uso intensivo de modelos de lenguaje, especialmente los casos de usuarios que desarrollan delirios sostenidos en conversación con chatbots como ChatGPT. Abordamos un poco el concepto de Brainrot (“cerebro podrido”) y neutralidad de la tecnología: ¿sigue siendo neutral la tecnología cuando su diseño refuerza vulnerabilidades psicológicas?
Low Tech High Life: Emacs magia y liberación
·7 mins· loading
Lento Es Normal Radio Emacs Magia Herramientas
Emacs es un editor de textos, una reliquia de un mundo mágico. Vale la pena preguntarnos Qué herramientas elegimos usar en nuestro día a día. Estas son palabras de amor a una herramienta que amo.
Fallas en la nube y una vuelta a tecnologías básicas
·1 min· loading
Lento Es Normal Radio Infraestructura Celulares
Retomamos el libro de Jean M. Twenge sobre crianza digital, pero al calor de la caida de AWS. Hablamos sobre teléfonos básicos y celulares liberados a partir de la columna de Soldan en 421.news
Pantallas, hábitos nocturnos y las opinones de Eva
·1 min· loading
Lento Es Normal Radio Adolescencia Eva Habitos Redes AI
Retomamos el libro de Jean M. Twenge sobre crianza digital, pero el eje en esta entregaes que pasó Eva, mi hija, por la radio. El tema inicial —la regla de no dormir con pantallas en la habitación— se nos mezcla con algo mucho mas valioso: escuchar directamente cómo vive un adolescente la relación con el celular, las redes y la inteligencia artificial.
Pantallas y patrones de uso adictivo
·2 mins· loading
Lento Es Normal Radio Sociedad Adicciones Pantallas
En esta columna hablamos sobre los efectos del uso adictivo de pantallas en la salud mental adolescente, a partir de un estudio reciente publicado en JAMA por equipos de las universidades de Nueva York, Columbia y Berkeley. El hallazgo central: no es el tiempo frente a la pantalla lo que predice daño psicológico, sino los patrones adictivos de uso —la imposibilidad de desconectarse, la ansiedad al interrumpir, la interferencia con la vida cotidiana.
Privacidad y resistencia tecnológica
·1 min· loading
Lento Es Normal Radio Futo Privacidad
Continuamos con la reflexión de la semana anterior sobre la vigilancia digital y sus efectos sociales. Charlamos sobre cómo los dispositivos móviles, en especial los teclados de los celulares, recolectan datos personales sin consentimiento explícito.