
El término era AIlessphobia. En español podríamos llamarla IAlessfobia:
La ansiedad o sensación de insuficiencia cuando una persona no puede acceder a herramientas de IA en contextos académicos. No es miedo a la IA. Es casi lo contrario, miedo a quedarse sin ella.
Me quedé pensando en eso durante el resto de las jornadas. Porque si ese fenómeno empieza a aparecer con cierta consistencia, algo nos está diciendo. No sobre la IA en sí, sino sobre cómo estamos enseñando a usarla. O más exactamente, sobre cómo no estamos enseñando a trabajar con ella.
Y ahí es hacia donde creo que debe de ir el debate.
La cuestión no es más tecnología o menos tecnología
En las jornadas del ONED una idea apareció con bastante claridad: el debate no debería ser más tecnología o menos tecnología. Debería ser qué tecnología, para qué aprendizaje, en qué etapa, en qué condiciones, con qué acompañamiento y con qué evidencias de impacto.
Podemos llenar los centros de dispositivos, plataformas, paneles, licencias y aplicaciones, y seguir haciendo prácticamente lo mismo de siempre con otro soporte. Eso no es transformación pedagógica. Es dotación. Y la educación ya ha pasado demasiadas veces por esa confusión: tener tecnología en el aula no significa que el aprendizaje haya cambiado.
La digitalización educativa necesita pasar de una lógica de dotación a una lógica de sentido. No medir cuántos dispositivos hay, sino qué decisiones pedagógicas mejoran gracias a ellos. Qué permite hacer mejor. Qué problemas ayuda a resolver. Y qué riesgos introduce si no se acompaña bien.
Desde esa perspectiva, la IA no aparece como una herramienta más. Aparece como una prueba de madurez educativa.
La competencia diferencial no será usar IA
Durante años hemos valorado en educación y en el trabajo perfiles muy concretos: quien tiene método y es constante, quien tiene creatividad y visión, quien sabe gestionar equipos, quien domina su campo. Esas capacidades siguen importando. Nadie las ha dejado de necesitar.
Pero empieza a aparecer otra diferencia, y todavía no tenemos muy claro cómo nombrarla.
Hay personas que, cuando trabajan con IA, se potencian mucho. No porque la herramienta haga el trabajo por ellas, ni porque sepan el prompt perfecto, ni porque usen lo último que ha salido. Sino porque han aprendido a integrarla en su forma de pensar, organizarse, crear, revisar, decidir y aprender.
A esa capacidad la estoy llamando fluidez simbiótica con IA.
La distinción con la alfabetización importa. Conocer la IA generativa, entender qué puede hacer, sus límites, por qué puede inventar respuestas, qué riesgos implica para la privacidad, etc. Todo eso es necesario, pero no basta. Una persona puede conocer muchas herramientas y trabajar mal con IA. Puede aceptar la primera respuesta sin cuestionarla. Puede producir más texto y pensar menos. Puede usar la IA para ahorrarse justo el esfuerzo que necesitaba para aprender. Puede confundir velocidad con calidad.
La fluidez simbiótica va más allá. Tiene que ver con saber usar la IA como apoyo del pensamiento y de la acción sin ceder el criterio propio. No es que la IA trabaje por ti. Es que tú aprendes a trabajar mejor con ella.
Y eso exige algo más que pedirle cosas: construir buen contexto, iterar con intención, detectar una respuesta mediocre, aunque esté bien redactada, contrastar, decidir cuándo parar y saber qué parte del proceso debe seguir siendo humana.
La fluidez simbiótica con IA es la capacidad de integrar sistemas de inteligencia artificial en el propio proceso de pensamiento, creación y decisión, manteniendo el criterio, la agencia y la responsabilidad humana sobre el resultado.
Alfabetización, fluidez y simbiosis no son lo mismo
Alfabetizar en IA sigue siendo necesario. Hay que entender qué es, qué límites tiene, por qué puede inventar respuestas y qué riesgos implica para la privacidad. Pero ese es solo el primer escalón.
La fluidez aparece cuando una persona no solo conoce la herramienta, sino que sabe trabajar con ella con eficacia y criterio. La parte simbiótica empieza cuando esa relación se integra en su forma de pensar, crear, revisar y decidir, sin que el juicio final deje de ser humano.
En las instituciones educativas veo con frecuencia los dos extremos: el rechazo de la IA como si cualquier uso fuera una amenaza, y la entrega acrítica como si toda respuesta generada tuviera valor por el simple hecho de haber salido de un modelo. Ninguno de los dos prepara al alumnado para trabajar bien con sistemas inteligentes en contextos reales.
La diferencia entre usar IA y trabajar en simbiosis con ella
La diferencia es concreta. Vale la pena verla con un ejemplo.
No es lo mismo pedirle a un modelo “hazme una propuesta de formación sobre IA para docentes” que usarlo para contrastar el contexto de un centro, anticipar resistencias, adaptar una actividad a la etapa, revisar riesgos antes de presentar y detectar puntos débiles en el planteamiento. En el primer caso la IA produce. En el segundo, ayuda a pensar. La distancia entre esos dos usos no es pequeña.
La fluidez simbiótica se trabaja en dimensiones concretas: mentalidad colaborativa, delegación estratégica, formulación efectiva del contexto, evaluación crítica de la respuesta y responsabilidad sobre el resultado. Cada una tiene indicadores observables. No son actitudes vagas.
Y también tiene una cara de riesgo que conviene no ignorar. La investigación emergente sobre colaboración humano-IA señala beneficios claros en productividad y creatividad, pero también riesgos comprobados: sobreconfianza, pérdida de metacognición, delegación irresponsable cuando no se entrena el criterio. Una herramienta puede mejorar la productividad y al mismo tiempo debilitar determinados procesos cognitivos si se usa sin criterio. La IAlessfobia, en ese sentido, podría ser uno de los síntomas de ese uso sin criterio sostenido en el tiempo.
Por eso la competencia clave no será usar IA. Será saber regular la relación con ella: cuándo la invito al proceso, para qué la uso, qué le delego, qué no le delego, cómo verifico lo que me devuelve y qué responsabilidad asumo sobre el resultado.
Delegar sin desaparecer
La IA nos obliga a aprender a delegar. Pero delegar no significa desaparecer.
Un docente puede usar IA para preparar materiales, pero debe decidir si esos materiales tienen sentido para su alumnado. Un estudiante puede usarla para contrastar ideas, pero debe ser capaz de explicar qué ha cambiado y por qué. Un equipo directivo puede usarla para analizar información, pero no puede delegar en ella decisiones institucionales que afectan a personas.
Ahí se juega parte de la madurez: saber qué puede apoyarse en IA y qué exige presencia humana, criterio profesional y responsabilidad.
Esto tiene consecuencias directas para la evaluación. Si el alumnado usa IA, ya no basta con preguntar si la ha usado o no. Habrá que mirar cómo la ha usado. Marcos como SEIA pueden ayudar a ordenar esa conversación, no para convertir la evaluación en un sistema rígido, sino para distinguir niveles de uso, grados de autonomía del alumnado y evidencias relevantes. Una tarea sin IA, una tarea con apoyo puntual y una tarea donde la herramienta asume una parte central del trabajo no son la misma cosa pedagógicamente. Si no las nombramos con precisión, acabamos metiéndolo todo en el mismo saco.
Justificaciones breves, defensa oral, registros de proceso, comparación de versiones, transferencia, revisión crítica. La idea no es pedir más, sino pedir mejor, aquello que permite ver si ha habido aprendizaje real detrás del producto.
Lo que necesitan los centros y universidades
Si tuviera que llevar todo esto a una línea de trabajo concreta, no empezaría por la herramienta. Empezaría por algo anterior: qué papel va a tener la IA en el aprendizaje del alumnado, en el trabajo docente y en la organización del centro. Y desde ahí, a definir criterio compartido: qué tareas pueden hacerse con IA, cuáles conviene preservar sin ella, qué usos deben declararse, qué evidencias se van a pedir, qué datos no deberían introducirse nunca.
Si el centro no define esos criterios, cada docente acaba resolviéndolo como puede. Y cada alumno aprende a usar la IA por su cuenta, normalmente fuera del aula y sin orientación.
Una pirámide para trabajar la fluidez simbiótica con IA
La fluidez simbiótica no se construye aprendiendo una herramienta aislada ni acumulando trucos de prompting. Se construye por niveles. Y la mayoría de personas, incluidos muchos que se consideran usuarios avanzados, se quedan en el primero sin saberlo.
Nivel 1. Ingeniería de contexto
No hablo de escribir mejores prompts. Hablo de aprender a preparar bien el entorno antes de trabajar: instrucciones de sistema, criterios de calidad explícitos, ejemplos de referencia, restricciones, estilo, memoria activa y fuentes relevantes. La diferencia entre pedirle algo a una IA genérica y trabajar con una IA que ha interiorizado tu contexto no es una diferencia de grado. Es una diferencia de tipo. Este nivel es la base real. Sin él, todo lo que viene después es menos preciso y más lento.
Nivel 2. Sistemas personales de trabajo
Aquí la IA deja de ser una ventana de chat suelta. Entran los proyectos, los asistentes personalizados, las bases documentales, las skills, los flujos recurrentes y las instrucciones específicas por tarea. La idea central es no empezar desde cero cada vez. Cada sistema que construyes es conocimiento acumulado que la IA puede activar cuando lo necesitas.
A esto se puede añadir una capa más: Obsidian, o cualquier sistema de conocimiento personal estructurado, como memoria externa organizada que la IA puede leer y con la que puede trabajar. No como libreta de notas, sino como repositorio que alimenta tus flujos de manera sistemática. Es una dinámica que merece un número propio, y lo tendrá.
Nivel 3. Pensamiento aumentado
En este nivel la IA ya no sirve principalmente para producir más rápido. Sirve para someter el propio pensamiento a presión antes de tomar una decisión o presentar algo. Eso incluye trabajar con un consejo asesor de voces distintas que critican una idea desde ángulos diferentes, hacer investigación profunda antes de escribir o proponer, preparar y entrenar conversaciones difíciles o reuniones de alto riesgo, y detectar los puntos débiles de un planteamiento antes de que lo haga otro.
Aquí también entra un uso de NotebookLM que va mucho más allá del resumen automático. Cuando tienes que aprender un campo que no dominas, la alternativa habitual es invertir decenas de horas viendo vídeos, leyendo artículos dispersos y tomando notas que nunca acabas de conectar. Con un flujo bien construido en NotebookLM puedes condensar en pocas horas lo esencial de veinte fuentes distintas, triangular perspectivas, identificar los conceptos clave y generar dinámicas de aprendizaje activo a partir de ese corpus. No es leer más rápido. Es aprender de otra manera.
Nivel 4. Criterio transferible
Este es el nivel que distingue la fluidez simbiótica real de un uso avanzado pero dependiente. La persona ya no necesita una herramienta concreta ni un flujo cerrado. Sabe decidir qué modelo o entorno le conviene para cada tarea, qué parte del proceso debe seguir haciendo ella, cómo verificar lo que recibe y, sobre todo, cómo trasladar ese criterio a contextos distintos: una clase, una reunión, una investigación, una decisión de centro, una propuesta profesional.
Aquí la IA deja de ser una herramienta que se abre para resolver algo puntual. Pasa a funcionar como una capa de trabajo: algo que atraviesa cómo piensas antes de actuar, cómo produces, cómo revisas y cómo aprendes. No está en un sitio concreto del flujo. Está en todos.
Esa diferencia es más importante de lo que parece. Quien usa la IA como herramienta depende de recordar cuándo abrirla. Quien la tiene integrada como capa ya no hace esa pregunta: el criterio sobre cuándo y cómo usarla forma parte de su manera de trabajar.
En este nivel la IA no amplía sólo la capacidad de producir. Amplía la capacidad de pensar.
Y eso no se improvisa. Se entrena.
Para cerrar
La IAlessfobia me interesa como señal. Si alguien desarrolla ansiedad por no tener IA disponible, algo en cómo ha aprendido a trabajar con ella no está funcionando bien. La dependencia no aparece solo por usar mucho una herramienta. También aparece cuando nadie ha enseñado a usarla con criterio.
La fluidez simbiótica no es una solución mágica ni otro concepto que añadir a la formación. Es una forma de hacerse mejores preguntas: qué uso de la IA queremos enseñar, qué queremos que el alumnado sepa hacer con ella y sin ella, y cómo comprobamos que el proceso ha generado pensamiento real.
Si estás en un equipo directivo, una universidad o una institución educativa y llevas tiempo dando vueltas a estas cuestiones sin acabar de concretarlas, puede ser un buen momento para empezar a trabajarlo antes del verano.
.jpg)
Anthropic emerge como el líder en la carrera de la inteligencia artificial — valuación de $900 mil millones en oferta — ingresos anualizados a $50 mil millones para junio
Anthropic creció 80 veces en ingresos anualizados en Q1 2026. OpenAI empieza a verse estancado. La empresa que creó a Claude lidera la industria más disruptiva del siglo.
El WSJ de hoy reporta que Anthropic ha recibido ofertas de inversión que la valúan en más de $900 mil millones — lo que superaría la valuación de OpenAI por primera vez. La tasa de ingresos anualizada de Anthropic: $30 mil millones en abril, camino a $50 mil millones para fin de junio. En todo el año 2025, Anthropic terminaba en $9 mil millones. Creció 80 veces en ingresos anualizados en Q1 2026. Había planeado un crecimiento de 10 veces. El crecimiento de OpenAI, según el WSJ, «comienza a amesetarse.»
Anthropic baja al terreno de las pymes
Nuevo día, nuevo anuncio. Ahora van por los pequeños negocios porque lanzaron Claude for Small Business: contabilidad automatizada, insights de negocio y campañas publicitarias en Estados Unidos.
No es generosidad. Anthropic ya conquistó los corporativos y ahora cerca el mercado de las pymes antes de que lleguen los distribuidores genéricos con soluciones más baratas. La pregunta para la empresa mediana mexicana es si sube al tren ahora o espera la copia local.
WhatsApp está implementando un nuevo modo privado para los chats de Meta AI, donde ni WhatsApp ni Meta pueden leer ni almacenar la conversación
Esta función opera como un modo "incógnito" de IA. Cuando está activada, los mensajes del usuario y las respuestas del chatbot no se supervisan, y el historial de chat también desaparece del lado del usuario.
Will Cathcart, director de WhatsApp, afirmó que la gente quiere preguntar a la IA sobre temas delicados, como la salud, las relaciones y el dinero, sin sentir que esa información se está guardando.
El director ejecutivo de Meta, Mark Zuckerberg, la calificó como el primer producto importante de IA sin registros de chat almacenados en servidores.
Cathcart afirmó que no es lo mismo que el cifrado de extremo a extremo habitual de WhatsApp, pero que pretende ofrecer un nivel de privacidad similar.
Esta actualización llega después de que el año pasado se añadiera Meta AI a WhatsApp, lo que molestó a algunos usuarios porque no podían desactivarlo por completo.
En mayo de 2025, Zuckerberg afirmó que Meta AI había alcanzado los mil millones de usuarios en todas las aplicaciones de Meta.
Sin embargo, esta función también suscita inquietudes. El profesor Alan Woodward, experto en ciberseguridad, afirmó que el riesgo para la privacidad del sistema de seguridad general de WhatsApp parece bajo, pero la desaparición de los chats podría dificultar la investigación de problemas si algo sale mal.
La preocupación radica en la responsabilidad. Si los usuarios o Meta no pueden recuperar las conversaciones de la IA, puede resultar difícil demostrar si las respuestas del chatbot causaron algún daño.
Los puntos principales:
WhatsApp añadirá un modo privado para los chats de Meta AI.
Esta función protege la privacidad, pero puede dificultar la rendición de cuentas.
Meta está realizando una importante apuesta por la inteligencia artificial en todas sus plataformas.
Privacidad con un problema de rastro documental
Cathcart afirmó que la función comenzará mostrando solo texto, sin imágenes.
También afirmó que los sistemas de seguridad de Meta AI serán cautelosos al procesar solicitudes que puedan ser dañinas o ilegales.
Por ahora, los usuarios de WhatsApp solo pueden usar la inteligencia artificial de Meta dentro de la aplicación, después de que la compañía bloqueara otros chatbots en la plataforma.
Meta también está invirtiendo fuertemente en infraestructura de IA, con costos estimados de alrededor de 145 mil millones de dólares en 2026.
Los inversores están atentos para ver si ese gasto se traduce en un mayor crecimiento de las aplicaciones, los anuncios y las herramientas de comercio de Meta.
Publicar un comentario