"¿Puedo usar IA para esto?" ya no es una buena pregunta. Esta herramienta te da una respuesta mucho más útil.
La mayoría de los profesores llevan dos años respondiendo lo mismo: “depende”. Pero los que han empezado a usar la AI Assessment Scale tienen una respuesta clara, consistente y que los alumnos entienden a la primera.
Imagínate llegar al primer día de clase, repartir el enunciado de un trabajo y que la primera pregunta de un alumno sea: “¿Puedo usar ChatGPT?”
Antes, la respuesta era una política de prohibición, una larga explicación o un incómodo “depende del trabajo”. Hoy, con esta escala, la respuesta está en el propio enunciado.
La AI Assessment Scale es un marco de 5 niveles publicado en abril de 2026 por la Victorian ICT Network for Education (VINE) y creado por Leon Furze (Furze Smith Consulting). Lo usan ya decenas de colegios para comunicar de forma clara cuánta IA está permitida en cada tarea. Y funciona porque elimina la ambigüedad de raíz.
Los 5 niveles explicados (y cuándo usar cada uno)
La escala va del nivel 1 al 5. No es una progresión de “menos a más permitido” en el sentido moral: es una guía pedagógica que define el rol de la IA en función del objetivo de aprendizaje.
Nivel 1 — Sin IA El alumno completa la tarea sin ninguna asistencia de IA. Sin acceso a herramientas de IA en ningún momento del proceso. El objetivo es que el estudiante demuestre sus conocimientos y habilidades propias. Cuándo usarlo: exámenes presenciales, ejercicios de diagnóstico, tareas donde evalúas precisamente la capacidad no asistida.
Nivel 2 — Planificación con IA La IA se puede usar para actividades previas: lluvia de ideas, búsqueda, síntesis, esquemas. Pero el trabajo final debe mostrar el propio desarrollo y refinamiento de esas ideas. Cuándo usarlo: trabajos de investigación donde quieres que el alumno tome decisiones propias después de explorar con IA.
Nivel 3 — Colaboración con IA La IA puede ayudar a completar la tarea (generar texto, dar feedback, hacer borradores), pero el alumno debe evaluar críticamente el output y modificarlo. El trabajo final es una combinación de IA y criterio propio. Cuándo usarlo: redacciones, proyectos donde el proceso de revisión y criterio editorial es parte del aprendizaje.
Nivel 4 — IA completa El alumno puede usar IA a lo largo de toda la tarea, con total autonomía para dirigir el proceso. El objetivo es que el alumno dirija la IA hacia sus metas y demuestre pensamiento crítico sobre los resultados. Cuándo usarlo: proyectos complejos de resolución de problemas donde la habilidad evaluada es gestionar y dirigir la IA, no producir contenido desde cero.
Nivel 5 — Exploración con IA La IA se usa de forma creativa para resolver el problema, generar nuevas perspectivas o co-diseñar enfoques innovadores junto con el docente. Es el nivel más abierto y experimental. Cuándo usarlo: proyectos de investigación avanzados, trabajo final de bachillerato, contextos donde fomentas la innovación pedagógica activa. Trabajos de investigación conjunta con profesor.
Por qué funciona: claridad para todos, no sólo para el alumno
Un docente de un colegio con el que trabajamos aplicó esta escala el pasado trimestre. Antes, cuando ponía “no se permite el uso de IA”, algunos alumnos la usaban igualmente y otros no, creando una desigualdad enorme en los resultados. Cuando cambió el enunciado a “Nivel 2: puedes usar IA para la fase de investigación, el análisis debe ser tuyo”, tres cosas ocurrieron:
Los alumnos dejaron de preguntarle si podían usar IA.
Las entregas mostraron más variedad de fuentes y perspectivas.
Las conversaciones en clase se volvieron más ricas, porque los alumnos habían explorado más.
La clave no es la prohibición ni la permisividad. Es la intención pedagógica explícita.
La pregunta que cambia cómo diseñas una tarea
Los creadores de la escala proponen una pregunta que deberías hacerte antes de diseñar cualquier evaluación:
“¿Es esto un buen uso del cerebro del alumno, o un buen uso de la tecnología?”
No son mutuamente excluyentes. Pero formularte esta pregunta te obliga a decidir cuál es el objetivo real de aprendizaje de esa tarea. Y esa decisión es la que determina el nivel de la escala que le asignas.
Una tarea de Nivel 1 no es “más rigurosa” que una de Nivel 4. Son rigorosas de formas distintas. El error está en usar el mismo nivel para todo sin pensar en qué estás evaluando.
Cómo lo están usando los colegios: el diseño de la evaluación resistente a la IA
El documento VINE 2026 va más allá de la escala. Propone que las tareas se diseñen de forma que sean auténticamente resistentes al mal uso de la IA, no simplemente difíciles de hacer con IA.
Esto significa:
Incluir evaluación del proceso, no solo del producto final (borradores, anotaciones, reflexiones sobre el proceso).
Diseñar tareas que requieran conocimiento local, personal o específico de la clase que una IA general no tiene.
Usar defensas orales o entrevistas breves para verificar comprensión.
Incorporar portafolios que muestren evolución real a lo largo del tiempo.
La trampa más común es añadir restricciones para que “la IA no pueda hacerlo”. Ese enfoque siempre pierde. La carrera armamentista entre detección y generación de IA está perdida de antemano.
Prompt para probar tus tareas: “Actúa como un alumno de [nivel educativo]. Completa esta tarea con la mejor calidad posible: [pega aquí el enunciado]. Incluye fuentes y argumentación.”
Si el resultado es indistinguible de un buen trabajo de alumno, necesitas rediseñar la tarea, no añadir más prohibiciones.
Cómo replicarlo hoy en tu aula
Elige una tarea que vayas a poner en las próximas semanas. No tienes que empezar por todas.
Hazte la pregunta central: ¿qué habilidad estoy evaluando exactamente? ¿Es la escritura, el análisis, la investigación, la resolución de problemas?
Asigna un nivel (del 1 al 5) según el objetivo de aprendizaje, no según lo que te parezca más “seguro”.
Añade el nivel al enunciado de la tarea con una frase corta que explique qué significa en ese contexto.
Testea la tarea tú mismo con una IA. Si el resultado te preocupa, rediseña el proceso de entrega, no el nivel.
Habla con tu alumnado sobre por qué has elegido ese nivel. La transparencia pedagógica tiene un efecto enorme en la honestidad académica.
Revisa el nivel del semestre siguiente. La tecnología cambia. Lo que era Nivel 4 hace dos años puede ser Nivel 2 hoy.
No necesitas ser experto en IA para hacer esto. Necesitas claridad sobre qué quieres que aprendan tus alumnos.
¿Sustituye esto al criterio del docente?
No. Cambia la forma en que el docente comunica su criterio. La decisión pedagógica sigue siendo tuya al 100%.
¿Funciona para todas las asignaturas?
Sí. La escala fue diseñada para ser agnóstica respecto a la materia. Matemáticas, Lengua, Ciencias Sociales, Arte: el nivel aplicable depende de lo que evalúas, no de la asignatura.
¿Qué hago con los alumnos que usan IA cuando no está permitido (Nivel 1)?
El documento VINE es explícito en esto: los sistemas de detección de IA tienen tasas de error inaceptables y penalizan especialmente a estudiantes que escriben en un segundo idioma. La respuesta está en el diseño de la tarea, no en la detección.
¿Qué otras herramientas hacen algo similar?
Existen marcos como el de la UNESCO (2024) para IA en educación o el framework OECD/EC AI Literacy. La AI Assessment Scale es más operativa y fácil de incluir directamente en los enunciados de tareas. También existe el trabajo de Perkins, Furze, Roe & MacVaugh (2024) que es la base académica de esta escala.
¿Los alumnos entienden la escala?
En los colegios que la han implementado, la respuesta es sí, especialmente cuando el docente la explica en la primera semana del curso con ejemplos concretos de cada nivel.
El debate en educación lleva demasiado tiempo atascado en “¿prohibimos la IA o no?”. Esa es la pregunta equivocada.
La pregunta correcta es: ¿qué queremos que aprendan nuestros alumnos, y cómo diseñamos tareas que lo garanticen con o sin IA?
La AI Assessment Scale no resuelve todos los problemas. Pero sí da al docente un lenguaje común, un sistema transparente y una forma de comunicar expectativas sin ambigüedad.
Troleo, memes y deepfakes: cómo la IA está espesando la niebla de la guerra
Estados Unidos e Irán están utilizando la tecnología para obstruir la cobertura del conflicto actual. Cuatro expertos analizan cómo la IA está transformando los informes de guerra y el ecosistema de noticias
La guerra nunca se ha librado sólo sobre el terreno. El concepto de Clausewitz del “niebla de guerra” una vez describió la incertidumbre y la confusión que nublan la toma de decisiones en el campo de batalla. Errol Morris’ Documental de 2003 hizo de la frase una abreviatura de las ambigüedades morales e informativas del conflicto moderno. Pero en la era digital, donde la guerra también se filma, edita y promociona en línea, la niebla se hace más espesa y las guerras, más difíciles de cubrir.
El conflicto entre Estados Unidos e Irán deja este punto más claro que nunca. A medida que imágenes, videos y narrativas inundan las redes sociales, ahora se vuelve aún más difícil saber qué es real y qué no, y tanto el auge de la IA como los cambios en las plataformas digitales están cambiando la forma en que se ve y se entiende la guerra.
Este no es el primer conflicto tras el lanzamiento de ChatGPT. Pero podría ser el primero en el que la IA generativa haya desempeñado un papel clave en la guerra de la información.
En 2026, el contenido generado por IA ha aumentado en las redes sociales, tanto en volumen y visibilidad. Imágenes falsas de drones, imágenes satelitales fabricadas, clips editados y declaraciones sintéticas se están difundiendo ampliamente y a menudo llegan a millones de espectadores.
En conflictos anteriores, como la temprana guerra entre Israel y Hamás, desinformación Todavía dependían más de imágenes reales recicladas o mal subtituladas. Ahora, incluso las cuentas oficiales comparten abiertamente contenido falso. Para entender cómo se difundieron estas narrativas (y cómo atravesarlas) hablé con cinco investigadores, investigadores y periodistas que trabajan en la primera línea de este traicionero entorno informativo.
ARTÍCULO COMPLETO:
https://reutersinstitute.politics.ox.ac.uk/news/trolling-memes-and-deepfakes-how-ai-thickening-fog-war?utm_source=Reuters+Institute+for+the+Study+of+Journalism&utm_campaign=cd8526bd11-EMAIL_CAMPAIGN_2026_05_01_10_41&utm_medium=email&utm_term=0_-cd8526bd11-459081384
Anthropic, la empresa líder en inteligencia artificial, presentó un conjunto de nuevos agentes de IA dirigidos directamente a Wall Street
Diseñados para gestionar una gama más amplia de tareas en el sector de los servicios financieros , Anthropic afirma que pueden elaborar presentaciones para reuniones con clientes, revisar estados financieros y derivar casos para su revisión por cumplimiento normativo. Estas nuevas herramientas —diez en total— están dirigidas a profesionales de la banca, los seguros, la gestión de activos y la tecnología financiera.
En febrero, una herramienta de automatización de Anthropic provocó una caída de 285 mil millones de dólares en las acciones de los sectores de software, servicios financieros y gestión de activos, ya que los inversores se apresuraron a deshacerse de las acciones con la más mínima exposición. La reacción del martes no fue tan dramática , aunque sin duda desagradable para algunos.
Las acciones de FactSet Research Systems cayeron hasta un 8,1% tras el anuncio, mientras que Morningstar borró las ganancias iniciales y cayó más del 3%. Las acciones de S&P Global y Moody's también sufrieron una fuerte presión vendedora. Las acciones de Thomson Reuters cayeron hasta un 5,1% .
Como parte de sus nuevas ofertas, Anthropic ha anunciado que está mejorando el funcionamiento de su modelo de IA Claude en software de terceros como Excel, PowerPoint y Outlook, e integrando datos de socios del sector de servicios financieros, como Dun & Bradstreet y Moody's.
También de interés potencial para los trabajadores del sector financiero, Anthropic está estrechando sus lazos con Wall Street mediante una nueva empresa conjunta con Blackstone, Hellman & Friedman y Goldman Sachs. Esta iniciativa trabajará para implementar su software en más empresas. OpenAI ha finalizado los planes para un proyecto similar.
En otras noticias sobre IA, Google, Microsoft y xAI han acordado otorgar a la administración Trump acceso anticipado a sus modelos de IA para evaluar las capacidades de los sistemas y contribuir a mejorar su seguridad antes de su lanzamiento al público. Con estos acuerdos, las empresas se unen a OpenAI y, como es bien sabido , a Anthropic, al permitir revisiones previas al lanzamiento de sus modelos.
El Banco Central Europeo le ha echado un vistazo a Mythos y ha tomado una decisión: prepararse para el peor de los escenarios
Han pasado unos días desde el lanzamiento de Mythos, el gran modelo de IA de Anthropic que es tan peligroso que no puede caer en manos del usuario final. Ya está dando frutos descubriendo fallos de seguridad en apps que usamos día a día, pero también está siendo estudiado por instituciones que, en cierto modo, dan la razón a Anthropic. Mythos, y similares, no pueden caer en las manos equivocadas, y toca prepararse.
OpenAI ha estudiado con detalle la “estrategia del miedo” de Anthropic y Mythos. Y ha decidido copiarla tal cual
Otra de Mythos, pero tiene su gracia. Cuando Anthropic lo presentó, lo hizo con esa narrativa de “es peligroso y demasiado potente”. ¿Quién no tardó en saltar para decir que Anthropic estaba usando la estrategia del miedo para vender su producto? Efectivamente: Sam Altman, CEO de OpenAI. ¿El girito? Pues que acaban de lanzar GPT-5.5 Cyber y el propio Altman apunta que es una IA tan potente que sería peligroso que cayera en las manos equivocadas. Un poco lo de siempre entre las dos empresas, en realidad.
Greg Brockman, presidente y cofundador de OpenAI Inc., afirma que la falta de conocimientos de Musk sobre IA era motivo de preocupación en OpenAI.
El presidente de OpenAI, Greg Brockman, testificó que Elon Musk calificó de "estúpido" a un predecesor de ChatGPT y les dijo a los investigadores que desarrollaban el modelo que "los chicos de internet podrían hacerlo mejor", lo que generó preocupación entre sus cofundadores de que el multimillonario careciera de la paciencia necesaria para dirigir la empresa.
El problema ya no es que Chrome devore tu RAM: es que está descargando modelos IA de varios gigas sin avisar
Alguien ha descubierto que el navegador de Google se está descargando el modelo de IA Gemini Nano (de más de 4 GB) en tu ordenador sin avisar. El objetivo, que puedas usarlo si lo necesitas. Puede que la intención sea ayudar, pero que Google no avise y que encima no haya forma fácil de desactivar esta opción no habla muy bien de la empresa.
Si en algún momento NVIDIA tiene que elegir entre dar sus mejores chips a EEUU o a China, tiene clarísima su elección
El CEO de NVIDIA, Jensen Huang, lo tiene claro: quiere seguir haciendo negocios en China, pero sin venderles sus chips más avanzados. Y tiene una solución que de hecho ya estaba en marcha en el mercado: no venderles lo mejor de lo mejor. Eso se queda en casita a buen recaudo
Apple deja entrar a Anthropic y Google al cerebro de tu iPhone
Bloomberg trae que iOS 27 va a estrenar "Extensions": cualquier modelo de IA instalado podrá meterse a Siri, a la herramienta que te reescribe correos y a la que te genera imágenes. Anthropic (Claude) y Google (Gemini) ya están en pruebas. ChatGPT, que es el default actual, probablemente sigue como opción. Misma jugada para iPad y Mac.
Apple no construyó su propia IA y ya no piensa hacerlo. Va a cobrarles a las que sí. El modelo no es nuevo: Google le paga unos 20,000 millones de dólares al año a Apple por aparecer como buscador default en Safari. Ahora la pregunta es cuánto van a pagar Anthropic, Google u OpenAI por ser la voz que te contesta en el iPhone.
47% es lo que ganan de más, en promedio, quienes ocupan los puestos más expuestos a la inteligencia artificial, según el Índice Económico de Anthropic. Son profesionistas con formación universitaria en áreas como programación y finanzas. La IA no empezó por los empleos manuales de bajo costo; entró directamente por las tareas intelectuales de quienes hoy más ganan. El motivo es económico: fabricar robots físicos para tareas manuales sigue siendo carísimo, mientras que la IA es cada vez más barata. Me volveré carpintero.
Publicar un comentario