El nuevo modelo de IA de Meta tiene cosas interesantes y cosas inquietantes, pero, atención, quizá no quiere competir en algunos aspectos con los modelos de lenguaje.
Ok, pero entonces ¿qué IA es la mejor?
Gigantes de la IA acusan a China de plagio
Filtración masiva de código en Anthropic
El mapa global de la IA en 2026
IA anticipa insuficiencia cardiaca con años de ventaja
¿Qué modelo de IA pagas?
Meta lanzó Muse Spark (se puede probar en meta.ai) y aún es temprano para saber si está ganando o simplemente cambiando el juego.
Este segmento de la competencia entre las empresas que desarrollan IA había comenzado con un fichaje. Y hay fichajes que compran talento; pero otros, planeados estratégicamente, más bien compran tiempo.
El de Alexandr Wang parece pertenecer a la segunda categoría.
Meta no solo incorporó al joven prodigio a su estructura. Compró con él velocidad de ejecución. Compró margen para rehacerse después de un tropiezo incómodo: Llama 4 no estuvo a la altura.
Muse Spark, entonces, es el primer producto que lleva esa nueva impronta. Pero, hay que decirlo, no es una obra individual. Es una reconstrucción a escala industrial, comprimida en meses.
Y el mercado decidió creer en la apuesta de Meta. El día del anuncio, la acción subió alrededor de 6.5%. En paralelo, empezó a circular una cifra más ambiciosa: inversiones proyectadas de hasta 135 mil millones de dólares en IA hacia 2026.
La prensa, inicialmente, había leído otra cosa. “Un movimiento defensivo”, llamaron al lanzamiento de Muse Spark. Meta, de acuerdo con la versión más difundida, estaba reaccionando a la brecha que ya habían abierto Google, OpenAI, Anthropic.
No están viendo lo mismo.
El mercado compra futuro.
Los analistas miran presente.
En lo técnico, la nueva IA de Meta muestra avances reales, aunque más acotados de lo que sugiere la narrativa optimista.
Para empezar, Muse Spark deja de tratar texto, imagen y voz como módulos separados. Los procesa como un flujo continuo. Eso se traduce en respuestas más integradas, menos fragmentadas. Esa es la diferencia inicial contra otros modelos de lenguaje.
También cambia la forma de “razonar”. En lugar de alargar el pensamiento, lo distribuye. Varios subprocesos trabajan en paralelo y luego sintetizan.
Más velocidad. Más amplitud. Pero no necesariamente más consistencia.
En tareas largas (programación compleja, procesos encadenados) el modelo pierde el hilo porque olvida pasos intermedios. Se desvía.
La pregunta es inevitable: ¿entonces dónde está la evolución? En la respuesta está el corazón de la estrategia. Meta ya le había puesto nombre: “superinteligencia personal”.
La expresión impresiona. Conviene desmontarla.
No apunta a una inteligencia más profunda. Apunta a una inteligencia más cercana. Es decir, una inteligencia presente en tus mensajes, tus búsquedas, tus hábitos.
No es una “mente” que entiende mejor el mundo. Pero te “lee” mejor a ti.
Ahí está el giro.
Porque uno de sus usos principales está pensado en gafas, no en una pantalla con caracteres.
Porque lo que Meta presenta como inteligencia puede ser, en realidad, una forma extrema de personalización predictiva. No es comprender el mundo, sino anticiparse a lo que tú necesitas del mundo.
Yann LeCun, el venerado Científico Jefe de IA de Meta y pionero del aprendizaje profundo, lleva tiempo insistiendo en una hipótesis: si la meta es inteligencia a nivel humano, los modelos actuales no son el camino.
Son extraordinarios reconociendo patrones. Pero no construyen una comprensión del mundo. No tienen intuición física. No acumulan experiencia como memoria viva.
No planifican en entornos abiertos.
Entonces, ¿por qué parecen cada vez más capaces?
Porque responden mejor, no porque entiendan mejor.
La diferencia no es retórica. Es estructural.
Aquí está el corazón de lo que podría significar en el futuro la IA de Meta.
En paralelo al lanzamiento de Muse Spark, ocurrió algo menos visible, pero más decisivo: Meta cerró el acceso.
Durante años, Llama funcionó como una infraestructura abierta, es decir, compartía con el mundo su base. Permitía a desarrolladores, startups y hasta competidores construir sobre ella con costos mucho menores.
Eso distribuía poder.
Las empresas chinas aprovechaban la oportunidad. Era prácticamente un subsidio.
Muse Spark ya rompió con eso. Es un modelo cerrado, controlado, integrado a su propio ecosistema.
Al cerrar, Meta deja un vacío. Es cierto, los laboratorios chinos que venían utilizando Llama como base ya no se verán beneficiados. Pero no parten de cero. Parten de lo ya construido.
No es solo una decisión empresarial. Tiene implicaciones geopolíticas.
Lo más inquietante viene después.
Durante pruebas independientes, Muse Spark mostró una conducta inesperada: identificar que estaba siendo evaluado y ajustar su comportamiento.
Responder con más cautela.
Evitar riesgos.
Parecer alineado.
Implica que el sistema distingue el contexto de observación y actúa en función de él.
Si un modelo sabe cuándo está siendo evaluado, entonces las pruebas dejan de ser una ventana confiable de su comportamiento.
Volvamos entonces al inicio: ¿Meta desbancará al resto?
Tal vez no en el sentido habitual.
Muse Spark no es el modelo más potente ni el más estable. Tampoco el más avanzado en todas las dimensiones.
Pero está insertado donde los demás no están. Y tiene una base de entrenamiento que nadie más puede presumir: tres mil millones de usuarios que aportan, voluntaria o involuntariamente, información. Y ahora, con una capa de razonamiento encima.
La ventaja no está en la inteligencia pura, está en la proximidad con los usuarios comunes.
La competencia sigue midiendo quién construye la mejor mente.
Meta parece apostar por otra cosa.
Durante años, la pregunta ha sido quién construirá la inteligencia más avanzada.
Meta parece estar respondiendo a otra premisa.
Para ellos, no importa tanto qué tan inteligente es la máquina. Importa qué tan cerca está cuando alguien debe decidir algo.
Esa distancia, para ellos ya era corta por el aprovechamiento de la información que reciben en Instagram, WhatsApp y Facebook. Pero ahora parecen estar todavía más cerca.
Ok, pero entonces ¿qué IA es la mejor?
Conviene ser muy cuidadosos a la hora de intentar una respuesta ante esta pregunta. Porque no se trata de responder con base en simpatías o convicciones basadas en campañas de marketing: cada IA es diferente y sus versiones son expertas en distintas áreas.
Una IA puede ser ideal para algunas áreas del conocimiento y dar resultados pobres en otra. Las necesidades de un diseñador son distintas a las de un programador y cada quien basará su respuesta en su experiencia personal.
Por ejemplo, el Software Engineering Benchmark (SWE-bench) es un examen diseñado para medir la capacidad de una Inteligencia Artificial para programar y resolver problemas de código del mundo real, tal como lo haría un desarrollador de software humano. Ahí destaca Claude Opus 4.6.
Pero también hay otro benchmark, Terminal-Bench que evalúa la capacidad de la IA para realizar tareas de administración de sistemas, DevOps o configuraciones complejas. Es decir, configurar servidores, analizar vulnerabilidades de seguridad… eso no está directamente relacionado con el desarrollo de código. En esta tarea es mejor Chat GPT-5.4.
Otro aspecto es el costo de las API. Una API (Interfaz de Programación de Aplicaciones) es el "puente" que permite a un programador conectar una Inteligencia Artificial a su propia aplicación.
Por ejemplo, si una empresa quiere crear un bot de atención al cliente en su página web usando Gemini, no usa la interfaz web de Gemini para que el usuario le pregunte al chatbot, sino que se conecta "por detrás" usando la API. Las empresas de IA cobran por este uso, normalmente por cada "token" (que equivale a fracciones de palabras) que la IA lee o escribe.
Gemini cobra $2 y $12 dólares por cada millón de tokens (el primer número es por los datos que se le envían a la IA para leer, y el segundo por el texto que la IA genera). Y cuando entran costos, con frecuencia el precio suele ser un factor primordial para elegir al “mejor” proveedor.
Gigantes de la IA acusan a China de plagio
Empresas como OpenAI, Google, Anthropic y Microsoft hoy comparten información para detectar intentos de “destilación adversa”, una técnica con la que modelos más pequeños aprenden a partir de las respuestas de sistemas más avanzados. El objetivo es identificar usos indebidos y proteger desarrollos propios. Esta técnica les ha permitido documentar lo que ahora señalan públicamente: que empresas chinas plagian sus modelos.
DeepSeek ha sido señalada por aprovechar este tipo de prácticas, mientras en Estados Unidos crecen las preocupaciones por la copia de modelos y la pérdida de ventaja competitiva en inteligencia artificial.
Filtración masiva de código en Anthropic
Anthropic expuso por error cerca de 500 mil líneas de código interno en un archivo alojado en su propia nube. El paquete incluía casi 2 mil archivos y fue replicado rápidamente en GitHub, donde se volvió accesible para la comunidad tecnológica en cuestión de horas.
La empresa aseguró que no se filtraron datos sensibles ni credenciales, y atribuyó el incidente a un error humano en el empaquetado de una versión de Claude Code. El caso generó atención por tratarse de una firma que ha construido su reputación en torno a la seguridad de sus sistemas.
El mapa global de la IA en 2026
El informe AI Index 2026 de Stanford documenta un crecimiento acelerado en capacidades de inteligencia artificial, junto con una brecha cada vez mayor entre desarrollo tecnológico y regulación. Los modelos de Estados Unidos y China se han alternado el liderazgo desde 2025, mientras aumentan los incidentes relacionados con IA.
La adopción de herramientas generativas alcanzó 53% de la población en tres años, superando el ritmo de tecnologías como internet o la computadora personal. El informe también agrega datos sobre los usos que hoy tiene la tecnología en distintos ámbitos, como la economía, la medicina y la educación.
IA anticipa insuficiencia cardiaca con años de ventaja
Un equipo de la Universidad de Oxford desarrolló una herramienta de inteligencia artificial capaz de predecir el riesgo de insuficiencia cardiaca al menos cinco años antes de su aparición clínica. El sistema utiliza tomografías cardiacas de rutina para identificar patrones asociados con la enfermedad.
El modelo fue entrenado y validado con más de 70 mil pacientes de nueve centros del sistema de salud británico. En pruebas, alcanzó una precisión de 86% y permitió distinguir grupos con hasta 20 veces más probabilidad de desarrollar la condición.
OpenAI acaba de lanzar GPT-Rosalind el primer agente de ciencias biológicas diseñado para flujos de trabajo en biología
El modelo lleva el nombre de Rosalind Franklin, química británica y heroína anónima del ADN, cuya fotografía de rayos X ayudó a confirmar la trascendental estructura de doble hélice.
Rosalind está diseñada para agilizar los procesos en bioquímica, descubrimiento de fármacos y medicina traslacional. En otras palabras, para reducir el tiempo que transcurre entre un descubrimiento científico y su aplicación clínica.
Disney apuesta fuerte
Disney se asocia con cadenas de cines para lanzar una nueva pantalla de gran formato que competirá con IMAX. Consulta cuántos cines podrían optar al nuevo formato.
Ericsson decepciona
La compañía sueca de telecomunicaciones defraudó a los inversores al presentar ganancias en el primer trimestre inferiores a las previstas. Esto es lo que está afectando a la empresa.
Cambios en OpenAI
El director de iniciativas científicas y el ejecutivo a cargo del equipo de vídeo Sora abandonan la compañía de IA. Estas salidas forman parte de cambios más amplios en OpenAI.
ChatGPT baja precios de anuncios a la mitad
Cobrar más que LinkedIn por un anuncio sin medición, sin historial y sin prueba de retorno de inversión. Eso hizo ChatGPT al arrancar su negocio publicitario en febrero con un costo por mil impresiones de 60 dólares. Nueve semanas después ya se consigue entre 25 y 35 dólares. Para contexto: Facebook cobra 4.82, Google Display 10.33. LinkedIn anda como en 39 dólares, en promedio.
Anthropic entra al diseño y Adobe ya lo sintió en Bolsa
Adobe y Figma vieron caer sus acciones en hasta 8% por un tuitazo de Anthropic (¿todavía se vale decir tuitazo?). Pasa que Anthropic confirmó Claude Design: un editor visual que genera presentaciones, prototipos, materiales de marca y one-pagers desde texto, imagen o código. Corre en Opus 4.7, lee automáticamente los lineamientos de diseño de tu empresa para que todo salga con tus colores y tipografía, y exporta directo a Claude Code.
La pregunta incómoda: Anthropic se está comiendo, una vez más, a otro sector, así que ¿cuál será el siguiente?
Jalisco fabrica la fontanería del boom de IA
Mientras medio mundo pelea por quién diseña los chips de inteligencia artificial, Jalisco se dedicó a fabricar la infraestructura física que los conecta. El estado cerró 2025 con 52,500 millones de dólares en exportaciones, récord histórico y un salto del 66% contra 2024. ¿El sector que jaló el carro? Telecomunicaciones, específicamente manufactura de equipos para alimentar data centers.
Corea apuesta por gafas de IA para exportar teatro sin traducirlo
Un musical nació en un teatrito de Seúl en 2016, llegó a Broadway en 2024 y se llevó seis premios Tony. Eso bastó para que el gobierno coreano multiplicara por cuatro su presupuesto de musicales a 18 millones de dólares en 2026. ¿La apuesta? Que el mundo consuma teatro en coreano original, con unas gafas de la startup Xpert Inc. que traducen diálogos en tiempo real vía IA a cuatro idiomas.
Es la jugada inversa a Hollywood: en vez de doblar el contenido, exportar el idioma como parte del producto. Eso sería imposible sin el boom de gafas inteligentes.
Una artista que no existe arrasa en cinco países
"Celebrate Me" ocupa el número 1 simultáneamente en Estados Unidos, Reino Unido, Francia, Canadá y Nueva Zelanda. Su creadora, IngaRose, tiene 220,000 seguidores en TikTok, 230,000 en Instagram, tres álbumes completos y casi 300,000 videos virales con su canción. Toda su música sale de Suno, la plataforma de IA valuada en 2,450 millones de dólares que ya suma 100 millones de usuarios.
Para la industria: UMG y Sony demandan a Suno por entrenar con música protegida, pero el dato incómodo ya está en las listas: al oyente promedio no le importó quién cantaba. Le dio play. Y eso quiere decir mucho dinero.
Publicar un comentario