Tanta gente optimiza su trabajo con inteligencia artificial gratuita que ya hay un término para ello: shadow AI. El problema viene después.
“Los datos son el nuevo petróleo”
—Clive Humby, científico de datos y emprendedor.
Hay algo de placer casi culposo en la idea de una inteligencia artificial gratuita.
Acceso sin costo, poder sin fricción, conocimiento disponible en cualquier momento.
Pero es una ilusión.
Porque la inteligencia artificial no es barata. No puede serlo.
Cada respuesta que recibes es un proceso físico. Electricidad, calor, chips, GPUs funcionando a escala industrial, consumiendo energía de forma constante, incluso voraz.
Se estima que más del 90% del costo de estos sistemas se genera no al entrenarlos, sino al usarlos. A cada consulta corresponde una factura invisible.
Entonces, si no pagas tú… ¿quién paga?
O peor aún: ¿con qué se paga?
El relato dominante dice que pagamos con datos. Pero esa frase, aunque tiene una dosis de verdad, se ha vaciado de significado por su uso indiscriminado. No son “datos” en abstracto. Es algo más preciso. Más personal.
Es contexto.
Es tu forma de pensar y plantear un problema. Es el lenguaje con el que formulas una duda. Es el contrato que pegaste en el chatbot para que te lo explique. Es, en muchos casos, tu trabajo.
La gratuidad no elimina el intercambio. Lo vuelve invisible. Y lo invisible, casi siempre, favorece a alguien más.
Porque en los modelos de paga el dato suele estar contenido, acotado, protegido por diseño y por contrato. En las versiones abiertas, en cambio, la frontera es más difusa. No necesariamente por mala fe, sino porque el sistema está hecho para absorber, procesar y aprender de lo que recibe. No hay una intención explícita de explotar tu información. Pero el modelo necesita alimentarse, aprender y ajustarse… Y hace todo eso con la información que le provees.
Hay una clara asimetría: tú sabes que entregas algo, pero no sabes cómo será usado, ni qué valor tendrá después. El desequilibrio se debe a que la inteligencia artificial no solo captura tu comportamiento. También captura el proceso de cognición.
Es justo decir que reducir todo a explotación es cómodo. Y falso.
Porque la gratuidad también ha hecho algo extraordinario: ha distribuido capacidades cognitivas avanzadas a escala global. Ha permitido que un estudiante, un emprendedor o un profesional sin recursos, todos, accedan a herramientas que, hace apenas una década, eran impensables fuera de laboratorios de élite.
Entonces ha democratizado, sí. Pero también ha precarizado la comprensión de lo que está en juego.
Porque no todas las inteligencias artificiales son iguales. No en potencia, no en precisión, no en responsabilidad. Las versiones gratuitas operan con menos capacidad: menos memoria, menos contexto, más margen de error. Las llamadas “alucinaciones” no son fallas accidentales; son una consecuencia estructural de sistemas que solo usan la probabilidad de que una oración siga a otra.
¿Importa esto en la práctica? ¿Importa para ti?
Depende de para qué las uses.
Para explorar ideas, es irrelevante.
Para escribir un correo, tolerable.
Para revisar un contrato, potencialmente desastroso. No solo por los errores: porque en el proceso puedes estar entregando exactamente aquello que intentabas proteger.
La interfaz no distingue la intención. La experiencia es la misma. La ilusión persiste: esto que me responde después de pegarle mis datos parece inteligente, es coherente, luego, debe ser fiable.
Ahí está el riesgo real. No en la herramienta, sino en la interpretación de la herramienta.
Dentro de las empresas ha crecido el fenómeno: el uso informal, no regulado, casi clandestino, de estas tecnologías. Los empleados, en nombre de la eficiencia, copian y pegan bases de datos, documentos internos, contratos. Y en su gran mayoría desconocen el riesgo implícito.
Es más, esta práctica ya tiene nombre: shadow AI.
Ejemplos sobran. En 2023, un abogado en Nueva York utilizó ChatGPT para redactar una moción. Quería acelerar sus resultados, pero la IA inventó seis precedentes judiciales inexistentes que él usó como pruebas. El tribunal sancionó al abogado (no a las máquinas) con una multa de $5,000 dólares y el caso fue desestimado.
Y no, no es que la gente quiera filtrar información o no tema a los errores.
Simplemente la gente quiere trabajar mejor. Pero poco a poco, sin notarlo, empiezan a depender de la tecnología.
Primero para acelerar. Luego para decidir. Después, para pensar.
La paradoja es brutal: la misma herramienta que promete productividad introduce nuevas superficies de vulnerabilidad. Y lo hace sin alertas visibles, sin sensación de peligro.
El riesgo hoy ya no sólo es un hackeo sofisticado. Es un simple gesto cotidiano: copiar y pegar.
Entonces volvemos a la pregunta inicial: si la inteligencia no es gratuita… ¿quién debe pagarla para evitar riesgos?
La respuesta no es única.
A veces paga la empresa, en forma de suscripciones. Y ya no como optimización de procesos, sino como garantía de estabilidad y protección legal. Y esta protección legal incluye el “escudo de copyright” (si usas una IA de pago y alguien te demanda por violar derechos de autor, tienes el respaldo del dueño de la IA. Si es una versión gratuita, estás solo).
Cuando usas IA gratuita en el trabajo, no pagas con dinero. Pagas con contexto, con información sensible, con fragmentos de tu operación.
Pero hay algo más profundo.
Quizá lo que realmente se está pagando es otra cosa: la transición hacia una nueva infraestructura cognitiva. Porque la inteligencia artificial no es solo software; es una red material de recursos, energía y trabajo humano invisibilizado. Y toda infraestructura, cuando se vuelve esencial, deja de ser opcional.
Ese es el punto de inflexión.
La IA ya no es una herramienta más. Empieza a parecerse a la electricidad, a internet. Algo que no eliges usar, sino que atraviesa todo lo que haces.
Y en ese momento, las interrogantes cambian y no se quedan en la minucia de quién paga.
¿Quién controla las condiciones de acceso?
¿Quién define los límites?
¿Quién absorbe los riesgos?
¿A cambio de qué?
La gratuidad, al final, no es un regalo. Es una arquitectura. Es la creación de una nueva forma de codependencia.
Es una forma de organizar el poder, el conocimiento y el costo sin que parezca que alguien está pagando.
Hasta que alguien (siempre alguien) termina pagando.
Y cada vez con más frecuencia, ese alguien no es otro. Eres tú.
¿Qué tanto usan mis datos los LLM gratuitos?
No hay una homologación entre empresas de IA sobre el uso que le dan a los datos. Pero los usan. Cuando es con un pago de por medio, hay un acuerdo de servicios. Ese acuerdo se convierte en una frontera.
Cuando es un uso gratuito, no es que no haya un acuerdo, pero es muy laxo porque es unilateral y no existe un compromiso vinculatorio. Y cada compañía establece sus condiciones.
Otro aspecto que es necesario destacar es que los modelos gratuitos suelen ser menos poderosos. No sólo es la memoria disponible, sino la capacidad de procesamiento de datos. Por eso los gratuitos son menos inteligentes.
Hay estándares para compararlos y lo que revelan los datos deja ver con claridad la diferencia.
X convierte el feed en una arquitectura personalizable
X incorporó “custom timelines”, una función que permite reorganizar el feed en múltiples cronologías temáticas dentro de la misma app. Cada usuario puede fijar distintos intereses y alternar entre ellos como si fueran canales independientes, desplazando el modelo de una sola línea de contenido hacia una estructura modular.
El sistema se apoya en la inteligencia artificial de la plataforma, que ajusta la selección según la interacción. La función está disponible inicialmente para suscriptores Premium en iOS y se perfila como un paso más en la personalización algorítmica del consumo de información.
WhatsApp prueba un modelo de pago sin tocar la base gratuita
WhatsApp comenzó a explorar una versión de suscripción llamada “Plus”, orientada a funciones adicionales sin modificar el servicio central. La aplicación, que se ha mantenido gratuita desde su lanzamiento, abre así una nueva vía de monetización dentro del ecosistema de Meta.
Entre las funciones en prueba se encuentran opciones de personalización como stickers exclusivos, temas visuales y mayor capacidad para fijar conversaciones. El servicio aún no tiene precio definido y coexistiría con la versión gratuita, que conservaría su cifrado de extremo a extremo.
Gemini encabeza la confianza en inteligencia artificial
Un estudio del Índice de Satisfacción del Cliente Estadounidense ubicó a Gemini como la inteligencia artificial que genera mayor confianza entre usuarios. Su integración con servicios ampliamente utilizados, como gmail, refuerza la percepción de familiaridad y continuidad en el uso cotidiano.
ChatGPT aparece en segundo lugar, con alta adopción pero con reservas vinculadas a privacidad y precisión. Claude destaca por su enfoque en seguridad. En conjunto, los resultados muestran una relación ambivalente: la adopción crece, pero la confianza no es uniforme.
OpenAI lleva la IA al núcleo del descubrimiento farmacéutico
OpenAI presentó GPT-Rosalind, un modelo diseñado para tareas de genómica y desarrollo de fármacos. La herramienta busca acelerar procesos que actualmente pueden tomar más de una década, mediante el análisis de grandes volúmenes de datos biológicos y químicos.
En pruebas específicas, el sistema mostró un desempeño superior al de expertos humanos en tareas acotadas. Su acceso estará restringido a instituciones verificadas, debido a los riesgos asociados al manejo de información sensible en investigación biomédica.
La IA de Elon Musk no tiene su propio Claude Code, pero ya tienen solución para eso: comprar Cursor
Elon Musk no quiere quedarse atrás en la carrera de la programación con IA y quiere comprar Cursor por 60,000 millones de dólares para plantar cara a Claude Code. Porque ya se sabe: si no puedes vencer a tu enemigo, saca la cartera y compra el arma con el que derrotarle.
Una empresa increíblemente rentable y una deuda pendiente con la IA: la Apple que Tim Cook lega a John Ternus
Tim Cook deja una Apple con las arcas repletas de dólares, pero con el reto de recuperar la chispa innovadora que parece haberse desparecido de Cupertino. Ahora le toca a John Ternus tapar las grietas y demostrar que puede mantener el imperio sin que la magia de la manzana desaparezca.
Con ChatGPT Images 2,0, OpenAI dice haber solucionado el gran problema de los generadores de imagen: las letras
Creíamos que con Nano Banana 2 y habíamos llegado a límites increíbles en generación de imágenes, pero no. El nuevo modelo de OpenAI es sencillamente alucinante y es capaz hasta de crear capturas de pantalla que no son capturas de pantalla. Por si acaso ya sabes: desde ahora no creas nada de lo que veas.
ChatGPT activa los anuncios de pago por clic. Y con ellos se repite el problema que destruyó la credibilidad del SEO
Vuelve el modelo de coste por clic (CPC) y el miedo es real: la objetividad de la IA podría morir a manos del mejor postor. Es el mismo drama que arruinó las búsquedas de Google; si las respuestas dependen de quién paga, prepárate para navegar entre “recomendaciones” sospechosas.
Google prefiere usar Claude
Es de escándalo. Tienen seis productos de coding AI bajo el mismo techo y nomás ninguno se usa en casa. Bloomberg se enteró de que los equipos de DeepMind, dentro de Google, usan Claude Code, lo que prueba que sus herramientas internas tienen demasiada fricción. Tienen el dinero, el modelo y la infraestructura, pero en la carrera del coding Google está detrás.
No quiere decir que no tengan futuro. ChatGPT era el único en chatbots hasta que Gemini apareció subiendo en rankings. Mientras, Anthropic es el rey del baile.
Wall Street sube ganancias y despide con IA
Hace cuatro meses, el CEO de Bank of America prometió en televisión que la IA "no es una amenaza" para sus 210,000 empleados. La semana pasada, luego de reportar 8,600 millones de dólares de utilidad, reconoció que recortaron 1,000 puestos "eliminando trabajo y aplicando tecnología". Ahora Citi va por 20,000 recortes en total. La nota original es del Times.
En un tema relacionado, Meta ya usa un software llamado Model Capability Initiative que corre en todas las computadoras de sus empleados. Captura movimientos del mouse, clics, y tecleos. La bronca: el 20 de mayo Meta arranca recortes del 10% de la plantilla global.
Amazon entra al mercado GLP-1 con la jugada de siempre
No inventó un fármaco. Ni una clínica. Amazon hizo lo que sabe hacer: meter consulta virtual, receta y entrega a domicilio de Wegovy, Zepbound y otros GLP-1 en un mismo programa. Precios con seguro: desde 25 dólares al mes. Sin seguro: orales desde 149, inyectables desde 299 dólares en Estados Unidos. La cereza: entrega el mismo día, expandiéndose a 4,500 ciudades para fin de año.
Esto es gigante. Cuando Amazon entra a un mercado, no compite por el producto sino por la fricción. Y en salud, la fricción es casi todo.
Publicar un comentario