Los pequeños actos de fe que impone la IA

El título que acabas de leer fue hecho por un humano y no por una IA... ¿nos crees? Si es así, gracias por tu fe. Ahora analicemos el fondo.


Algo extraño (inédito) empieza a aparecer en la publicidad y el marketing: leyendas similares a las que llevan productos que son potencialmente nocivos para la salud. Lo documentó recientemente el WSJ.


Son frases que, hace apenas unos años, habrían sido no solo innecesarias, sino hasta sospechosas:

“Este contenido no fue hecho con inteligencia artificial”.

“Contenido 100% humano”.

La aclaración, en el fondo, no quiere dar información. Quiere dar tranquilidad.

Como si el problema no fuera lo que vemos, sino lo que ya no podemos saber.

Durante décadas convivimos con imágenes intervenidas, discursos distorsionados, narrativas alteradas. La fotografía, por ejemplo, prometía en los inicios del siglo XX capturar la realidad. Muy pronto ya había aprendido a editarla.

En la era de Joseph Stalin, las personas desaparecían no solo de la vida pública, sino de las imágenes junto al líder, según su capital político. Décadas después, National Geographic movió las pirámides de Egipto en una portada para adaptarlas a una composición vertical. Hubo señalamientos. Pero nadie habló de conspiración. Era estética.

Lo que es evidente es que el contenido hecho por humanos nunca fue ni ha sido garantía de veracidad.

También aprendimos a creer de acuerdo con la verosimilitud del contenido.

En 1938, Orson Welles narró una invasión extraterrestre en radio. Muchos escucharon una noticia. No les pasó por la cabeza que era ficción. Más tarde, proyectos como The Blair Witch Project diseñaron campañas donde la duda era parte del producto. La historia parecía real justo porque estaba construida para parecerlo. Era marketing.

La cultura, entonces, no solo tolera la ficción. La consume más y mejor cuando se disfraza de verdad.

Entonces, ¿qué cambió para que ahora nos veamos en la necesidad de declarar que algo es hecho por humanos?

No la mentira o su sofisticación.

Lo que ha cambiado es algo más incómodo: la posibilidad de distinguir lo real de lo ficticio.

Varios estudios de Gartner apuntan a una erosión sostenida de la confianza en lo que circula en entornos digitales. Sospechar ya no es una excepción. Es el punto de partida.

Al mismo tiempo, investigaciones recientes de distintas universidades, entre ellas Stanford, muestran algo más inquietante: muchas personas no logran distinguir de forma consistente entre contenido generado por humanos y por IA. Y no solo fallan. Fallan convencidas de que aciertan.

Ahí es donde se rompe algo.

Durante mucho tiempo operamos bajo una ficción útil: que, si mirábamos con suficiente atención, podríamos distinguir lo real de lo fabricado.

Esa ficción sostenía una forma de autonomía. Podíamos equivocarnos. Pero la posibilidad de acertar parecía disponible.

¿Lo estaba realmente?
¿O sólo creíamos que lo estaba?

Hoy esa posibilidad está dejando de estar disponible.

No porque todo lo que circula digitalmente sea falso. Sino porque todo puede parecer verdadero.

En ese contexto, las marcas empiezan a hacer algo revelador: no solo producen contenido, sino buscan producir certezas.

Ya no sólo venden imágenes. Quieren venden origen como señal cualitativa.

“Hecho por humanos” empieza a funcionar como una etiqueta. Como “orgánico”. Como “artesanal”. Como si lo humano fuera una cualidad que necesita certificarse, o, más inquietante, revalorarse.

Pero el gran problema es que esa etiqueta arrastra una contradicción silenciosa.


Los humanos también generan contenido sintético.

Editan. Recortan. Simulan espontaneidad. A veces por juego. A veces por estética. A veces con intención directa de engañar.

Lo hecho por humanos, entonces, no solo no garantiza verdad. Ha sido históricamente una de las formas más eficaces de simulación.

La historia reciente está llena de verdades tan estilizadas que se vuelven irreconocibles, al grado de rozar la mentira. No hacía falta inteligencia artificial. Bastaban luz, encuadre, narrativa. Las redes sociales de varios personajes notables son ejemplos vivos.

Decir “esto fue hecho por humanos” no garantiza transparencia. Apenas si describe el origen.

Y, atención, eso tampoco es verificable.

Ya no se trata de confirmar si la IA puede engañar. Ni de si los humanos son más confiables. Ahora se trata de algo más importante: ¿qué hacemos ahora que la diferencia está dejando de ser accesible?

Hay algo profundamente nuevo en esto.

Durante siglos, lo humano funcionó como evidencia. La firma, la voz, el gesto… eran pruebas.

Hoy empiezan a comportarse como elementos narrativos.

Algo que se declara.
Algo que se afirma.
Algo que, en el fondo, se cree.

Luciano Floridi, en The Fourth Revolution, propuso en 2014 que vivíamos en una “infosfera”, donde lo natural y lo artificial se entrelazan hasta volverse indistinguibles en la práctica. Tal vez el siguiente paso está aquí poco más de una década después: la distancia entre lo verdadero y lo verificable.

La verdad no desaparece. Lo que desaparece es el acceso a la certeza.

Y entonces son necesarias las etiquetas. Llamémoslas pequeños actos de fe.

“Esto es humano”.

La frase intenta abatir una duda. Pero también la revela.

Porque en el momento en que necesitamos que nos lo digan, algo ya cambió. No en las máquinas.

En nosotros.

¿Lo que vemos en pantalla es real? Tal vez comienza a perder relevancia la pregunta.

Lo importante parece ser ahora otra cosa: ¿cuánto tiempo más podremos seguir viviendo como si distinguirlo fuera una capacidad y no un acto que demanda cierto nivel de fe?

La confianza y los productos sintéticos
Antes señalábamos estudios que revelan cómo hay gente que cree que los contenidos hechos con IA son de origen humano y lo defienden con convicción. Varias organizaciones, no sólo universidades, han emprendido sus propias evaluaciones para entender el fenómeno. Y hay resultados que revelan la incertidumbre en la que vivimos hoy sobre este tema:

La única certeza es que existe desconfianza. Lo cierto es que esa desconfianza si no es, en muchos casos parece prejuicio, porque ¿cómo desconfías de una fuente cuyo producto no sólo consumes sino a veces defiendes?

Probablemente se trata de una de las contradicciones de nuestra época. En los años siguientes, este tema seguramente se volverá un discusión aún más recurrente.


FUENTE:
NEWSLETTER Sintetika de Excélsior y Grupo Imagen. Tecnología, futuro e impacto social. Propuesta editorial semanal enfocada en explicar los cambios tecnológicos y culturales.

Post a Comment

Artículo Anterior Artículo Siguiente