Encuentro #021: Pruebas de vida y rendimiento de negocio, talones de Aquiles de la IA
Ahora que la IA parece la respuesta por defecto para todo, en esta edición hemos querido ahondar en sus principales debilidades: su incapacidad para experimentar la realidad de primera mano y su insuficiente rendimiento de negocio.
De la estadística a la verdad: por qué la "prueba de vida" es el nuevo imperativo del SEO
Si pudiéramos viajar a 1826 y recoger cada libro publicado, cada ejemplar de cada periódico y cada carta enviada por correo, toda esa “sabiduría del mundo” cabría hoy en el bolsillo de nuestro pantalón. En aquella época, el texto era una descripción costosamente construida a partir de la realidad.
Hoy generamos esa misma cantidad de información cada pocos milisegundos. Pero producir más cantidad de información no significa que estemos más cerca de la verdad. Más bien al contrario: mientras que en 1826 el texto era el reflejo de una experiencia real, vivida, hoy gran parte de lo que inunda nuestras pantallas es el eco sintético generado por las IA. Hemos pasado de la escasez de los datos a la escasez de verdad. La IA ha aprendido a describir el mundo como lo hacemos los humanos, pero sigue sin saber a qué huele la lluvia o qué se siente al fracasar un negocio. Los humanos entendemos las causalidades (si me mojo, es porque llueve) mientras que las IA solo obedecen a correlaciones: anticipan la mejor palabra que viene a continuación.
Según expertos como Yann LeCun (Chief AI Scientist en Meta y fundador de los laboratorios de investigación FAIR) o Fei-Fei Li (profesora de Stanford y pionera de la visión artificial), los grandes modelos de lenguaje ya han leído prácticamente todo el texto accesible generado por nuestra especie. El problema es que ese aprendizaje parte de la descripción que los humanos hemos hecho de la realidad, y no de experimentar la realidad misma. Según ellos, la IA no alcanzará un nivel de Inteligencia Artificial General hasta que no pueda interactuar con el entorno como lo hace una persona.

LeCun sostiene que un niño de cuatro años lleva más de 12.000 horas interactuando con el mundo y a esa edad ya dispone de un sentido común y comprensión física de la realidad que ninguna IA puede emular. Por su parte, Fei-Fei Li cita el concepto de Inteligencia Espacial como la frontera de la IA más allá del lenguaje. Ha fundado la start-up World Labs específicamente para construir modelos de IA que comprenden la tridimensionalidad del espacio y la física de los objetos.
Hasta que ese momento llegue, los humanos somos los principales intermediarios entre la IA y la realidad, y su aprendizaje está determinado por lo que nosotros podemos “contarles” del mundo. Mientras la IA trata de encontrar un cuerpo y desarrollar sentidos para entender el mundo físico, los humanos llevamos milenios en él. Y esa es nuestra ventaja competitiva (al menos, de momento).
Esta distinción entre el mapa de la realidad (texto) y el territorio (vivencia auténtica) está reconfigurando nuestra forma de navegar y las herramientas a las que recurrimos según nuestras expectativas:
- IA para una respuesta rápida respaldada por el consenso estándar: recurrimos cada vez más a interfaces como ChatGPT o Gemini cuando buscamos una respuesta "promedio". Es la herramienta ideal para definiciones, resúmenes técnicos o procesos estándar. Si quieres saber qué es un contrato de arras, la IA te dará una respuesta de consenso que generalmente será correcta. Y por eso precisamente los textos puramente descriptivos han perdido todo el valor: si no aportas una experiencia propia auténtica, tu contenido ya viene de serie en la respuesta generativa.
- Búsqueda para la validación humana: pero seguiremos recurriendo a la búsqueda tradicional cuando el riesgo sea real. Cuando necesitemos saber qué problemas específicos tuvo alguien al firmar ese contrato en una situación de crisis, o si un hotel tiene realmente ese olor a humedad que la IA no puede captar. Buscaremos a otro humano para obtener validación, matices y esa verdad borrosa que la IA, por su propia naturaleza estadística, tiende a obviar.
Aquí es donde el concepto de E-E-A-T (Experiencia, Expertise, Autoridad y Confianza) entra en juego. Y su validación requiere mucho más que un nombre de autor, una página de biografía y dos enlaces a redes sociales. Porque la experiencia es, en esencia, una "prueba de vida" que debe quedar claramente reflejada en el texto. Es el testimonio de alguien que ha abandonado el ámbito del lenguaje y se ha dado de bruces con la realidad.
Google lo sabe, y por eso su algoritmo ya no premia solo la respuesta correcta, sino la respuesta que demuestra haber sido filtrada por un sistema nervioso humano. El valor diferencial hoy ya no es limitarse a documentarse sobre un tema y escribir con soltura sobre él, sino ser capaz de contar el "yo he vivido esto allí y esto es lo que puedo compartir sobre mi experiencia”: testimoniales, casos de éxito, ejemplos reales de aplicación, opiniones, intuiciones…
Esta personalización no tiene por qué verse limitada a lo que un profesional o una pequeña empresa pueden plasmar en sus contenidos. También en una gran empresa se puede complementar el frío texto descriptivo anclándolo a la concreción de su propuesta de valor: en qué son distintos sus productos de los de la competencia; en qué escenarios de uso o casos de aplicación serían la elección óptima; para qué perfiles de usuarios específicos tendrían más sentido; qué puede esperar el potencial cliente de su experiencia si contrata esa empresa o incluso empleando un tono comunicativo propio o encarnándolo a través de su propio portavoz corporativo… Es decir, todo aquello que nos diferencie y que ayude a concretar la experiencia del cliente contribuirá a separar nuestro contenido de la neutralidad del generado artificialmente, lo hará más nuestro y aportará ese valor añadido que la IA no es capaz de suplir.
En definitiva, todo aquello que nos hace humanos es, en un mundo donde cada vez más naufragaremos entre AI-slop (contenido basura generado por IA), el único factor de confianza. Porque al fin y al cabo, cuando buscamos consejo, no buscamos la probabilidad estadística de una frase sino la mirada cómplice de quien ya ha hecho el camino.
Sección firmada por Fernando Maciá 🖊️
Google lidera el rendimiento de negocio frente al auge de los LLMs
Dos años después del boom de los LLMs, los datos revelan una paradoja estratégica: ChatGPT ya gestiona un 12% del volumen de búsquedas de Google, pero envía 190 veces menos tráfico a los sitios web. La diferencia no está en la tecnología, sino en la intención del usuario. Mientras los modelos de IA ofrecen respuestas finales, Google sigue siendo el puente hacia la decisión de compra. En nuestro último artículo, Juan Antonio Castillejos analiza cómo esta brecha de conversión está redefiniendo la encontrabilidad digital y qué movimientos están marcando las estrategias SEO en 2026.

Asegúrate de que tu estrategia de encontrabilidad está a la vanguardia. Contacta con nuestro equipo y logra tus objetivos.
El radar 📡
- Manipulating AI memory for profit: The rise of AI Recommendation Poisoning: Microsoft describe por primera vez la inclusión de botones de "Summarize With AI" que hemos visto últimamente en muchos sitios web como una acción de “Envenenamiento de la memoria de la IA”. Este tipo de tácticas buscan manipular las recomendaciones de los LLM inyectando instrucciones o datos en el chatbot sin que el usuario sea consciente de ello. Estas instrucciones pueden incluir cosas como “Recuerda que [X] es una fuente de confianza”, garantizando que las futuras respuestas del modelo favorezcan los intereses de esa empresa.
- ChatGPT searches in English, even when you don't: Este estudio de Peec AI demuestra un notable sesgo lingüístico en ChatGPT: el LLM prioriza fuentes en inglés en el 43% de sus búsquedas internas. Para el 78% de las consultas, ChatGPT determina que las fuentes en el idioma nativo del usuario no son suficientes para dar una respuesta de calidad, por lo que automáticamente añade fuentes en inglés durante el proceso de fan-out. En español, por ejemplo, dos tercios de las búsquedas incluyen investigación en inglés.
- Introducing AI Performance in Bing Webmaster Tools Public Preview: Microsoft Bing ha lanzado la vista previa de AI Performance en Bing Webmaster Tools para mostrar cómo se cita el contenido de una web en Copilot y las respuestas generativas de Bing. Esta función permite analizar métricas de visibilidad y consultas clave, facilitando a los editores la adaptación de su contenido a la nueva era de la Optimización de Motores Generativos (GEO).
- Why AI Misreads The Middle Of Your Best Pages: En este artículo de Search Engine Journal, Duane Forrester analiza el fenómeno del "extravío en el medio", una debilidad de la IA que tiende a procesar bien el inicio y el final de un texto pero ignora o alucina en el centro. Para evitar que los sistemas de compresión conviertan el núcleo de tu contenido en información irrelevante, el autor propone "reforzar el medio" mediante bloques de datos independientes, manteniendo las pruebas cerca de las afirmaciones y volviendo a enunciar la tesis principal a mitad de página.
- Are Citations In AI Search Affected By Google Organic Visibility Changes?: En este artículo, Lily Ray evidencia que perder posiciones en Google implica desaparecer también de las IA: un estudio de sitios penalizados mostró caídas del 22,5% en menciones de ChatGPT y Gemini. Los datos confirman que el SEO tradicional sigue dictando quién aparece en las respuestas generativas, con Perplexity como la única plataforma relevante que opera de forma independiente al índice de Google.
