Las Señales a Nivel de Página Que Importan: Evaluar la Calidad del Contenido a Escala

La mayoría de los SEOs experimentados han tenido durante años un modelo mental de cómo Google evalúa el contenido. Conocíamos las líneas generales: primero la coincidencia de relevancia, luego las señales de calidad a nivel de página, y después la autoridad y los enlaces. La pregunta siempre fue cuán granular es realmente la evaluación de calidad — y si Google está haciendo algo más sofisticado que contar palabras y verificar etiquetas de encabezado.
La filtración de la documentación de la API de Google en 2024, junto con la filtración anterior del código fuente de Yandex, nos dio confirmación. No revelación — confirmación. Las señales que encontramos se mapearon directamente con conceptos que la comunidad SEO había estado teorizando. Pero verlos nombrados en documentación interna, con nombres de atributos específicos y estructuras de módulos, convirtió la teoría en algo más cercano a un hecho.
Así que empecé a experimentar. ¿Podría construir rúbricas de puntuación basadas en estas señales y usar LLMs para evaluar contenido contra ellas a escala? Y de ser así, ¿las puntuaciones me dirían algo útil sobre por qué algunas páginas se posicionan y otras no?
Cómo funciona el proceso de ranking de Google (La versión corta)
Esto no es nuevo para nadie que lleve tiempo en SEO, pero vale la pena exponerlo porque cada capa importa para lo que viene después.
Capa 1: Coincidencia de Relevancia (BM25)
La primera puerta es barata y rápida. Google usa BM25 (o una variante) para hacer coincidir los términos de la consulta con los documentos. Es una función de ranking basada en frecuencia de términos de los años 90, y a pesar de todos los avances en ranking neuronal, alguna forma de BM25 sigue siendo el filtro inicial. Si tu contenido no contiene los términos y conceptos que coinciden con la consulta, nunca llega a la etapa donde se evalúan las señales de calidad.
Lo pienso de forma simple:
- BM25 te hace entrar en la sala — tu contenido es lo suficientemente relevante como para ser considerado.
- Las señales de calidad determinan tu asiento — dónde te posicionas entre los resultados relevantes.
La mayoría de los consejos de SEO se centran en la etapa 2 dando por sentado que la etapa 1 es obvia. Pero he visto mucho contenido genuinamente excelente que se posiciona mal porque usa una terminología diferente a la del buscador, o entierra sus puntos clave bajo discusiones tangenciales.
Capa 2: Señales de Calidad a Nivel de Página
Aquí es donde se pone interesante — y donde las filtraciones nos dieron más con qué trabajar. Google no solo está comprobando si tu página es relevante. Está evaluando el contenido en sí mismo a través de múltiples dimensiones. Tres señales de la documentación de la API filtrada destacaron:
contentEffort — ¿Cuánto esfuerzo genuino se dedicó a crear este contenido? No cantidad de palabras. Esfuerzo en el sentido de: ¿qué tan difícil sería replicar esto?
originalContentScore — ¿Cuánto del contenido representa una contribución original frente a información agregada o derivada?
page2vecLq — Esta utiliza incrustaciones vectoriales (embeddings) a nivel de página para identificar páginas temáticamente dispersas o semánticamente pobres. La "Lq" probablemente signifique "Low Quality" (Baja Calidad) — se cree que es una bandera de desclasificación para páginas que no tienen sentido semántico, más que una puntuación positiva para contenido enfocado. Pero la implicación es la misma: las páginas que se mantienen estrictamente en el tema evitan la bandera.
Estas no son las únicas señales de contenido — había cientos de atributos en docenas de módulos. Pero estas tres abordan una pregunta específica: ¿este contenido tiene sustancia, o es solo ruido bien formateado?
Capa 3: Autoridad y Enlaces
Autoridad de dominio, backlinks a nivel de página, dominios de referencia, señales de marca. Esta es la capa que la industria del SEO ha entendido por más tiempo, y sigue siendo la más poderosa. Koray Tugberk ha hecho un trabajo excelente sobre mapas temáticos, estructuras semánticas y lo que Google llama siteRadius — la idea de que la autoridad temática de un sitio irradia desde su materia principal. Su investigación sobre la autoridad temática vale la pena leerla si no lo has hecho.
La Pregunta
Las Capas 1 y 3 están bien entendidas y tienen buenas herramientas. Tenemos herramientas de investigación de palabras clave para la relevancia BM25. Tenemos Ahrefs y Moz para métricas de autoridad. La Capa 2 también tiene herramientas — SurferSEO, Clearscope, MarketMuse miden señales en la página como frecuencia de términos, estructura de encabezados y longitud del contenido. Pero a mí me interesaba medir algo diferente: las señales cualitativas a las que apuntaban las filtraciones. No "¿esta página contiene los términos correctos?" sino "¿alguien realmente puso esfuerzo en esto? ¿Hay algo original aquí? ¿Se mantiene en el tema?"
Esas son más difíciles de medir con NLP tradicional. Pero los LLMs son buenos precisamente en este tipo de juicio cualitativo — si les das las rúbricas correctas.
Cinco dimensiones que elegí investigar
Hay muchas dimensiones de calidad de contenido que podrías medir — y las herramientas de SEO existentes ya manejan bien muchas de ellas (cobertura de palabras clave, legibilidad, estructura de encabezados, longitud del contenido). Elegí deliberadamente cinco que son más opacas y no están bien cubiertas por el conjunto de herramientas actual. Tres se basan directamente en señales filtradas, una en las pautas de calidad públicas de Google, y una en las mejores prácticas estructurales que incluí como línea base.
Construí estos como prompts automatizados para evaluar el contenido de la competencia a escala, pero funcionan igual de bien como listas de verificación manual.
Una nota sobre estos prompts: Lo que comparto a continuación son versiones simplificadas de las rúbricas que uso en producción. Son suficientes para empezar a puntuar tu propio contenido y tener una idea de dónde se sitúa. Pero si quieres usarlos a escala con un LLM, debes saber en qué te estás metiendo.
El problema de calibración: Los LLMs no son deterministas. Ejecuta el mismo prompt en el mismo contenido dos veces y a veces obtendrás puntuaciones diferentes — particularmente en casos límite. Una página que está genuinamente entre un 2 y un 3 en originalidad podría puntuar 2 en una ejecución y 3 en la siguiente. Para obtener resultados confiables, debes iterar: encontrar los casos donde el modelo es inconsistente, averiguar por qué es incierto, y añadir reglas específicas al prompt que resuelvan la ambigüedad. "Si el artículo nombra un framework pero el consejo subyacente es estándar, puntúa 2, no 3" — ese tipo de cosas.
El problema del nicho: Lo que cuenta como "original" en contenido de desarrollo de software es diferente de lo que cuenta como "original" en salud o finanzas. El límite entre puntuación 2 y 3 cambia dependiendo de lo que es estándar en tu industria. He tenido que desarrollar extensiones y ejemplos específicos para cada nicho en cada cliente. Una rúbrica que funciona para contenido B2B SaaS necesita una calibración diferente a una para descripciones de productos de e-commerce.
La inversión de tiempo honesta: Conseguir que estos prompts produzcan puntuaciones consistentes y fiables en un nicho específico requiere horas de iteración, no minutos. Puntuas un lote, revisas los resultados manualmente, encuentras las discrepancias, añades reglas, vuelves a puntuar, repites. Es tedioso pero necesario — y es la diferencia entre puntuaciones ruidosas que no te dicen nada y puntuaciones calibradas con las que realmente puedes tomar decisiones.
Las rúbricas base a continuación te dan el marco, las tablas de puntuación y las preguntas correctas para hacer. Empieza aquí, pruébalas en tu propio contenido, y espera dedicar tiempo a refinarlas para tu dominio específico.
Cada rúbrica puntúa el contenido en una escala del 1 al 5. La mayoría del contenido obtiene 2-3. Si estás alcanzando consistentemente 4-5 en todas las dimensiones, estás produciendo contenido que es genuinamente difícil de competir.
1. Esfuerzo del Contenido — La Prueba de Replicabilidad
Basado en: La señal contentEffort de Google.
Esta es la dimensión que encuentro más interesante, porque atraviesa tanto ruido alrededor de la "calidad del contenido". La pregunta central no es "¿está bien escrito?" — es "¿con qué facilidad podría un competidor o una IA replicar esto?".
Piensa en eso por un momento. Un resumen perfectamente escrito de "10 Beneficios de la Externalización" puede ser producido por cualquiera con ChatGPT. Puede ser preciso, estar bien estructurado y ser genuinamente útil. Pero es infinitamente replicable. No hay foso defensivo.
Compara eso con un artículo que analiza 847 proyectos reales de externalización con datos de costos propietarios y entrevistas a expertos nombrados. Ese contenido tiene un foso defensivo — tardó meses en crearse, requiere acceso a datos que los competidores no tienen y contiene ideas que no pueden generarse a partir de fuentes existentes.
La Rúbrica de Puntuación
| Puntuación | Etiqueta | Lo que significa |
|---|---|---|
| 5 | Excepcional | Investigación original, datos propietarios, entrevistas a expertos. Llevaría meses replicarlo. |
| 4 | Alto | Exhaustivo, experto claro, análisis original. Llevaría días replicarlo bien. |
| 3 | Adecuado | Investigación sólida, alguna perspectiva original. Podría replicarse en varias horas. |
| 2 | Bajo | Mayormente agregado, basado en plantillas. Podría replicarse en menos de una hora. |
| 1 | Mínimo | Contenido genérico que una IA podría producir en minutos. Sin contribución original. |
Cómo usar esto
Al evaluar tu propio contenido, pregúntate:
- ¿Podría alguien reproducir esto resumiendo los 10 primeros resultados de Google? Si es sí, estás en un 1-2.
- ¿Requiere esto investigación genuina, experiencia o acceso para crearlo? Si es sí, estás en un 4-5.
- ¿Hay algo en este contenido que no exista en ningún otro lugar? Datos propietarios, capturas de pantalla originales, resultados documentados, fuentes nombradas — estos son los marcadores de un esfuerzo difícil de falsificar.
La regla de calibración más importante: la longitud no es esfuerzo. Un artículo de 3,000 palabras de contenido derivado puntúa más bajo que 500 palabras de investigación original. Google parece estar de acuerdo.
Prompt completo de puntuación de Esfuerzo del Contenido (haz clic para expandir)
Indicadores de Alto Esfuerzo (Puntuación 4-5):
- Datos propietarios o investigación original
- Entrevistas a expertos con fuentes nombradas
- Experiencia de primera mano claramente demostrada
- Fotografía original, capturas de pantalla o multimedia
- Recursos visuales diseñados a medida con lógica específica
- Análisis o ideas no encontradas en el contenido de la competencia
Indicadores de Bajo Esfuerzo (Puntuación 1-2):
- Información genérica disponible en todas partes
- Sin ideas o análisis originales
- Estructura basada en plantillas (introducción, 5 puntos, conclusión)
- Solo imágenes de archivo (stock)
- Podría ser producido pidiéndole a una IA el título
- Se lee como una reescritura de contenido existente
El Límite Crítico Puntuación 2 vs 3: ¿Podría un escritor generalista con buenas habilidades de investigación producir esto, o requiere a alguien que realmente entienda el dominio? Un generalista podría hacerlo → Puntuación 2. Requiere un experto en el dominio → Puntuación 3.
---## 2. Originalidad — Conocimiento Nuevo vs Etiquetas Nuevas
Basado en: La señal originalContentScore de Google
Esta es la dimensión donde veo más autoengaño. La gente realmente cree que su contenido es original porque lo escribieron ellos mismos. Pero "yo lo escribí" y "contiene ideas originales" son cosas diferentes.
La prueba es simple: busca las afirmaciones principales de tu artículo. ¿Dirían aproximadamente lo mismo los 10 primeros resultados? Si es así, tu contenido es derivativo — independientemente de lo bien que lo hayas escrito.
Suena duro, pero es liberador una vez que lo aceptas. La mayoría del contenido es un 2 en originalidad. Está bien — no todas las piezas tienen que ser innovadoras. Pero saber en qué punto te encuentras realmente te permite tomar decisiones intencionadas sobre dónde invertir esfuerzos.
La Rúbrica de Puntuación
| Puntuación | Etiqueta | Qué Significa |
|---|---|---|
| 5 | Primero en publicar | Información de primicia o descubrimiento genuino. Crea conocimiento nuevo. |
| 4 | Sustancialmente original | Análisis original significativo. Cambia la conversación. |
| 3 | Mixto / Enfoque novedoso | Conecta conceptos conocidos de una manera nueva. No es solo un resumen. |
| 2 | Mayormente derivativo | Explica bien conceptos conocidos. Competente pero intercambiable. |
| 1 | Totalmente derivativo | Reescribir, resumir o agregar. Sin valor único. |
Las Trampas de los Falsos Positivos
Estos son los patrones que veo con más frecuencia y que engañan a la gente (y a los sistemas de puntuación) haciéndoles creer que el contenido es más original de lo que es:
La Falacia de la Denominación. Agrupas tres consejos estándar y lo llamas "El Marco ABC". Quítale el nombre — ¿el consejo es estándar? Si es sí, es un 2, no un 3. Organizar no es crear.
La Trampa de la Metáfora. Usas una metáfora ingeniosa para explicar un concepto conocido. "La deuda técnica es como un iceberg." ¿La metáfora cambia cómo resolvemos el problema, o solo cómo lo describimos? Si solo es descripción, es buena escritura, no originalidad.
La Trampa del Tono Experto. "En mi experiencia, deberías probar tu código." Un lenguaje autoritario con consejos genéricos sigue siendo un consejo genérico. Compáralo con: "En nuestras pruebas, una cobertura de código superior al 80% redujo los errores en producción en un 34% (n=47 servicios)." Eso es evidencia. Eso es original.
Instrucción Completa para Puntuar la Originalidad (haz clic para expandir)
El Desempate entre Puntuación 2 y 3:
| Característica | Puntuación 2 (Derivativo) | Puntuación 3 (Originalidad Mixta) |
|---|---|---|
| Marcos de trabajo | Categoriza cosas conocidas | Hace operativa la toma de decisiones |
| Síntesis | Combina Fuente A + Fuente B | Combina A + B para revelar la Contradicción C |
| Perspectiva | "Esto es lo que es X" | "Esta es la razón por la que la visión estándar de X es errófica/incompleta" |
| Utilidad | Podría encontrar esto en Google/ChatGPT | Necesitaría a un experto específico para esta idea |
El Límite entre Puntuación 4 y 5: Puntuación 4 = Medición. "Medimos X en $37B." Puntuación 5 = Descubrimiento. "Esperábamos X pero encontramos Y, contradiciendo Z." Ser el primero en publicar un dato no es Puntuación 5 — un parte meteorológico es el primero en publicar la temperatura de hoy sin descubrir nada.
3. Coherencia Temática — ¿Tu Contenido se Mantiene en el Tema?
Basado en: La señal page2vecLq de Google
Una nota sobre el enfoque: Se cree que page2vecLq es una bandera negativa — degrada las páginas que no están enfocadas semánticamente, en lugar de recompensar las páginas que sí lo están. Mi rúbrica invierte esto en un sistema de puntuación positivo (1-5, donde 5 es muy enfocado). El razonamiento es práctico: si Google penaliza las páginas incoherentes, entonces puntuar la coherencia positivamente nos da un indicador de lo lejos que está una página de activar esa penalización. No es un reflejo perfecto de lo que Google calcula, pero mide la misma propiedad subyacente desde la dirección opuesta.
Esta es la que la mayoría de los SEO subestiman. El instinto es cubrir todo lo relacionado con un tema — abarcar mucho, ser exhaustivo. Pero la señal filtrada sugiere que Google mide algo más parecido al enfoque semántico. ¿Con qué firmeza orbita tu contenido en torno a un solo tema?
La prueba es simple: ¿puedes resumir de qué trata este contenido en una frase? Si te cuesta hacerlo, tu contenido tiene un problema de coherencia.
Veo esto con más frecuencia en contenidos de estilo "guía definitiva" — artículos que intentan cubrir un dominio entero en 5.000 palabras, tocando 15 subtemas de manera superficial. Cada sección individualmente tiene sentido, pero el conjunto no tiene un centro de gravedad. Intenta posicionarse para todo y termina sin posicionarse para nada.
La Rúbrica de Puntuación
| Puntuación | Etiqueta | Qué Significa |
|---|---|---|
| 5 | Muy enfocado | Tema único y claro con cobertura profunda y exhaustiva. Cero relleno. |
| 4 | Bien enfocado | Tema central claro, cobertura consistente. Divagaciones menores relacionadas. |
| 3 | Enfoque adecuado | Tema principal identificable pero cobertura desigual. Algunas secciones sueltas. |
| 2 | Poco enfocado | Demasiados temas vagamente relacionados. Sin un hilo conductor claro. |
| 1 | Incoherente | Sin tema central claro. Colección aleatoria de información. |
Señales de Alerta
- Secciones de FAQ con preguntas no relacionadas. Este es el asesino de coherencia más común. Una página sobre "Gestión de Estado en React" con una FAQ que pregunta "¿Qué portátil debería comprar para programar?" intenta captar tráfico de búsqueda a costa del enfoque temático.
- Secciones promocionales disfrazadas de contenido. Una guía sobre migración a la nube que termina con "Colabora con CloudExperts para tu viaje de transformación" rompe la coherencia educativa.
- El enfoque de "meterlo todo". Intentar cubrir lenguajes, metodologías, proveedores de nube, bases de datos y consejos profesionales en un solo artículo sobre "desarrollo de software".
Instrucción Completa para Puntuar la Coherencia Temática (haz clic para expandir)
La Prueba de lo Tangencial pero Relacionado: ¿Podría aparecer esta sección en un artículo sobre un tema diferente? Si es sí, es una divagación, no contenido central.
Umbral de Cobertura Superficial: Cubrir 8+ subtemas con un tratamiento superficial = Puntuación 3 como máximo. La cobertura profunda de un tema supera la cobertura superficial de muchos.
Excepción del Contenido Pilar: Las guías exhaustivas que cubren un tema amplio pueden puntuar 4-5 si hay una lógica organizativa clara y cada sección contribuye a un todo coherente. La clave es si tiene estructura o es solo una lista de secciones vagamente relacionadas.
4. Señales E-E-A-T — ¿Quién Escribió Esto y Por Qué Debería Confiar?
Basado en: Las Directrices de Calificación de Calidad de Google
Quiero ser claro respecto a este punto, porque el E-E-A-T tiene una historia complicada en el mundo del SEO.
Cuando Google introdujo E-A-T (Experiencia, Autoridad, Confiabilidad) en sus Directrices de Calificación de Calidad, la industria —liderada por profesionales como Marie Haynes— lo trató como una señal de clasificación directa. El razonamiento era lógico: Google les dice a los evaluadores humanos que evalúen el E-A-T, por lo tanto, el algoritmo de Google debe estar midiendo el E-A-T. Se añadieron biografías del autor a cada página. Se ampliaron las páginas "Acerca de nosotros". Las credenciales aparecían por todas partes.
Luego, en 2022, Google añadió la "E" extra de Experiencia (Experience), y el ciclo se repitió. E-E-A-T se convirtió en la respuesta a toda pregunta sobre posicionamiento.
Esto es lo que he llegado a creer después de revisar la documentación filtrada y años de pruebas: El E-E-A-T como una señal de clasificación directa y medible es menos sencillo de lo que la industria supone. Hay evidencia de que Google aplica estas señales de confianza de manera mucho más agresiva al contenido YMYL (Your Money or Your Life: salud, finanzas, legal, seguridad) que al contenido informativo general. Un artículo médico sin credenciales del autor puede ser realmente suprimido. ¿Un artículo de blog sobre marcos de trabajo de JavaScript? Menos claro.
Incluyo el E-E-A-T en mis rúbricas no porque esté seguro de que sea una señal de clasificación para todos los nichos, sino porque es un marco de calidad útil independientemente. El contenido con marcadores claros de experiencia, experiencia demostrable y fuentes transparentes es mejor contenido — ya sea que Google lo recompense explícitamente en tu nicho o no. Y en los verticales YMYL, la evidencia de su impacto es mucho más fuerte.
Dicho esto, creo que la experiencia es el componente que importa más de ahora en adelante — y el que está infravalorado. ¿Por qué? Porque la experiencia es difícil de falsificar con IA. Un LLM puede sintetizar contenido que suena experto a partir de fuentes existentes. Puede imitar un tono autoritario. Pero no puede producir los detalles específicos y granulares que surgen de hacer algo realmente — los problemas inesperados, las lecciones contraintuitivas, los números específicos de un proyecto real.
La Rúbrica de Puntuación
| Puntuación | Etiqueta | Qué Significa |
|---|---|---|
| 5 | Excepcional | Evidencia clara de los cuatro componentes. Experto nombrado, experiencia demostrada, fuentes autorizadas, metodología transparente. |
| 4 | Fuerte | Evidencia sólida de 3+ componentes. Credibilidad del autor establecida, experiencia demostrada. |
| 3 | Adecuada | Evidencia moderada. Se muestra cierta experiencia, señales básicas de confianza, pero existen lagunas. |
| 2 | Débil | Señales mínimas. Autoría genérica, afirmaciones no verificadas, poca evidencia de experiencia. |
| 1 | Ninguna | Autor anónimo, afirmaciones sin fundamentar, sin señales de confianza. |
Qué Buscar
Indicadores de Experiencia: Detalles específicos que solo alguien que ha hecho el trabajo conocería. "Probamos X y falló debido a Y" es más fuerte que "Se recomienda X para..." Capturas de pantalla originales, fotos o artefactos de proyectos reales.
Indicadores de Experiencia (Expertise): Conocimiento demostrable que va más allá de lo que un generalista podría investigar. No "soy un experto" — muéstralo a través de la profundidad y precisión del contenido.
Indicadores de Autoridad: ¿Es este el lugar esperado para esta información? ¿Se citan fuentes que son, a su vez, autorizadas? ¿La web en general hace referencia a este autor o sitio?
Indicadores de Confiabilidad: Exactitud fáctica, afirmaciones correctamente referenciadas, transparencia sobre la metodología y las limitaciones. Información de contacto. Divulgación de posibles sesgos.
Instrucción Completa para Puntuar el E-E-A-T (haz clic para expandir)
Nota importante de calibración: La atribución de autor (nombre, credenciales, biografía) es una consideración separada del E-E-A-T a nivel de contenido. Un artículo bien escrito con experiencia clara puede puntuar bien en E-E-A-T de contenido incluso antes de añadir el nombre del autor. La página del autor añade una capa adicional de confianza, pero no debería ser la única señal.
Las credenciales deben ser relevantes. Un doctorado en biología no convierte a alguien en un experto en desarrollo de software.
Las afirmaciones requieren evidencia. "En mi experiencia..." sin detalles específicos no es experiencia demostrada.
---## 5. Calidad Estructural — ¿El Formato Respalda el Contenido?
Basado en: Las mejores prácticas de SEO y las pautas de contenido web
Esta es la más mecánica de las cinco dimensiones y la más fácil de hacer bien — por eso es frustrante la frecuencia con la que contenido por lo demás excelente se ve socavado por una estructura deficiente. Mantendré esta sección breve porque el consejo es directo y probablemente ya lo hayas escuchado antes. Pero por mi trabajo de benchmarking, puedo decirte que muchas páginas en el top 30 aún se equivocan en esto.
La Rúbrica de Puntuación
| Puntuación | Etiqueta | Lo que significa |
|---|---|---|
| 5 | Excelente | Jerarquía de encabezados perfecta, formato escaneable, uso estratégico del formato. Calidad editorial profesional. |
| 4 | Buena | Organización clara, encabezados adecuados, buena escaneabilidad. Posibles mejoras menores. |
| 3 | Adecuada | Organización básica, uso de encabezados, legible. Algunos problemas estructurales pero funcional. |
| 2 | Deficiente | Desorganizado, "muros de texto", formato inconsistente. Difícil de escanear o navegar. |
| 1 | Nula | Flujo de conciencia. Sin encabezados, sin formato. Parece sin editar. |
Lo Básico que Importa
Jerarquía de encabezados: H1 para el título, H2 para las secciones principales, H3 para las subsecciones. Nunca saltes niveles. Cada encabezado debe describir el contenido que le sigue — no ser ingenioso o vago.
Longitud de párrafos: Máximo 3-5 oraciones. En la web, los párrafos más cortos son casi siempre mejores. Un muro de texto indica "esto no fue escrito para lectura online".
Variedad de formato: Usa viñetas, listas numeradas, tablas, texto en negrita y bloques de código donde sirvan al contenido. Pero no te pases con el formato — cada elección de formato debe facilitar el consumo de información, no solo romper el texto.
Enlaces internos y externos: Enlaza a contenido relacionado en tu sitio y a fuentes externas autorizadas. No son solo señales para SEO — son señales de confianza. El contenido que existe aislado, sin referencias ni conexiones, parece menos creíble.
Prompt Completo de Puntuación de Calidad Estructural (haz clic para expandir)
Reglas clave de calibración:
- Los muros de texto (párrafos que exceden las 6-7 oraciones) limitan la puntuación a 3
- Saltar niveles de encabezados (H1 → H3) reduce la puntuación en al menos 1 punto
- La longitud debe coincidir con la profundidad — 3,000 palabras de cobertura superficial puntúa más bajo que 1,000 palabras de profundidad enfocada
- Tablas para datos comparativos, viñetas para listas, bloques de código para contenido técnico — usa el formato correcto para el tipo de información
Integrando Todo
Estas cinco dimensiones no son independientes — interactúan. Alta originalidad con estructura deficiente significa que tus ideas están enterradas. Gran estructura sin esfuerzo significa que has formateado bellamente un resumen de Wikipedia. Un E-E-A-T fuerte con coherencia débil significa un autor creíble escribiendo contenido poco enfocado.
El contenido que se posiciona bien — consistentemente, a través de actualizaciones, en nichos competitivos — tiende a puntuar 3+ en las cinco dimensiones y 4+ en al menos dos. Esa es una barra alta. La mayor parte del contenido en la web puntúa 2-3 en esfuerzo y originalidad, 3-4 en coherencia y estructura, y 2-3 en E-E-A-T.
Cómo uso estas rúbricas en la práctica:
- Antes de escribir: Verifico si puedo puntuar al menos un 3 en esfuerzo y originalidad. Si no — si planeo escribir contenido que podría producirse resumiendo fuentes existentes — busco un ángulo original o no lo escribo.
- Durante la edición: Verifico la coherencia. ¿El artículo se mantuvo enfocado, o se desvió? ¿Hay secciones que podrían eliminarse sin afectar el argumento central?
- Antes de publicar: Verifico la estructura y las señales de E-E-A-T. ¿Hay afirmaciones específicas y verificables? ¿El formato está ayudando o obstaculizando? ¿Confiaría un lector en este contenido basado en lo que hay en la página?
Las rúbricas no son perfectas. Son mi interpretación de señales que Google nunca ha confirmado oficialmente usar de la manera que he descrito. Pero cuando las puse a prueba con 44,000 resultados de SERP, la coherencia temática mostró una correlación consistente y estadísticamente significativa con el posicionamiento — especialmente para sitios de baja autoridad que apuntan a palabras clave informativas. Eso es suficiente para hacerlas útiles, incluso si la teoría subyacente no es exactamente correcta.
Lo que Muestran los Datos
He probado estas rúbricas a gran escala — puntuando 44,000 resultados de SERP en 2,212 palabras clave y ejecutando 8 métodos estadísticos para probar si la calidad predice el posicionamiento después de controlar por la autoridad de dominio.
Respuesta corta: sí, pero la autoridad de dominio es 10 veces más importante. La coherencia temática mostró la señal más fuerte. La calidad del contenido importa más para sitios de baja autoridad que compiten por palabras clave informativas — que es exactamente donde esperarías que las señales a nivel de página marquen la diferencia.
Lo siguiente que quiero probar es si el esfuerzo en el contenido se correlaciona con la adquisición de backlinks a nivel de página — si el efecto del esfuerzo en el posicionamiento es directo o se canaliza a través de los enlaces. Si estás trabajando en preguntas similares, me gustaría saberlo.
Vorfall des geleakten Google-API-Materials 2024
- King, M. (2024). « Investigation of the Leaked Google Ranking Algorithm Data » iPullRank. ipullrank.com/google-algo-leak — Erste Analyse, die unter den 2.596 geleakten Modulen Signale wie
contentEffort,originalContentScore,page2vecLqidentifiziert. - Anderson, S. (2024). « The
contentEffortAttribute, The Helpful Content System and E-E-A-T » Hobo Web. hobo-web.co.uk — Detaillierte Analyse der Verbindung zwischen dem SignalcontentEffortund dem « Helpful Content System ». - Fishkin, R. (2024). « An Anonymous Source Shared Thousands of Leaked Google Search API Documents With Me » SparkToro. sparktoro.com — Unabhängige Verifizierung der Authentizität der geleakten Daten.
BM25
- Robertson, S.E. et al. (1995). « Okapi at TREC-3. » NIST. — Grundlagenarbeit zu BM25.
- Robertson, S.E. & Zaragoza, H. (2009). « The Probabilistic Relevance Framework: BM25 and Beyond. » Foundations and Trends in Information Retrieval. — Umfassende Studie zu BM25-Varianten.
E-E-A-T und die Richtlinien für die Qualitätsbewertung
- Google (2024). « Search Quality Evaluator Guidelines » guidelines.raterhub.com — Offizieller Rahmen für E-E-A-T.

