[ad_1]

De vez en cuando, Google implementa su actualización antispam que simplemente garantiza que los resultados de Google no se llenen de spam.
Porque si un usuario hace clic en un resultado de spam, y si sucede continuamente, crea una experiencia terrible y la gente dejaría de usar Google.
No brindan muchos detalles sobre la actualización de spam en su sitio web, pero afortunadamente para usted, tenemos dos cosas que nos ayudan a determinar cuáles fueron los cambios.
Lo primero que tenemos es que rastreamos más de 900 millones de dominios en la web, por lo que podemos ver patrones.
El segundo, que es más relevante para esta actualización, es que para nuestra agencia, NP Digital, tenemos 100 sitios experimentales que usan contenido escrito por IA. El propósito de estos sitios no es «jugar» con Google, sino comprender cómo percibe Google el contenido escrito por IA. Y explicaré con más detalle lo que sucedió con estos sitios más adelante en este artículo, porque los resultados fueron interesantes.
Objetivo de la actualización
Como sugiere el nombre, el objetivo principal de Google es reducir el spam. Ahora tienen varios tipos de actualizaciones de spam, como en julio de 2021, tenían una actualización de spam de enlaces.
Esta actualización no especificó si se trataba de spam de enlaces o simplemente spam global.
Pero cuando observamos los más de 900 millones de dominios que rastreamos, estas son las categorías que se han visto más afectadas negativamente a nivel mundial.

Como puede ver en el gráfico anterior, los sitios de noticias y deportes fueron los más afectados. Seguido de cerca por las artes y el entretenimiento y la tecnología y los sitios comunitarios.
La mayoría de estos sitios tienen mucho contenido y no están orientados al producto.
Cuando miramos los sitios afectados, esto es lo que encontramos:
- Contenido delgado – la mayoría de ellos no tenían contenido sorprendente… muchos de ellos tenían contenido ligero. Y para aclarar que, por contenido escaso, no me refiero a un bajo número de palabras, me refiero a contenido que realmente no agrega mucho valor. Esencialmente, el contenido era superficial y una vez que terminaba de leerlo, no obtenía muchas ideas o puntos o valores procesables.
- Metaetiquetas mal creadas: muchos sitios web afectados tenían páginas con metaetiquetas duplicadas o que obviamente estaban escritas para motores de búsqueda y no para humanos.
- relleno de palabras clave – Las personas impactantes siempre están repletas de palabras clave. De los sitios afectados, la mayoría no tenía palabras clave, pero aproximadamente el 3,89 % sí. Ya sea en su contenido en las etiquetas meta, usaron palabras clave en exceso, lo que hizo que la experiencia de lectura fuera menos que ideal.
Como sabes, hay muchos otros factores en el SEO. Simplemente no pudimos encontrar ningún otro modelo importante. En la superficie, algunas de las cosas que observaron parecen un poco similares a la Actualización de contenido útil.
También observamos los vínculos de retroceso de los sitios que perdieron la mayor cantidad de tráfico, no pudimos encontrar ningún patrón. Ahora, eso no significa que Google haya considerado o no los enlaces como un factor de spam en esta actualización, además, simplemente no hemos visto ningún modelo..
Ahora aquí es donde se pone interesante…
Contenido generado por IA
¿Recuerdas que mencioné que tenemos 100 sitios web impulsados por IA? Están en una variedad de industrias, y todas tienen más de 60 páginas de contenido, si no más, todas generadas por IA y, por supuesto, creamos los enlaces manualmente (no los compramos, y usted nunca debe comprar enlaces) para ayudar a clasificar los sitios.
Y en realidad, tenemos más de 681 sitios generados por IA, pero la mayoría de ellos no reciben suficiente tráfico de SEO. Por ejemplo, cuando un sitio solo recibe 1000 visitantes por mes de Google, es demasiado difícil ver patrones porque la cantidad de visitantes cambia drásticamente de un día a otro.
Pero 100 de los sitios impulsados por IA generan al menos 3.000 visitantes al mes desde Google.
Ninguno de los sitios vende nada ni recopila clientes potenciales, son solo sitios informativos en diferentes industrias.
Ahora, de los 100 sitios generados por IA, 53 tienen su contenido creado únicamente por IA. Y también tienen sus metaetiquetas e incluso títulos de artículos, todos creados por IA.
Estas páginas no se vinculan a otros sitios ni a páginas internas, porque las herramientas de generación de contenido de IA en realidad no agregan vínculos.
Una cosa a tener en cuenta es que la mayoría de las herramientas de IA en realidad no crean contenido de más de 500 palabras a menos que comiences a ajustar el contenido o que el autor de IA cree contenido un párrafo a la vez.
Pero para el primer lote de sitios de IA (53 de ellos), no hicimos que humanos editaran o cambiaran el contenido. Solo hemos utilizado contenido creado por IA en la forma en que fue creado, incluidas las metaetiquetas creadas por el autor de IA.
Ahora, en el segundo lote teníamos 47 sitios, en estos sitios usamos IA para crear el contenido, pero luego hicimos que un humano editara el contenido para asegurarnos de que se viera mejor y ofreciera más valor. Los humanos también agregaron enlaces internos y externos, cambiaron las metaetiquetas para que fueran más fáciles de usar y agregaron imágenes y videos incrustados en el artículo cuando tenía sentido.
Lo único que no hemos hecho es aumentar mucho la longitud. Porque, por lo que vemos en nuestro Ubersuggest AI Writer, la mayoría de las personas solo usan contenido escrito por IA y no lo editan mucho. Cuando lo modifican, tiende a ser un poco, y la gente no agrega mucho al conteo de palabras.
Con nuestros sitios, queríamos replicar lo que la mayoría de los especialistas en marketing hacen con la IA para tener una idea de lo que Google está tratando de resolver.
¿Puedes adivinar qué pasó con estos sitios?
El primer grupo de contenido escrito por IA, que no tuvo intervención humana a la hora de editar el contenido, no se desempeñó tan bien como los que tuvieron intervención humana.

Esencialmente, vieron una caída promedio del 17,29 % en el tráfico y sus clasificaciones de palabras clave cayeron un promedio de 7,9 posiciones. Tenga en cuenta que puede parecer mucho, pero ninguno de ellos realmente tenía una clasificación número 1 para un término popular.
El segundo grupo experimentó una caída del 6,38 % en el tráfico y una caída en la posición de ranking promedio de 3,3 posiciones.
Pero luego, cuando profundizamos porque tenía curiosidad por ver los resultados de cada sitio, notamos que no todos los sitios se vieron afectados por la actualización.
Del primer grupo de 53 sitios, cuyo contenido NO fue ajustado por humanos, 14 de ellos se vieron afectados por la actualización y vieron caer su tráfico entre un 31,44% y un 73,18%. En promedio, los 14 sitios perdieron el 51,65% de su tráfico.
Del segundo grupo, cuyo contenido fue ligeramente modificado por humanos, 8 sitios se vieron afectados. Perdieron entre el 29,52% y el 81,43% de su tráfico. En promedio, estos 8 sitios registraron una caída en el tráfico del 42,17%.
Ahora, lo curioso es que algunos de los otros sitios en ambos compartimentos vieron caídas de tráfico más pequeñas, como algunos puntos porcentuales, y algunos incluso vieron un ligero aumento en el tráfico de SEO hasta en un 4% cuando se compara el tráfico antes y después de la actualización. ya que la actualización tardó 48 horas en implementarse.
Pero aquí es donde se pone interesante, en el primer grupo de 14 sitios que se vieron afectados, 13 de ellos también vieron caer su tráfico como resultado de la actualización de contenido útil. Y del segundo grupo, los 8 sitios se vieron afectados por la actualización de contenido útil.
Una cosa a tener en cuenta es que no hubo toneladas de días de actualización de datos entre que Google terminó de implementar las cosas y cuando publiqué esta publicación de blog. Y no quería comparar el tráfico del domingo con el tráfico del miércoles. Como si tuvieras que mirar el domingo versus el domingo pasado para eliminar el sesgo. Sin embargo, las estadísticas anteriores son lo que vimos y las caídas en la clasificación también confirman que estos sitios se vieron afectados por la actualización.
Conclusión
Por lo que vemos, la mayor parte de esta actualización se ha centrado en el contenido, las metaetiquetas y el relleno de palabras clave. Eso no significa que Google no analizó otros factores como enlaces o contenido duplicado, pero sí vimos los patrones más importantes relacionados con los factores que mencioné anteriormente y el contenido generado.
Si quiere hacerlo bien a largo plazo centrándose en el usuario, esa es realmente la forma de ganar. Corto plazo, no puedes presentarte, pero a la larga, seréis.
Simplemente hágase preguntas como, ¿este contenido será útil para los usuarios? ¿Es útil usar las mismas etiquetas meta en todas las páginas? ¿Mi sitio web ofrece suficiente valor como para que la gente quiera enlazarme?
Esencialmente, solo se está revisando a sí mismo y haciendo lo mejor para los usuarios.
¿Qué viste en la actualización antispam de Google?
Descubra cómo mi agencia puede impulsar Masivo Cantidades de tráfico a su sitio web
- SEO – desbloquear cantidades masivas de tráfico SEO. Ver resultados reales.
- marketing de contenidos – nuestro equipo crea contenido épico que se compartirá, obtendrá enlaces y generará tráfico.
- Medios pagados – estrategias de pago efectivas con un claro retorno de la inversión.
reservar una llamada
[ad_2]