ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA
INGENIERO EN INFORMÁTICA
TÉCNICAS SEO Y POSICIONAMIENTO
EN MOTORES DE BÚSQUEDA
Realizado por
ALBERTO L. FERNÁNDEZ REYES
Dirigido por
EDUARDO GUZMÁN DE LOS RISCOS
Departamento
LENGUAJES Y CIENCIAS DE LA COMPUTACIÓN
UNIVERSIDAD DE MÁLAGA
MÁLAGA, ABRIL 2015
3
UNIVERSIDAD DE MÁLAGA ESCUELA TÉCNICA SUPERIOR DE INGENIERÍA INFORMÁTICA
INGENIERO EN INFORMÁTICA
Reunido el tribunal examinador en el día de la fecha, constituido por:
Presidente/a Dº/Dª. _____________________________________________________
Secretario/a Dº/Dª. _____________________________________________________
Vocal Dº/Dª. __________________________________________________________
para juzgar el proyecto Fin de Carrera titulado:
TÉCNICAS SEO Y POSICIONAMIENTO
EN MOTORES DE BÚSQUEDA
realizado por Dº/Dª ALBERTO LUIS FERNÁNDEZ REYES
tutorizado por Dº/Dª. EDUARDO GUZMÁN DE LOS RISCOS ,
y dirigido académicamente por Dº/Dª. EDUARDO GUZMÁN DE LOS RISCOS
ACORDÓ POR _____________ OTORGAR LA CALIFICACIÓN DE _____________
Y PARA QUE CONSTE, SE EXTIENDE FIRMADA POR LOS COMPARECIENTES
DEL TRIBUNAL, LA PRESENTE DILIGENCIA.
El/La Presidente El/La Secretario/a El/La Vocal
Fdo:
Fdo:
Fdo:
Málaga a ____ de______________ del 20__
7
Tabla de contenidos
Capítulo 1: Introducción ................................................................................................................. 17
1.1. Objetivos ................................................................................................................................ 19
1.2. Optimización orgánica ...................................................................................................... 20
1.3. Marketing para la optimización web ........................................................................... 22
1.4. Herramientas para la promoción y control web ...................................................... 23
1.5. Caso práctico ........................................................................................................................ 24
Capítulo 2: Motores de búsqueda y Optimización web ......................................................... 25
2.1. Motores de búsqueda web ............................................................................................... 26
2.1.1. Internet, directorios y motores de búsqueda web ....................................................... 26
2.1.2. Componentes de un motor de búsqueda .......................................................................... 28
2.2. Proceso de Crawling ........................................................................................................... 29
2.2.1. Sitemap Protocol ......................................................................................................................... 30
2.2.2. Robot Exclusion Protocol ........................................................................................................ 32
2.2.3. Conclusiones ................................................................................................................................. 33
2.3. Proceso de Indexación ...................................................................................................... 34
2.3.1. Control sobre los indexadores ............................................................................................... 35
2.3.2. Indexación de contenidos Ajax .............................................................................................. 39
2.3.3. Conclusiones ................................................................................................................................. 46
2.4. Optimizando documentos web: on-‐page ..................................................................... 47
2.4.1. Palabras clave ............................................................................................................................... 47
2.4.2. Nombre de Dominio ................................................................................................................... 50
2.4.3. Top-‐level Domain ........................................................................................................................ 53
2.4.4. Meta etiquetas .............................................................................................................................. 54
2.4.5. Encabezamientos HTML .......................................................................................................... 57
2.4.6. Atributo de texto ALT ................................................................................................................ 60
2.4.7. Canonicalización .......................................................................................................................... 61
2.4.8. Canibalización de palabras clave .......................................................................................... 63
2.4.9. Paginación web ............................................................................................................................ 64
2.4.10. Redireccionamientos .............................................................................................................. 67
8
2.4.11. Velocidad de carga ................................................................................................................... 69
2.4.12. Conclusiones ............................................................................................................................... 71
2.5. Optimización de documentos web: off-‐page .............................................................. 73
2.5.1. Anclas de texto y optimización interna ............................................................................. 73
2.5.2. Métricas Off-‐page ........................................................................................................................ 75
2.5.3. Link juice y Arquitectura web ............................................................................................... 84
2.5.4. Link building ................................................................................................................................. 88
2.5.5. Conclusiones ................................................................................................................................. 92
2.6. Blackhat SEO ......................................................................................................................... 93
2.6.1. Conectando con el grafo web ................................................................................................. 93
2.6.2. Construyendo documentos web ........................................................................................... 96
2.6.3. Captación de usuarios ............................................................................................................... 97
2.6.4. Secuestrando documentos web ............................................................................................ 98
2.6.5. Inyectando código en documentos web ......................................................................... 101
Capítulo 3: Marketing Online ...................................................................................................... 105
3.1. Planificación web .............................................................................................................. 106
3.1.1. Tipos de palabras clave ......................................................................................................... 106
3.1.2. Volumen de búsquedas, competencia y rentabilidad ............................................... 107
3.1.3. Benchmark .................................................................................................................................. 110
3.1.4. Conclusiones .............................................................................................................................. 112
3.2. Estrategias de publicidad online ................................................................................. 113
3.2.1. Sitios de afiliados ..................................................................................................................... 113
3.2.2. Publicidad online ...................................................................................................................... 119
3.2.3. E-‐mail ............................................................................................................................................ 122
3.2.4. Conclusiones .............................................................................................................................. 124
3.3. Optimización para la conversión ................................................................................. 125
3.3.1. Resultados de búsquedas ..................................................................................................... 126
3.3.2. Publicidad Online ..................................................................................................................... 134
3.3.3. Sitios Web .................................................................................................................................... 138
3.3.4. Conclusiones .............................................................................................................................. 143
3.4. Analítica web ...................................................................................................................... 144
3.4.1. Analítica web y objetivos de negocio .............................................................................. 144
3.4.2. Objetivos web ............................................................................................................................ 145
9
3.4.3. Métricas web .............................................................................................................................. 147
3.4.4. Key performance indicator .................................................................................................. 148
3.4.5. Conclusiones .............................................................................................................................. 151
Capítulo 4: Herramientas ............................................................................................................. 153
4.1. WebCEO ................................................................................................................................ 154
4.1.1. Auditoria del sitio web ........................................................................................................... 154
4.1.2. Link building .............................................................................................................................. 165
4.1.3. Métricas sociales ...................................................................................................................... 170
4.1.4. Analítica de Marketing ........................................................................................................... 173
4.1.5. Conclusiones .............................................................................................................................. 179
4.2. MailChimp ........................................................................................................................... 180
4.2.1. Lista y grupos ............................................................................................................................. 180
4.2.2. Formularios opt-‐in/re-‐opt ................................................................................................... 181
4.2.3. Emails transaccionales .......................................................................................................... 182
4.2.4. Segmentación ............................................................................................................................. 183
4.2.5. Personalización de e-‐mails .................................................................................................. 183
4.2.6. Campañas de e-‐mail ................................................................................................................ 184
4.2.7. Informe de Campañas ............................................................................................................ 185
4.2.8. Conclusiones .............................................................................................................................. 187
4.3. Google Webmasters Tool ............................................................................................... 187
4.3.1. Proceso de alta .......................................................................................................................... 188
4.3.2. Control sobre la apariencia en los SERPs ...................................................................... 188
4.3.3. Consulta sobre el tráfico de búsqueda ............................................................................ 190
4.3.4. Control sobre el índice de Google ..................................................................................... 193
4.3.5. Control sobre robots o crawlers ........................................................................................ 194
4.3.6. Conclusiones .............................................................................................................................. 195
4.4. Google Analytics ................................................................................................................ 196
4.4.1. Cálculo de métricas básicas ................................................................................................ 196
4.4.2. Cálculo de métricas Avanzadas .......................................................................................... 201
4.4.3. Errores de medición ............................................................................................................... 208
4.4.4. Conclusiones .............................................................................................................................. 209
4.5. Google AdWords ................................................................................................................ 209
4.5.1. Principios básicos y funcionamiento ............................................................................... 210
10
4.5.2. Definición del público objetivo .......................................................................................... 218
4.5.3. Creación de Campañas ........................................................................................................... 220
4.5.4. Campañas de remarketing ................................................................................................... 221
4.5.5. Optimización de pujas ............................................................................................................ 223
4.5.6. Conclusiones .............................................................................................................................. 228
Capítulo 5: Caso práctico ............................................................................................................... 229
5.1. Optimizaciones para la indexación de contenido .................................................. 230
5.1.1. Duplicación de contenido en Blogger .............................................................................. 230
5.1.2. X-‐Robots-‐tag ............................................................................................................................... 233
5.1.3. Robots.txt ..................................................................................................................................... 235
5.2. Optimización Web ............................................................................................................ 236
5.2.1. Títulos ........................................................................................................................................... 236
5.2.2. Direcciones web ....................................................................................................................... 238
5.2.3. Meta descripciones .................................................................................................................. 239
5.2.4. Plantilla web ............................................................................................................................... 240
5.2.5. Imágenes ...................................................................................................................................... 243
5.2.6. Palabras clave ............................................................................................................................ 244
5.3. Estrategia de link building ............................................................................................. 252
5.3.1. Directorios .................................................................................................................................. 252
5.3.2. Menciones web .......................................................................................................................... 254
5.4. Generación de leads ......................................................................................................... 256
5.4.1. Suscripción RSS ......................................................................................................................... 257
5.4.2. Landing pages ............................................................................................................................ 258
Capítulo 6: Conclusiones ............................................................................................................... 261
6.1. Visibilidad web en motores de búsqueda ................................................................. 261
6.2. Adquisición de tráfico desde motores de búsqueda ............................................. 262
6.3. Posicionamiento en motores de búsqueda .............................................................. 264
6.4. Dificultades ......................................................................................................................... 266
6.5. Futuras ampliaciones ...................................................................................................... 267
Bibliografía ........................................................................................................................................ 269
Glosario ............................................................................................................................................... 291
11
Índice de Figuras
Figura 1: Arquitectura inicial del motor de búsqueda de Google……………………29
Figura 2: Archivo Robots.txt procedente de la web About.com ................................. 34
Figura 3: Resultados de búsqueda para la web about.com .......................................... 34
Figura 4: Código javascript de carga de contenido asíncrona ..................................... 42
Figura 5: Direcciones web empleadas para la recuperación de contenido Ajax ......... 46
Figura 6: Búsqueda en Google con términos 'universidad de Málaga' ....................... 48
Figura 7: Resultados en Google para la búsqueda Julio Iglesias ................................ 49
Figura 8: Ejemplo de EMD desde la lista de resultados de Google ............................ 51
Figura 9: Índice de correlación de Spearman para EMD ............................................ 53
Figura 10: Meta description perteneciente a Amazon.com ......................................... 55
Figura 11: Ejemplo de marcado de palabras en Google.com ...................................... 57
Figura 12: Página de Amazon MP3 & Cloud Player .................................................. 58
Figura 13: Encabezamiento H1 Html empleados en la página de Amazon ................ 59
Figura 14: Encabezamiento H2-H3 Html empleados en la página de Amazon .......... 59
Figura 15: Paginación desarrollada por Amazon ........................................................ 64
Figura 16: Tiempos de respuesta TTFB y posicionamiento (Peters & Isham, 2013) . 71
Figura 17: Ejemplo de autoría de artículos de John Resig .......................................... 84
Figura 18: Flujo de PageRank entre webs (Brin & Page, 1998) ................................. 85
Figura 19: Estructura web jerárquica .......................................................................... 86
Figura 20: Estructura web con link colgante ............................................................... 87
Figura 21: Gastos dedicados a link building ............................................................... 89
Figura 22: Infografía extraída de HubSpot ................................................................. 91
Figura 24: Inserción de código malicioso en Apertium web .................................... 103
Figura 25: Interfaz gráfica de la herramienta Google Keyword Planner .................. 108
Figura 26: Benchmark ratio de clics por posición del documento ............................ 111
Figura 27: Marcado de palabras clave en una búsqueda web ................................... 127
Figura 28: CTR para head y long tail keywords por posición de documentos ......... 128
Figura 30: Modelo de Sitelink empleado actualmente .............................................. 130
Figura 31: Personalización de resultado: aplicacion de software ............................. 131
12
Figura 32: Personalización de resultado: oferta de producto .................................... 132
Figura 33: Personalización de resultado: oferta de producto con diferentes precios 132
Figura 34: Personalización de resultado: valoración de producto y precio ............... 133
Figura 35: Evolución del abandono de carritos de compra online ............................ 136
Figura 36: Squeeze page del sitio blogprofitcamp.com ............................................ 140
Figura 37: Formulario para capturar e-mails en la web Backlinko.com ................... 141
Figura 38: Ejemplo de landing page empleado por el sitio Advanced Data Systems
Corporation ........................................................................................................ 142
Figura 39: Herramienta WebCEO para la determinación de palabras clave ............. 155
Figura 40: Herramienta WebCEO para el análisis de las anclas de texto ................. 157
Figura 41: Herramienta WebCEO para analizar métricas de enlaces ....................... 158
Figura 42: Herramienta WebCEO para el estudio de enlaces por documento web .. 158
Figura 43: Herramienta WebCEO para la realización de auditoria técnica .............. 159
Figura 44: Herramienta WebCEO para la optimización on-page ............................. 161
Figura 45: Herramienta WebCEO para la optimización de documentos concretos .. 162
Figura 46: Herramienta WebCEO para la optimización de landing pages ............... 163
Figura 47: Herramienta WebCEO para mejorar la velocidad del sitio web .............. 164
Figura 48: Herramienta WebCEO para analizar las páginas mas populares ............. 165
Figura 49: Herramienta WebCEO para analizar el perfil de enlaces ........................ 166
Figura 50: Herramienta WebCEO para analizar las anclas de texto usadas ............. 167
Figura 51: Herramienta WebCEO para analizar enlaces entrantes ........................... 168
Figura 52: Herramienta WebCEO para analizar los documentos mas enlazados ..... 168
Figura 53: Herramienta WebCEO para analizar enlaces de la competencia ............. 169
Figura 54: Herramienta WebCEO para comprobar la existencia de enlaces ............ 170
Figura 55: Herramienta WebCEO para monitorear métricas de redes sociales ........ 171
Figura 56: Herramienta WebCEO para monitorear métricas sociales ...................... 172
Figura 57: Herramienta WebCEO para monitorear métricas sociales por dominio . 172
Figura 58: Herramienta WebCEO para analizar el tráfico por red social ................. 173
Figura 59: Herramienta WebCEO para monitorear el ranking en los SERPs ........... 174
Figura 60: Herramienta WebCEO para monitorear el ranking por motores ............. 174
Figura 61: Herramienta WebCEO para monitorear el ranking por etiquetas ............ 175
Figura 62: Herramienta WebCEO para monitorear la evolución de la competencia 175
Figura 63: Herramienta WebCEO para analizar la evolución del tráfico ................. 176
Figura 64: Herramienta WebCEO para analizar el tipo de usuario por red social .... 176
13
Figura 65: Herramienta WebCEO para analizar el porcentaje de nuevas visitas ...... 177
Figura 66: Herramienta WebCEO para comparar el ranking Alexa ......................... 178
Figura 67: Herramienta WebCEO para comparar métricas contra la competencia .. 179
Figura 68: Herramienta WebCEO para comparar citaciones en redes sociales ........ 179
Figura 69: Formulario de registro en lista de MailChimp ......................................... 181
Figura 70: Formulario de registro para la recepción del Excel de escandallos ......... 182
Figura 71: Formas de identificación en la herramienta Google Webmaster Tools ... 188
Figura 72: Herramienta Data Highlighter para resultados de búsqueda ................... 189
Figura 73: Información mostrada en la lista de resultados de Google ...................... 190
Figura 74: Sitelinks del sitio desdemiatalaya.com .................................................... 190
Figura 75: Herramienta GWT para el análisis de las palabras clave empleadas ....... 191
Figura 76: Herramienta GWT para el análisis de enlaces entrantes ......................... 191
Figura 77: Herramienta GWT para el análisis de enlaces internos ........................... 192
Figura 78: Herramienta GWT para el análisis de contenido indexado y bloqueado . 193
Figura 79: Herramienta GWT para conocer las palabras mas empleadas ................. 194
Figura 80: Herramienta GWT para eliminar direcciones web del índice de Google 194
Figura 81: Páginas vistas por usuario en Google Analytics ...................................... 197
Figura 82: Páginas vistas únicas por usuario en Google Analytics ........................... 197
Figura 83: Medición de sesiones en Google Analytics ............................................. 198
Figura 84: Medición de visitantes únicos en Google Analytics ................................ 198
Figura 85: Medición de Visitantes recurrentes en Google Analytics ........................ 199
Figura 86: Medición de tiempo en página en Google Analytics ............................... 200
Figura 87: Informe de adquisición de audiencia ....................................................... 205
Figura 88: Informe para medir sesiones necesarias hasta la conversión ................... 207
Figura 89: Ad Group con redefinición de puja para keywords específicas .............. 213
Figura 90: Formatos de anuncios disponibles por tipo de campaña en AdWords .... 214
Figura 91: Personalización de listas .......................................................................... 223
Figura 92: Herramienta de Google AdWords para especificar el público objetivo .. 225
Figura 93: Personalización de puja CPM .................................................................. 226
Figura 94: Puja condicional en Google AdWords .................................................... 227
Figura 95: Incremento del máximo CPC para usuarios móviles ............................... 228
Figura 96: Gráfica mostrando el CTR para artículos archivados ............................. 232
Figura 97: Gráfica mostrando el CTR para artículos no archivados ......................... 232
Figura 98: Panel de configuración en la plataforma Blogger .................................... 234
14
Figura 99: Respuesta Http para página archivada ..................................................... 234
Figura 100: Robots.txt empleado en el blog desdemiatalaya.com ............................ 235
Figura 101: Artículo sin meta descripción bloqueado por protocolo Robots.txt ...... 235
Figura 102: Lista de artículos del blog Desdemiatalaya.com ................................... 237
Figura 103: Lista de artículos con direcciones web faltas de contexto ..................... 238
Figura 104: Lista de artículos con direcciones web descriptivas .............................. 239
Figura 105: Lista de artículos con meta descripción poco descriptiva ..................... 240
Figura 106: Plantilla inicial proporcionada por Blogger ........................................... 241
Figura 107: Plantilla de Blogger modificada para página principal .......................... 242
Figura 108: Plantilla de Blogger modificada para páginas de artículos .................... 243
Figura 109: Páginas mas visitadas desde el canal de tráfico orgánico ...................... 244
Figura 110: Lista de palabras clave proporcionadas por GWT ................................. 246
Figura 111: Palabras clave empleadas para posicionar artículos Dealz .................... 247
Figura 112: Lista de resultados para la búsqueda "Dealz" ........................................ 248
Figura 113: Lista de palabras clave proporcionada por GWT .................................. 249
Figura 114: Long tail keywords empleadas para posicionar artículo específico ....... 251
Figura 115: Evolución del tráfico para el artículo de escandallos ............................ 251
Figura 116: Plantilla RankTank para analizar menciones web. ................................ 255
Figura 117: Métricas para visitas provenientes de FeedBurner ................................ 258
Figura 118: Evolución del tráfico web para el artículo de escandallos ..................... 259
Figura 119: Formulario de suscripción integrado con la plataforma MailChimp ..... 260
15
Índice de tablas
Tabla 1: Tags pertenecientes al archivo Sitemap.xml ................................................. 31
Tabla 2: Tags pertenecientes al archivo sitemapindex.xml ......................................... 32
Tabla 3: Identificación unívoca de palabra clave con documento a recuperar ........... 42
Tabla 4: Evolución del PageRank sobre web estructura jerárquicamente .................. 87
Tabla 5: Evolución de PageRank sobre estructura web con link colgante .................. 88
Tabla 6: Posicionamiento y ratio de clics .................................................................. 112
Tabla 7: Plataformas de afiliación y acciones que registra la plataforma ................. 119
Tabla 8: Definición de micro y macro goals para diferentes tipos de web ............... 147
Tabla 9: Definición de KPIs para objetivos web ....................................................... 151
Tabla 10: Lista de directorios que indexaron el blog ................................................ 252
Tabla 11: Lista de directorios a la espera de que indexen el blog ............................. 253
Tabla 12: Lista de directorios que rechazaron la indexación del blog ...................... 253
Tabla 13: Lista de directorios o agregadores de noticias no usados ......................... 254
Tabla 14: Lista de perfiles de redes sociales que enlazan al blog desdemiatalaya ... 256
Tabla 15: Lista de páginas web que mencionan al autor del blog ............................. 256
Tabla 16: Evolución del número de impresiones por meses ..................................... 262
Tabla 17: Evolución del CTR desde la lista de resultados por meses ....................... 263
Tabla 18: Evolución del número de visitas provenientes de Google ........................ 264
Tabla 19: Palabras clave para atraer público que busca asesoramiento .................... 265
Tabla 20: Palabras clave para atraer público interesado en gestión de negocios ...... 266
Tabla 21: Palabras clave empleadas para incrementar la visibilidad del blog .......... 266
17
Capítulo 1:
Introducción
El presente proyecto final de carrera tiene como objetivo el estudio y la documentación de las
técnicas de posicionamiento empleadas en el entorno web, recopiladas a través de libros
especializados en la materia, patentes publicadas por los principales motores de búsqueda
como Bing o Google, así como papers cuya información ha sido avalada por Google.
El uso de las tecnologías web se está extendiendo a un ritmo muy acelerado. Están presentes
en nuestro día a día, y actualmente están siendo incorporados a todo tipo de aparatos
electrónicos, como pueden ser neveras, televisores, móviles, etc.
La web, tal y como es entendida, ha pasado a ser el canal de comunicación por el cual
usuarios conectan con el mundo exterior: negocios, marcas, amistades o actividades de ocio
son solo unos pocos ejemplos. Para acceder a cada uno de estos sitios web es necesario el uso
de un navegador, así como tener conocimiento de la dirección web a la que se quiere acceder.
Esta dirección web es la que nos permitirá acceder a las páginas web. Pero, ¿cómo somos
capaces de conocer las direcciones web de millones de páginas web?
El desarrollo de nuevas formas de almacenar y extraer información en los sistemas de
información, así como los avances tecnológicos y la reducción de tiempos de acceso a
memoria han permitido encontrar formas eficientes de organizar documentos.
Los motores de búsqueda son el resultado final de aplicar estas técnicas de recuperación de
información al almacenamiento de documentos web. Mediante estos, los usuarios son
capaces de encontrar información web introduciendo un conjunto de palabras relacionadas
18
con el contenido que queremos buscar. A este conjunto de palabras claves se las conoce como
keywords.
Los motores de búsqueda web son sistemas expertos en encontrar información, para lo cual
primero tienen que recopilarla y almacenarla (Brin & Page, 1998). La recopilación de
información es realizada por los denominados crawlers, spiders o bots. Éstos tienen como
objetivo visitar todas y cada una de las páginas existentes en Internet. El indexador será la
entidad encargada de almacenar la información, de forma que pueda ser recuperada
rápidamente.
Además de las anteriores entidades, los motores de búsqueda web disponen de una interfaz
gráfica con la que interactúan con los usuarios. Los usuarios introducen una serie de términos
o keywords a través de la interfaz gráfica, y los motores de búsqueda recuperan aquellos
documentos webs relacionados con las keywords introducidas.
Para facilitar la labor que realizan los motores de búsqueda, estos dan a conocer un conjunto
de prácticas recomendadas a implementar por los webmasters. La adopción de estas prácticas
permite que los motores de búsqueda entiendan mejor el contenido del documento. Esto
puede ayudar la mejora de posiciones en la lista de resultados.
Al listado de resultados ofrecidos por los motores de búsqueda para unos términos de
búsqueda introducidos se los conoce como Search Engine Results Page o SERP. Al conjunto
de técnicas o metodologías aplicadas sobre documentos web cuyo principal objetivo es
posicionar estos en los motores de búsqueda se le conoce como Search Engine Optimization o
SEO.
Debido a que el posicionamiento de documentos web para términos clave muy solicitados
pueden derivar en miles de visitas, los negocios online están cada vez adoptando mejores
prácticas web con el objetivo de posicionar estos documentos.
En este afán por salir primero en los puestos de Google u otros motores de búsqueda, algunos
usuarios o dueños de sitios webs pueden emplear prácticas penalizadas por los motores de
búsqueda en pos de la consecución de un mejor posicionamiento.
19
En caso de que los motores de búsqueda las detecten, estos pueden penalizar estos sitios web.
Esta penalización supone la pérdida de posiciones en las páginas de resultados ofrecidas por
los motores de búsqueda o el borrado total del sitio web de los motores de búsqueda.
Como alternativa a la adquisición de usuarios desde los motores de búsqueda, es posible la
promoción de sitios web mediante anuncios, tanto en motores de búsqueda como en sitios
web.
Para ser capaces de analizar el progreso de nuestros esfuerzos en la adquisición de usuarios,
necesitaremos hacer uso de la herramientas que nos permitan analizar la evolución del sitio
web. A esta herramienta se la conoce como analítica web (web analytics). Nos permitirá
adquirir conocimientos sobre los usuarios que visitan el sitio web, de forma que podamos
determinar si estamos captando el perfil de usuario más adecuado. Mas allá de esto, nos
ayudará a conocer la evolución de nuestro sitio web, es decir, si cambios que realizados tienen
repercusión sobre el comportamiento de los usuarios.
1.1. Objetivos
El objetivo principal del proyecto es estudiar y presentar el conjunto de técnicas promovidas
por los principales motores de búsqueda, así como por expertos en la materia, para alcanzar
un buen posicionamiento web en las páginas de resultados de los buscadores.
Se presentarán técnicas y herramientas para controlar la forma en la que los motores de
búsqueda interactúan con los documentos web, prácticas para evitar ser penalizados, así como
técnicas a implementar con el objetivo de mejorar el posicionamiento web.
El presente proyecto final de carrera abarca también el estudio de técnicas de marketing
online como medio para adquirir usuarios desde los motores de búsqueda o sitios web.
Se expondrán técnicas de marketing para estudiar el potencial de un sitio web y de las
palabras clave de las cuales hace uso así como prácticas a implementar en sitios web para la
fidelización de usuarios mediante squeeze pages, landing pages o la velocidad de carga del
20
sitio web. Se introducirán también los principales conceptos de la analítica web como
herramienta para medir el comportamiento del usuario.
Para finalizar el presente proyecto final de carrera, se exponen las herramientas empleadas y
las técnicas de posicionamiento aplicadas sobre el sitio web desdemiatalaya.com.
El proyecto contempla las siguientes fases:
Optimización orgánica, fase en la que se introducen técnicas a aplicar para controlar la
visibilidad de los documentos web en los motores de búsqueda. Se expondrán estrategias u
optimizaciones a implementar en los documentos web para adquirir un mejor posicionamiento
en los motores de búsqueda.
Marketing para la optimización web, fase en la que se describen técnicas para la
adquisición de usuarios mediante la promoción online. Se expondrá cómo captar diferentes
tipos de audiencia, además de optimizaciones a implementar en el sitio web para retener. Esta
fase alberga además una sección relacionada con la analítica web, en donde expondremos
cómo comenzar a medir el progreso de un sitio web, y la importancia de conocer sus
objetivos.
Herramientas para la promoción y el control web, fase donde se muestran algunas de las
herramientas empleadas en el proyecto final de carrera para estudiar el potencial de las
palabras clave, analizar el posicionamiento web, realizar campañas de e-mail o de anuncios
patrocinados.
Proyecto web, fase en la que se describe cómo se han aplicado algunas de las técnicas
comentadas en el presente proyecto final de carrera para el sitio web desdemiatalaya.com y
los resultados obtenidos.
1.2. Optimización orgánica
21
El objetivo de esta fase es el estudio de las principales técnicas promovidas por expertos en el
posicionamiento de páginas web, así como las prácticas recomendadas por los principales
motores de búsqueda para la consecución de posiciones en los resultados de búsqueda.
Los motores de búsqueda están compuestos por multitud de subsistemas. En esta sección se
presentará la arquitectura de un motor de búsqueda, procesos para controlarlo así como
técnicas SEO a aplicar para optimizar el sitio web. Haremos distinción en los siguientes
puntos:
- Arquitectura web. Mostraremos los conceptos básicos sobre cómo debe construirse
un sitio web teniendo como objetivo que los motores de búsqueda puedan obtener
información sobre el sitio web.
- Control sobre los procesos que intervienen en los motores de búsqueda.
Expondremos las diferentes técnicas que nos permitirán interactuar con los
subsistemas que componen los motores de búsqueda.
- Optimizaciones on-page. A las optimizaciones llevadas a cabo en el documento web
se las conocen como optimizaciones on-page. Se expondrán las principales técnicas
on-page promovidas por los motores de búsqueda.
- Optimizaciones off-page. Se conoce como optimizaciones off-page a aquellas
optimizaciones que no pertenecen al propio documento web. Estas están generalmente
relacionadas con la adquisición de enlaces. En esta sección expondremos métricas off-
page consideradas por Google (autoridad, la fiabilidad o su popularidad de un
documento web), arquitectura web como medio para favorecer el posicionamiento así
como técnicas documentadas por expertos para la adquisición de enlaces hacia nuestro
sitio web.
- Blackhat SEO. Se conoce como Blackhat SEO a aquellas técnicas cuyo objetivo es
confundir a los motores de búsqueda para la adquisición de mejores posiciones en la
lista de resultados. Expondremos técnicas para la consecución de posiciones web que
están totalmente desaconsejadas por los motores de búsqueda bajo penalización.
22
1.3. Marketing para la optimización web
Se conoce con el término marketing en motores de búsqueda (cuyo acrónimo es representado
como SEM), al conjunto de técnicas de marketing cuyo objetivo es incrementar la visibilidad
de un sitio web a través de su promoción en los motores de búsqueda (SEMPO, 2011).
La definición oficial dada por el Search Engine Marketing Professional Organization,
conocida bajo los acrónimos SEMPO, define el marketing en los motores de búsqueda o SEM
como:
‘Una forma de realizar marketing en Internet la cual busca promocionar sitios web mediante
el incremento de su visibilidad en la lista de resultados de los motores de búsqueda. Los
métodos incluidos son: Search Engine Optimization (SEO), pago por posicionamiento del
anuncio, promoción mediante anuncios contextuales, optimizaciones digitales y pago por
inclusión en listados.’
Bajo las dos definiciones proporcionadas anteriormente, el objetivo de esta fase en este
proyecto final de carrera será documentar técnicas o estrategias que permitan incrementar la
visibilidad de un sitio web en la página de resultados de los motores de búsqueda.
Su desarrollo estará dividido en secciones, en función del objetivo de las prácticas que
persigue cada una de ellas. Haremos distinción entre las siguientes actividades :
- Planificación web. Se introducirán conceptos que nos ayudarán a planificar las
palabras clave para las cuales optimizar nuestro sitio web, en base al número de
búsquedas mensuales, el precio del clic o la competencia existente en Google
AdWords. Se acompañará de estudios que nos permitirán conocer el porcentaje de
clics medio a recibir en base al posicionamiento web adquirido en los motores de
búsqueda, pudiendo ser este empleado como benchmark para comparar los resultados
de nuestro posicionamiento.
23
- Estrategias de publicidad online. Se presentarán métodos para la promoción de
sitios web mediante afiliados, publicidad online así como el e-mail para la promoción
online.
- Optimización para la conversión. Presentaremos un conjunto de técnicas
documentadas por expertos que nos ayudarán a mejorar las conversiones en nuestro
sitio web.
- Analítica web. En esta sección se presentará la importancia que la analítica web
desempeña en la consecución de los objetivos de un negocio que apuesta por tener
presencia online. Se introducirán los principales conceptos de la analítica web así
como métodos que nos ayudarán a planificar los objetivos de un sitio web.
1.4. Herramientas para la promoción y control web
El objetivo de esta fase es exponer algunas de las herramientas disponibles de las cuales
puede hacerse uso para realizar las tareas mencionadas en las fases anteriores. Se presentarán
herramientas que facilitarán o permitirán llevar a cabo las siguientes tareas:
- Controlar el posicionamiento web. Presentaremos la herramienta WebCEO como
medio para realizar auditorias web, controlar las optimizaciones llevadas a cabo en un
sitio web, identificar errores, construir enlaces y analizar el posicionamiento adquirido
por los documentos web.
- Campañas de E-mail. Presentaremos el servicio de MailChimp como herramienta
para realizar campañas de e-mail, así como métricas que se emplean para analizar el
éxito de las campañas de e-mail realizadas.
- Controlar información en motores de búsqueda. Para controlar la información a la
que los motores de búsqueda tienen acceso, se hace uso de herramientas de
administración proporcionadas por estos motores. Se expondrá el uso de la
24
herramienta Google Webmaster tools para el control de la información que ofrecemos
a Google.
- Analítica web. Para realizar mediciones que nos ayuden a tomar decisiones
informadas haremos uso de la herramienta proporcionada por Google, conocida como
Google Analytics. Veremos los problemas que esta herramienta presenta y
expondremos la importancia de entender cómo los datos son recopilados para poder
realizar un buen diagnóstico sobre el progreso o evolución que un sitio web está
realizando con respecto a los objetivos iniciales marcados.
- Promoción online. Introduciremos al lector a la herramienta de Google AdWords.
Esta herramienta nos permite promocionar e incrementar la visibilidad de nuestra web
mediante la publicidad web. Expondremos las diferentes campañas de promoción
disponibles y cómo hacer uso de esta herramienta.
1.5. Caso práctico
En este apartado se presentarán los resultados que el sitio web desdemiatalaya.com
experimentó tras la implementación de optimizaciones SEO. Se presentarán las
optimizaciones llevadas a cabo en el dominio web en las siguientes áreas de optimización:
- Indexación de contenidos. Técnicas empleadas sobre el dominio desdemiatalaya.com
con el objetivo de mejorar la indexación de contenidos y evitar penalizaciones por
duplicación de contenido.
- Optimizaciones web. Optimizaciones on-page llevadas a cabo en el dominio
desdemiatalaya.com.
- Obtención de enlaces. Técnicas empleadas para la adquisición de enlaces hacia el
dominio web desdemiatalaya.com.
- Generación de leads. Estrategias llevadas a cabo en documentos específicos del sitio
desdemiatalaya.com para la adquisición de datos de los usuarios.
25
Capítulo 2:
Motores de búsqueda y Optimización web
En este capítulo vamos a exponer las principales técnicas empleadas en la optimización de
documentos web. Estas optimizaciones están basadas en prácticas recomendadas por los
principales motores de búsqueda.
La implementación de estas prácticas permiten que los motores de búsqueda puedan
encontrar, recuperar, analizar y entender el contenido del sitio web. Como veremos a lo largo
del capítulo, existen diferentes subsistemas en un motor de búsqueda. Cada uno de ellos está
especializado en realizar una función. Expondremos cuáles son estos y cómo podemos
optimizar los documentos para cada uno de ellos.
Además de las optimizaciones realizadas sobre los documentos web, los motores de búsqueda
son también capaces de analizar la popularidad de un sitio web. Para llevar a cabo este
análisis, los motores de búsqueda estudian el número de dominios que nos enlazan, la
autoridad de estos así como su reputación. En la sección 2.5. Optimización de documentos
web: off-page explicaremos las principales métricas estudiadas por los motores de búsqueda,
la importancia de optimizar los enlaces dentro de nuestro sitio web, así como algunas de las
prácticas empleadas hoy día para la adquisición de enlaces desde sitios web externos.
Por último, con el objetivo de evitar penalizaciones, se presentarán un conjunto de técnicas
cuya aplicación influye negativamente en los motores de búsqueda. Al finalizar el capítulo
seremos capaces de optimizar sitios web, evitando penalizaciones por parte de los motores de
búsqueda.
26
2.1. Motores de búsqueda web
En esta sección vamos a introducir cómo surgen los motores de búsqueda web, los principales
componentes por los que están formados y su funcionalidad. En secciones posteriores
expondremos cómo optimizar nuestro sitio web para cada uno de ellos. Tras finalizar la
sección, seremos capaces de enumerar las tres principales funcionalidades que realiza un
motor de búsqueda, así como identificar en qué subsistemas (del motor de búsqueda) existen
errores.
2.1.1. Internet, directorios y motores de búsqueda web
El acceso a Internet por parte de la población comenzó a principios de los 90. Hasta entonces
Internet había estado reservado únicamente para usuarios relacionados con el sector
académico, científico o gubernamental. Su accesibilidad al público creció rápidamente. Según
se documenta en (Internet World Stats, 2014), en 1995 era usado por 16 millones de usuarios
(representando el 0.4% de la población mundial) y para el 1998 Internet ya era accesible para
147 millones de personas (representando el 3.8% de la población mundial). Hoy día las
estimaciones realizadas por (Internet World Stats, 2014) indican que 2,937 millones de
personas disponen de acceso a Internet, representando el 40.9% de la población mundial.
Los datos ofrecidos por Matthew Gray del Instituto de tecnología de Massachusetts (Matthew
Gray, 1996) muestran como el número de dominios existentes en Junio del 1993 se limitaba a
130 dominios. Para finales de ese mismo año el número de dominios creció hasta 623, y en
diciembre del 1994 Internet albergaba 10,022 dominios.
El crecimiento de Internet junto con su rápida implantación hizo necesario disponer de
herramientas que ayudaran a los usuarios a buscar contenido publicado en la WWW (World
Wide Web).
Con el propósito de categorizar Internet surgieron los primeros directorios web. El primero
que puede considerarse como directorio web estaba formado por una lista de servidores web.
Esta lista de servidores era editada por Tim Berners-Lee (inventor de la World Wide Web), y
localizada en el servidor web del CERN (Organización europea para la investigación nuclear)
(Berners-Lee, 1992).
27
Los directorios estaban gestionados por personas, por lo que cada solicitud era supervisada
individualmente. Los usuarios de los sitios web debían acudir al directorio, encontrar la
categoría que define el contenido que alberga el sitio web que quisieran incluir y realizar la
petición de inclusión.
Una vez el sitio había sido incluido en el directorio, este podía ser encontrado por los usuarios
en la categoría especificada. Ejemplos de directorios web son “Jerry’s and David’s guide to
the World Wide Web” creado en 1994 y posteriormente renombrado como Yahoo! (Sullivan,
2014) o DMOZ lanzado en 1998 (WebHostingReports.com, 2009).
Frente a los directorios como herramientas para encontrar resultados, comenzaron a surgir
también los llamados motores de búsqueda web. El primer motor de búsqueda capaz de
escanear documentos web, indexarlos y recuperarlos fue JumpStation, desarrollado por
Jonathon Fletcher en 1993 (METRO, 2009). Este motor era capaz de realizar búsquedas en
base al título del sitio web y sus encabezamientos. En 1994 surgió WebCrawler, que a
diferencia de JumpStation era capaz de realizar búsquedas en todo el documento, sin
limitación para el título o los encabezamientos.
Con la expansión de Internet y el aumento del número de dominios y páginas web (Matthew
Gray, 1996), el funcionamiento de los directorios, gestionados por personas, comenzó a
mostrar su ineficiencia frente a la automatización que los motores de búsqueda web ofrecían.
En 1998 aparece el motor de búsqueda conocido como Google. Mediante la aplicación de un
algoritmo iterativo (conocido como PageRank) era capaz de ordenar los resultados en base a
la popularidad de la web. La idea de este algoritmo es que sitios con información útil reciben
mayor número de enlaces que sitios web con pobre contenido (Brin & Page, 1998). Con la
introducción de este algoritmo Google consiguió mejorar los resultados que se ofrecían a los
usuarios. Actualmente, PageRank es solo una métrica de las más de 200 empleadas en la
ordenación de resultados realizada por Google (Fleischner, 2011).
Google se ha convertido en el motor de búsqueda web por defecto. Según la última
evaluación realizada por ComScore, Google acapara el 67.3% de las búsquedas frente al
28
18.1% realizadas en el motor de búsqueda Bing y el 11.2% realizadas en Yahoo en Estados
Unidos (comScore, 2014).
2.1.2. Componentes de un motor de búsqueda
Los motores de búsqueda están compuestos por multitud de subsistemas. De entre los
subsistemas que conforman un motor de búsqueda, existen un conjunto presente en todos
ellos. En este apartado expondremos los tres principales subsistemas que se encuentran en
todos los motores de búsqueda:
Crawler: Esta entidad se la conoce bajo múltiples nombres, entre ellos crawler, spider o
robot. Los crawlers son alimentados por el servidor de direcciones. El servidor de direcciones
se encarga de almacenar listas de direcciones web y servirlas al crawler. El crawler es el
encargado de descargar los documentos web. El proceso empleado por los motores de
búsqueda para descargar documentos web se le denomina crawling (Cho;Garcia-Molina;&
Page, 1995).
Indexador: Se conoce como indexador a la entidad encargada de extraer, descomprimir y
procesar la información que obtiene del crawlers. Guarda la información en estructuras de
rápido acceso (Search, 2013).
Buscador: Interfaz de usuario empleada para la inserción de la búsqueda. Este componente
recibe la búsqueda introducida por el usuario e interacciona con el resto de componentes del
motor de búsqueda. Presenta los resultados de la búsqueda en lo que se conoce como página
de resultados o Search Engine Result Page (SERP).
Según lo expuesto, los motores de búsqueda distinguen tres subsistemas: crawler, indexador
y buscador. Cada uno de ellos realiza una función determinante en el buen funcionamiento
del motor de búsqueda. Mientras que el crawler recopila información, el indexador debe
almacenarla y organizarla en estructuras que permitan una rápida evaluación del contenido.
Esta evaluación y recuperación de contenido debe de ser suficientemente óptima para
responder en cuestión de milisegundos a las búsquedas de los usuarios.
29
En la Figura 1 podemos observar cómo la arquitectura inicial de Google (Brin & Page, 1998)
estaba compuesta por 12 subsistemas. En las siguientes secciones de este capítulo
expondremos los subsistemas con los cuales podemos interactuar para optimizar el proceso de
crawling, de indexación así como la optimización de documentos web interna y externamente
(conocidos como optimizaciones on-page y off-page respectivamente).
2.2. Proceso de Crawling Se conoce como crawling al proceso por el cual el crawler se provisiona de una lista de
direcciones web, descargando y almacenando el contenido que estas albergan. Los crawlers
obedecen a un conjunto de políticas que definen qué contenido descargar, cuándo visitar de
nuevo el sitio web o cómo evitar sobrecargar los sitios web (Baeza-Yates, 2004).
A lo largo de esta sección analizaremos formas de interactuar con los crawlers mediante el
protocolo de exclusión de robots y el archivo sitemap. Al finalizar la sección seremos capaces
de controlar el proceso de crawling, reconocer errores por un mal uso del protocolo robots así
Figura 1: Arquitectura inicial del motor de búsqueda de Google
30
como hacer uso del archivo sitemap para notificar a los crawlers sobre las direcciones web
existentes.
2.2.1. Sitemap Protocol
El protocolo Sitemap es un protocolo empleado para informar a los crawlers sobre las
direcciones existentes en un sitio web. Proporciona a los crawlers información sobre dónde
pueden encontrar los documentos presentes en el sitio web (Google, 2010).
Los crawlers adquieren nuevas direcciones web siguiendo enlaces que encuentran en otros
documentos web (Microsoft Corporation, 2008). El protocolo Sitemap es una forma
suplementaria de aportar direcciones web y meta información, tal como la frecuencia de
actualización del documento o su importancia.
A continuación mostramos cómo construir este archivo:
TAG Descripción
<urlset>
Encapsula el archivo XML y referencia el protocolo usado.
<url>
Encapsula el conjunto de reglas a aplicar por dirección web.
<loc>
Encapsula la dirección del documento web.
<lastmod>
Especifica la última vez que se modificó el archivo.
<changefreq>
Especifica la frecuencia con la que el documento web es actualizado.
Los posibles valores que puede adquirir son:
Always – Hourly – Daily – Weekly – Monthly – Yearly - Never.
<priority>
Permite especificar prioridades. Los posibles valores que pueden tomar
están entre 0.0 y 1.0. La prioridad por defecto es 0.5.
31
Tabla 1: Tags pertenecientes al archivo Sitemap.xml
Veamos un ejemplo de sitemap.xml para la web www.singon.com:
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>http://www.singon.com/</loc>
<lastmod>2012-06-18</lastmod>
<changefreq>weekly</changefreq>
<priority>0.9</priority>
</url>
…
<url>
<loc>http://www.singon.com/games/karaokegame/#register</loc>
<priority>0.8</priority>
</url>
</urlset>
Si el número de direcciones web a indexar es amplio, es posible definir archivos sitemaps.xml
por directorio (Microsoft Corporation, 2008). Para ello es necesario el uso de un archivo
conocido como sitemapindex.xml. Este archivo guarda un índice sobre dónde los motores de
búsqueda pueden localizar el conjunto de archivos sitemaps (Microsoft Corporation, 2008).
Las estructuras y tags XML que son empleados para construir este fichero son muy parecidas
al de un archivo Sitemap.xml. Veamos las etiquetas empleados por este fichero de índices:
TAG Descripción
<sitemapindex>
Encapsula todo el archivo XML y referencia el protocolo usado.
<sitemap>
Empleada para proporcionar datos sobre los sitemaps.
32
<loc> Localización del archivo sitemap.
<lastmod>
Especifica la última vez que se modificó el archivo.
Tabla 2: Tags pertenecientes al archivo sitemapindex.xml
A continuación mostramos un ejemplo de cómo hacer uso del archivo sitemapindex.xml
(Google Webmaster Tool, 2014):
<?xml version="1.0" encoding="UTF-8"?>
<sitemapindex xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<sitemap>
<loc>http://www.example.com/carpetaA/sitemap1.xml.gz</loc>
<lastmod>2004-10-01T18:23:17+00:00</lastmod>
</sitemap>
<sitemap>
<loc>http://www.example.com/carpetaB/sitemap2.xml.gz</loc>
<lastmod>2005-01-01</lastmod>
</sitemap>
</sitemapindex>
2.2.2. Robot Exclusion Protocol
El archivo robots.txt es un archivo consultado por los crawlers. Se localiza en el directorio
raíz de un sitio web (Google Webmaster Tools, 2014). Este archivo es público, por lo que se
aconseja no introducir direcciones web con contenido confidencial (Jennifer Grappone, 2011).
Al archivo robots.txt se le conoce como Robot Exclusion Protocol o protocolo de exclusión
de robots. Su principal función es la de informar a los robots sobre las carpetas y documentos
para los que disponen de autorización, pudiendo descargar el contenido (Martijn, Koster,
1994).
El archivo robots.txt está compuesto por dos directivas (Martijn, Koster, 1994):
- User-agent identifica el crawler que tiene que atender la directiva Disallow. Si no
especificamos el nombre de ningún robot y usamos el símbolo ‘*’, estaremos
informando a todos los robots sobre la directiva Disallow a obedecer.
33
- Disallow especifica qué directorios o subdirectorios no deben de ser rastreados por el
User-agent especificado.
Desde el fichero robots.txt también es posible informar a los crawlers sobre la localización
del archivo ‘sitemap.xml’ (Google Webmaster Tools, 2014). Podemos indicarle la
localización donde encontrar este archivo de la siguiente forma: Sitemap: http://www.example.com/sitemap.xml
2.2.3. Conclusiones
En esta sección hemos visto cómo funciona el proceso de crawling a través de dos de sus
protocolos. Mientras que sitemap informa a los crawlers sobre los documentos que queremos
que sean escaneados, el protocolo de exclusión nos permite controlar cuáles no deben de
escanearse.
La aplicación del protocolo de exclusión actúa sobre el proceso de crawling pero no evita que
el proceso de indexación tenga lugar. Los procesos de crawling e indexación son diferentes.
Los resultados que encontramos en la lista de resultados de los motores de búsqueda
proceden de la información que estos almacenan en sus índices. Esto puede verse en el
siguiente ejemplo extraído del sitio web Moz.com (Rand Fishkin, 2013).
La siguiente figura (Figura 2) muestra la configuración del archivo robots.txt para la web
www.about.com:
34
Figura 2: Archivo Robots.txt procedente de la web About.com
La directiva Disallow informa a los crawlers que no deben escanear directorios como /cgi/,
/library/nosearch/, /zadz/, /zdynahubz/ y /seventsz/. El resultado de aplicar este archivo
robots.txt es el siguiente:
Figura 3: Resultados de búsqueda para la web about.com
Como podemos observar en la figura anterior (Figura 3), los directorios especificados no han
sido escaneados. Google no presenta contenido para aquellas direcciones web presentes en el
archivo robots.txt, sin embargo estos se encuentran en la lista de resultados de Google. El
archivo robots.txt actúa únicamente sobre los procesos de crawling pero no sobre el proceso
de indexación.
2.3. Proceso de Indexación
El componente que se encarga de procesar la información escaneada por los crawlers es el
indexador. Este componente descomprime, parsea, procesa e indexa la información extraída
de los crawlers, en estructuras de rápido acceso. En este proceso, Google realiza parte de la
evaluación que determinará la importancia de un documento web (Brin & Page, 1998).
Esta sección está dividida en dos apartados: el primero presenta formas de interactuar con el
indexador; el segundo apartado presenta soluciones al problema de indexación de
documentos.
35
Al finalizar esta sección seremos capaces de indexar sitios web desarrolladas en Ajax,
controlar la forma en la que los indexadores interpretan los enlaces salientes presentes en la
página, así como qué direcciones web aparecen en la lista de resultados de los motores de
búsqueda.
2.3.1. Control sobre los indexadores
Los motores de búsqueda determinan la posición de los documentos web en base a multitud
de métricas. Google reconoce la existencia de más de 200 factores estudiados para determinar
el posicionamiento web.
En la sección 2.5. Optimización de documentos web: off-page se explicará en detalle cómo la
adquisición de enlaces y una buena arquitectura web contribuyen en el posicionamiento web.
El motivo principal de ello es la forma en la que los motores de búsqueda interpretan la
relación entre sitios web. Cuando un sitio web A enlaza a un sitio web B, los motores de
búsqueda interpretan que la web A está emitiendo un voto positivo a la web B. Mantener el
control sobre a qué sitios web otorgamos votos positivos es crucial para que los motores de
búsqueda puedan distinguir cuándo transmitir estos votos positivos.
En esta sección expondremos técnicas que nos permitirán controlar qué enlaces transmiten
votos y qué contenidos son indexados en los motores de búsqueda. Tras finalizar esta sección
seremos capaces de controlar la información que Google tiene en su índice y evitar
penalizaciones por la compra de enlaces mediante el uso del atributo rel=”nofollow”.
Robots meta tag.
Según expusimos en la sección de 2.1.2. Componentes de un motor de búsqueda, el crawler
es el encargado de recuperar el contenido web. La información que el crawler recupera es
transmitida al indexador. Este procesa los documentos, extrae información sobre ellos y crear
estructuras de rápido acceso para su evaluación. La meta etiqueta robots nos ofrece un medio,
a nivel de documento web, para controlar ciertas funciones del indexador.
36
Mediante el uso de esta meta etiqueta podemos enviar instrucciones al indexador sobre cómo
debe tratar la información que recibe. A pesar de que el nombre de la meta etiqueta es robots,
el procesamiento de esta se produce en el indexador. Las páginas que albergan esta etiqueta
son escaneadas por los crawlers, pero es el indexador quien determina si la página debe
pertenecer al índice del motor de búsqueda (Jennifer Grappone, 2011).
Esta meta etiqueta es usada entre las etiquetas <head></head> del documento HTML sobre
el cual queremos aplicarla, ofrece múltiples opciones de configuración las cuales presentamos
a continuación:
- follow
Emplearemos el valor follow cuando queramos que se procesen los enlaces contenidos en el
documento web (Google Webmaster Tool, 2013). Esto tiene una doble funcionalidad en el
motor de búsqueda: informa al servidor de direcciones sobre las nuevas direcciones que debe
servir al crawler; notifica al indexador que la página es fiable.
Google así como otros motores de búsqueda interpretan los enlaces como votos positivos.
Con el valor follow informamos a los motores de búsqueda que somos conscientes de la
emisión de estos votos hacia otros sitios web.
- nofollow
Mediante el uso del atributo nofollow conseguimos que no se emitan votos positivos hacia las
páginas a las que enlazamos (Google Webmaster Tool, 2013). Este atributo nos permite
informar al indexador de que no tenga en cuenta los enlaces que encuentre en el documento
(Google Webmaster Tool, 2013). Más adelante veremos la necesidad de no emitir votos
positivos para enlaces comprados como forma de evitar penalizaciones.
- index
37
La instrucción index indica al indexador que procese el documento web y lo indexe. Por
defecto, todos los documentos web son indexados (Google Webmaster Tool, 2013). Cuando
el documento es indexado, este será candidato a ser incluido en la lista de resultados.
- noindex
La instrucción noindex indica al indexador de que no procese información relativa al
documento. Evita que la información sea indexada en la lista de resultados de Google. Se
hace uso de esta etiqueta para evitar que el documento sea mostrado en la lista de resultados
(Google Webmaster Tools - Using meta tags to block access to your site).
Otros atributos que pueden incluirse en esta meta etiqueta para informar a Google sobre qué
mostrar en su página de resultados son:
- noarchive: Indica al motor de búsqueda que no guarde una copia en caché del
documento web. Los motores de búsqueda no ofrecerán una copia del documento web
si éste se encuentra offline (Google Webmaster Tool, 2013).
- nosnippet: Indica al motor de búsqueda que no muestre snippets en la lista de
resultados. Los snippets son definidos por Google como una forma de resumir el
contenido de una página web (Google Webmaster Tools, 2013).
- noodp: Indica al motor de búsqueda que no emplee metadatos albergados en Open
Directory Project (ODP) en los resultados de búsqueda.
ODP es un directorio web empleado por motores de búsqueda como Google. Los
directorios web son sitios web cuyo propósito es categorizar Internet. Los webmasters
o autores de sitios web envían información a estos directorios categorizando el sitio
web del que son propietarios. Posteriormente un revisor analizará si este sitio web
cumple con un mínimo de requisitos y si está bien categorizado.
Google empleó hasta el año 2011 el directorio ODP como directorio de donde extraer
información en caso de que no pudiera determinar el contenido de una web (Google
38
Webmaster Tools, 2013). De entre los directorios más conocidos destacan ODP
(también conocido como DMOZ) y Yahoo!.
- notranslate: Indica al motor de búsqueda que no ofrezca la opción de traducir un
documento web en la lista de resultados (Google Webmaster Tool, 2013).
- noimageindex: Indica al motor de búsqueda que no indexe imágenes contenidas en el
documento web (Google Webmaster Tool, 2013).
La meta etiqueta robots permite la combinación de atributos. A continuación presentamos las
combinaciones más empleadas para controlar la forma en la que los enlaces son tratados y la
indexación de contenido:
- follow, index: Indica al indexador que el documento web es apto para aparecer en la lista de
resultados de Google. Junto con el atributo follow, el indexador tendrá en cuenta los enlaces
existentes en el sitio web.
<meta name="robots" content="index, follow" />
- follow, noindex: Indica al indexador que procese la información relativa a los enlaces que se
encuentran en el documento. El documento no será indexado. Evitamos que el documento
aparezca en la lista de resultados.
<meta name="robots" content="noindex, follow" />
- nofollow, index: Indica al indexador que indexe la información del documento pero no tenga
en cuenta los enlaces encontrados en el documento. Se evita el paso de votos hacia otros
documentos web.
<meta name="robots" content="index, nofollow" />
39
- nofollow, noindex: Indica al indexador que no procese los enlaces encontrados en el
documento web ni indexe su contenido.
<meta name="robots" content="noindex, nofollow" />
El uso de la meta etiqueta robots presenta el inconveniente de que actúa a nivel de
documento. Mientras que la indexación de documentos en el índice de Google es una decisión
dicotómica, la decisión de emitir votos positivos es a nivel de ancla de texto. Haciendo uso de
la meta etiqueta robots, o bien todos los enlaces transmiten votos positivos o bien ninguno.
Para poder aplicar esta directiva de forma más selectiva existe el atributo rel=nofollow.
Atributo rel=nofollow.
Recapitulando la sección anterior, el principal problema existente con el uso de la meta
etiqueta robots es que actúa a nivel de documento. Para disponer de un mayor control para
indicar a qué enlaces no transmitir votos positivos, disponemos del atributo rel con los valores
follow/nofollow (Google Webmaster Tool, 2013). Este atributo se emplea en las anclas
HTML de texto <a>. Permite indicar al indexador cómo tratar los enlaces de forma
individual.
A continuación vemos un ejemplo sobre cómo hacer uso de este atributo:.
<a href="signing.php" rel="nofollow">sign in</a>
Este atributo actúa de forma individual sobre cada ancla de texto. Si existe algún enlace que
no contenga la restricción nofollow, estaremos pasando votos positivos. Cuando un webmaster
compra un espacio promocional en un sitio web, es importante que el enlace disponga del
atributo rel = “nofollow”. De no usar este atributo, Google podría realizar penalizaciones
alegando una compra/venta de enlaces como método para mejorar el posicionamiento.
2.3.2. Indexación de contenidos Ajax
40
Los crawler son los sistemas encargados de la descargar documentos web. Si los crawlers no
recuperan satisfactoriamente el contenido de un documento web, el resto de procesos de un
motor de búsqueda no podrá funcionar correctamente.
Se habla de procesamiento en el lado del cliente, cuando se produce un procesamiento de
datos en la aplicación cliente. En el caso de páginas web, el cliente suele ser el navegador
web.
Para conseguir que nuestro contenido sea indexado en los motores de búsqueda, tendremos
que cerciorarnos de que éstos son capaces de leer correctamente la información que nuestro
sitio web contiene.
Si el documento web recupera información de forma asíncrona, mediante llamadas Ajax, esta
información no será procesada por los motores de búsqueda. Esto se debe a que ni el crawler
ni el indexador ejecutan código cliente.
Cuando los motores de búsqueda no son capaces de detectar el contenido que un documento
web genera, será muy difícil que la página web del negocio online aparezca bien posicionada
en la lista de resultados de los motores de búsqueda.
En esta sección expondremos cómo funciona la tecnología Ajax y esquemas que permiten a
los indexadores indexar estos contenidos.
Funcionamiento de la tecnología Ajax
La recuperación de contenido web mediante la tecnología Ajax es un proceso que sucede en el
lado del cliente. Este proceso incluye no solo la recuperación de contenido, sino también el
refresco de la interfaz gráfica, así como la actualización de la dirección web.
Las páginas web cuya recuperación de contenido es realizada mediante la tecnología Ajax,
presentan la información al usuario en dos fases: primero recuperan el template del sitio web;
en la segunda fase se realiza la recuperación de datos asíncronamente. El template es la base
del documento web. Se caracteriza por ser el elemento HTML que no presenta refresco visual.
Dicho de otra forma, su contenido es estático y no será modificado.
41
El contenido a recuperar se conoce mediante la identificación del símbolo # en la dirección
web. El conjunto de palabras que acompañan a este símbolo identifican unívocamente que
contenido debe de ser descargado.
A continuación, vamos a detallar la secuencia de acciones que suceden cuando visitamos la
página web www.ejemploajax.com/#pagina1 con nuestro navegador:
1. El navegador realiza una petición HTTP GET para recuperar el contenido de la web
www.ejemploajax.com/#pagina1.
2. El servidor recibe únicamente una petición para recuperar el contenido para la
dirección web www.ejemploajax.com/. El texto perteneciente a la dirección web
posterior al símbolo # no es enviado al servidor.
3. El servidor contesta a la petición devolviendo el contenido (HTML, código JavaScript
y librerías de estilos CSS, etc.). Este contenido es lo que identificamos como template.
La comunicación entre el cliente web y el servidor ha terminado momentáneamente.
4. A medida que el contenido va siendo recibido por el navegador, comienza el proceso
de decodificación de datos a texto, parseo de código HTML, creación de tokens y
construcción de estructuras conocidas como DOM y CSSOM, las cuales quedan fuera
del ámbito de este proyecto. En el momento en que el parseador HTML alcanza la
etiqueta <script>, éste detiene su proceso y comienza la ejecución de código
Javascript.
5. El intérprete de JavaScript comienza a ejecutar el código JavaScript que el documento
web contiene. Las páginas web que recuperan contenido mediante el uso de llamadas
Ajax necesitan identificar que recurso recuperar. Se emplea el símbolo # junto con un
identificador (tal como #identificador) para denotar el contenido que debe de ser
recuperado. En el ejemplo anterior, para la dirección web
www.ejemploajax.com/#pagina1 el elemento que nos ayudará a identificar
unívocamente el recurso a recuperar será #pagina1.
42
6. Una vez identificado la palabra clave, ésta nos ayudará a conocer donde realizar la
petición Ajax. El código Javascript tendrá que contener un mapa que asocie estas
palabras clave con recursos desde donde recuperar el contenido. La siguiente tabla
mostraría la asociación entre palabra clave y dirección web donde se alberga el
contenido:
Palabra Clave Dirección dónde encontrar el contenido
pagina1 www.ejemploajax.com/pages/home.php
pagina2 www.ejemploajax.com/pages/about.php
pagina3 www.ejemploajax.com/pages/company.php
Tabla 3: Identificación unívoca de palabra clave con documento a recuperar
Como podemos observar, para cada palabra clave existe un recurso web a consumir.
Dependiendo de la palabra clave existente en la dirección web, realizaremos una llamada Ajax
a una diferente dirección web. Traducido a Javascript y haciendo uso de la librería JQuery, el
código que realiza el mapeo entre palabra clave y dirección dónde recuperar contenido sería el
siguiente:
Figura 4: Código javascript de carga de contenido asíncrona
43
7. Una llamada Ajax es una petición asíncrona que se realiza desde el cliente al servidor.
El servidor responde con el contenido que alberga para la dirección web solicitada.
Una vez el contenido es recuperado, este se incorpora al sitio web.
Las páginas web que emplean la tecnología Ajax para recuperar contenido, presentan el
inconveniente de que necesitan realizar al menos dos peticiones al servidor: la primera para
conseguir el template; la segunda para recuperar el contenido específico a mostrar.
Ahora que entendemos cómo funciona la tecnología Ajax, la siguiente sección nos ayudará a
entender por qué los crawlers o los indexadores no detectan correctamente las páginas que
hacen uso de la tecnología Ajax. También se exponen los esquemas existentes que permiten
solventar estos problemas.
Esquemas de indexación de contenidos Ajax
Los crawlers descargan el contenido que alberga la dirección web. El contenido incluye el
código JavaScript, el código Html y CSS entre otros. Debido a que ni crawler ni indexador
interpretan código javascript, ninguno de ellos realiza la llamada Ajax para la palabra clave
existente en la dirección web. El contenido descargado por el crawler corresponde con el
documento web que se obtiene, es decir, con el template del que hablábamos en el apartado
anterior.
Para resolver la indexación de contenido recuperado mediante Ajax existen diferentes
soluciones, consistiendo la mayoría de ellas en componer el documento web completo en el
servidor para proporcionárselo a los crawlers. Al código HTML completo que se obtiene tras
la ejecución del código JavaScript se le conoce como snapshot. A continuación presentamos
los esquemas existente para solventar este problema:
Esquema Hijax
Se conoce como Hijax scheme (Keith, 2006), a la metodología de mejora progresiva de una
web que termina con la implantación de la tecnología Ajax. El término Hijack significa
secuestrar en inglés. Hace referencia al secuestro y procesamiento de la comunicación que se
produce entre el navegador y el servidor, mediante la tecnología Ajax.
44
El desarrollo lógico consiste en la realización de un website sin el uso de la tecnología Ajax.
Se hace uso de las anclas de texto para permitir la navegación web. En esta fase, la página se
carga completamente mientras el usuario navega por el sitio web. El contenido es recuperado
sin el uso de la tecnología Ajax.
Una vez completada la web, se incorpora la tecnología Ajax para la recuperación de
contenidos, mejora de usabilidad y tiempos de respuesta. Nuestras anclas de texto serán
modificadas para acoger estas mejoras de la siguiente forma:
<a href=”www.mywebsite.com/home”
onclick=”load(‘www.mywebsite.com#home’)”> Home </a>
Podemos observar cómo las anclas de texto poseen el atributo href que define la web a
descargar, así como el manejador de eventos JavaScript onclick. Aquellos usuarios que
tengan habilitado la ejecución de JavaScript en sus navegadores enviarán peticiones Ajax
mientras navegan por el sitio web. Crawlers o usuarios que no tengan habilitado la ejecución
de código JavaScript serán capaces de recuperar el contenido completo.
El principal problema de adoptar este esquema, es el mantenimiento del sitio web. Requiere
de una duplicación de contenidos para servir snapshots. Se aconseja su uso cuando el número
de documentos web es limitado y el contenido no es actualizado con frecuencia.
Esquema de recuperación de contenidos Ajax
Este esquema fue desarrollado por Google como medio para mejorar la indexación de
contenidos recuperados mediante el uso de la tecnología Ajax (Google Webmaster Tools,
2013). La idea principal es albergar el mismo documento web en dos direcciones: a una
acceden los usuarios y el contenido es servidor con la tecnología Ajax; a otra los crawlers,
recuperando una snapshot del contenido que visualizan los usuarios.
Aquellos sitios web se acojan a este esquema deben modificar las direcciones web que cargan
contenido usando la tecnología Ajax. Las direcciones web presentarán los símbolos #! en
lugar de #. Cuando el crawler percibe este cambio, entiende que el sitio web está de acuerdo
45
con el esquema de servir el mismo contenido para usuarios y crawlers en direcciones web
diferentes. Existirán dos direcciones web: una pública para los usuarios; una privada para los
crawlers.
La dirección web pública es la mostrada en los resultados de búsqueda para los usuarios.
Dispondrá de los símbolos #! tal y como se mencionó con anterioridad. El documento web
podrá recuperar contenido con la tecnología Ajax.
La dirección web privada, empleada por los crawlers, se forma sustituyendo los símbolos #!
por el fragmento _escaped_fragment_. Bajo esta dirección los crawlers esperan recibir una
snapshot del contenido albergado en la dirección web pública.
Es decir, para una dirección web pública del tipo www.ejemploajax.com/#!pagina1 su
traducción a dirección web privada quedaría como
www.ejemploajax.com/?_escaped_fragment_=pagina1.
Bajo la implementación de este esquema: el crawler se compromete a recuperar el contenido
de las direcciones web privadas; el indexador se compromete a asociar este contenido con la
dirección web pública. Por tanto, se indexa el contenido albergado en la dirección web
privada, mostrándose la dirección web pública en la lista de resultados de Google.
En la siguiente figura (Figura 5) presentamos cómo el usuario accede a documentos web
mediante la dirección pública www.singon.com/#!songs. Dado que la dirección web dispone
del símbolo #! los crawlers entienden que este mismo contenido puede ser encontrado en la
dirección web privada www.singon.com/?_escaped_fragment_=songs :
46
Figura 5: Direcciones web empleadas para la recuperación de contenido Ajax
Bajo este esquema, el contenido que los crawlers recuperan a través de la dirección web
privada debe ser el mismo al que los usuarios tienen acceso mediante la dirección web
pública. En caso de no ser así, podríamos ser penalizados por los motores de búsqueda por la
realización de prácticas conocidas como Cloaking, las cuales explicaremos en secciones
posteriores.
2.3.3. Conclusiones
En esta sección hemos presentado técnicas que nos proporcionan la capacidad de
comunicarnos con los indexadores, así como esquemas de indexación para sitios
desarrollados con la tecnología Ajax.
Mediante el uso de la meta etiqueta robots controlamos la indexación de documentos. Cuando
el objetivo es evitar el paso de votos positivos a todos los enlaces presentes en el documento,
usamos la meta etiqueta robots con valor noindex. Si necesitamos una herramienta que nos
permita controlar el paso de votos positivos a nivel de enlace, usaremos el atributo
rel=”nofollow” en las anclas de texto.
47
Los esquemas de indexación expuestos ofrecen formas de solventar los problemas de
indexación que los crawlers presentan a la hora de recuperar contenido en tecnologías como
Ajax o javascript. Mediante la aplicación de estos esquemas, los motores de búsqueda son
capaces de recuperar e interpretar el contenido de sitios web desarrollados bajo tecnología
Ajax.
En el presente proyecto final de carrera se optó por la implementación del esquema de
recuperación de contenidos Ajax propuesto por Google. Tras su implementación, Google fue
capaz de recuperar el contenido del sitio web, indexando este y mostrándolo en la lista de
resultados. Para acelerar el proceso de indexación de contenidos se procedió a notificar a
Google mediante el protocolo sitemap sobre las nuevas direcciones web existentes.
2.4. Optimizando documentos web: on-page
En apartados anterior explicamos la arquitectura de los motores de búsqueda (en particular la
de Google), el funcionamiento de los crawlers, indexadores y formas de mejorar la
interacción con ellos. Mediante la aplicación de las técnicas mostradas en las secciones
anteriores, somos capaces de hacer llegar el contenido de nuestra web a los motores de
búsqueda.
Para determinar la relevancia de un documento, los motores de búsqueda hacen uso de cientos
de métricas. Estas métricas son extraídas mediante algoritmos que estudian la estructura de
nuestro sitio web, su temática, el público al que está dirigido, la velocidad del sitio web, el
país al cual está orientado, si nuestro sitio web ofrece contenido relevante a nivel
internacional, nacional o local, ... El conjunto de estas métricas junto con el perfil de usuario
es empleado por los motores de búsqueda en la composición de la lista de resultados.
En esta sección expondremos prácticas para optimizar los documentos web, formas de hacer
rentables nuestros esfuerzos de creación de contenido así como formas de evitar
penalizaciones.
2.4.1. Palabras clave
48
Los motores de búsqueda determinan qué sitios web mostrar a los usuarios en función de los
términos de búsqueda introducidos. Cuando realizamos búsquedas web, la mayoría de
resultados que obtenemos en la lista de resultados contienen los términos que hemos
introducido.
En la Figura 6 podemos observar cómo los términos de búsqueda aparecen en todos los
resultados, destacándose en negrita.
Figura 6: Búsqueda en Google con términos 'Universidad de Málaga'
Los motores de búsqueda disponen de mecanismos por los cuales son capaces de crear y
reconocer ontologías. Esto les permite no solo ofrecer resultados ajustados a las palabras de
búsqueda, sino también ofrecer aquellos sitios web cuyo contenido guarda relación con los
términos introducidos (Google Corporation, 2012).
49
Realizando una búsqueda por el término “Julio Iglesias” obtenemos sitio web oficial del
cantante, discografía, canciones populares, así como personalidades relacionadas con los
términos de búsqueda.
Figura 7: Resultados en Google para la búsqueda Julio Iglesias
La importancia de disponer de palabras clave en los documentos web viene determinada por
las relaciones que los motores de búsqueda son capaces de inferir. Se conoce como palabras
clave o keywords, al conjunto de palabras por las cuales un sitio web quiere ser posicionado.
La principal recomendación realizada por expertos, es usar como palabras clave aquellas que
puedan ser introducidas como términos de búsqueda (Google Corporation, 2012) .
50
Los motores de búsqueda hacen uso de la ocurrencia o frecuencia de palabras clave
existentes en los documentos web para entender el contenido que este alberga (Google
Corporation, 2012). Matt Cutts detalla en el canal Google Webmasters de YouTube, que no
existe un porcentaje específico del número de repeticiones de palabras clave a emplear, en el
contenido de un sitio web (Matt Cutts, 2011). Sin embargo, una repetición excesiva puede
llevar a penalizaciones por parte de los motores de búsqueda (Matt Cutts, 2011).
A lo largo de las siguientes secciones destacaremos dónde es importante posicionar palabras
clave en un sitio web, con el objetivo de optimizar el posicionamiento de este para los
términos clave elegidos.
2.4.2. Nombre de Dominio
Se conoce como nombre de dominio al identificador unívoco que emplean los documentos
web como forma de ser representados alfanuméricamente. Expertos en el área de
optimización web (Dover & Dafforn, 2011) consideran el nombre de dominio como uno de
los factores más importantes para la consecución de un buen posicionamiento.
En 1999 el nombre de dominio business.com fue adquirido por 7.5 millones de dólares.
Casino.com se compró por 5.5 millones, worldwideweb por 3.5 millones y otros como
porn.com y sex.com por 9.5 y 12 millones de dólares respectivamente (Shontell, 2012).
La aparición de palabras clave en los nombres de dominio es una técnica usada por
webmasters para mejorar el posicionamiento de un sitio web para términos específicos
(Odom, SEO For 2010: Search Engine Optimization Secrets, 2010). En 2011, Google realizó
ajustes sobre su algoritmo (Singhal;Cutts;& Wu, Systems and methods for detecting
commercial queries, 2011) para corregir la importancia que estos adquirían (Cutts, 2011) .
En las siguientes secciones explicamos los diferentes tipos de nombres de dominio existentes
desde el punto de vista de la optimización web, y la evolución de su importancia en los
motores de búsqueda.
Clasificación SEO: nombres de dominio
51
Desde el punto de vista de la optimización web, cuando se habla de dominios web se
diferencia entre: nombres de dominio web que coinciden con los términos de búsqueda;
nombres de dominio que coinciden parcialmente con los términos de búsqueda; y nombres de
dominios formados mediante el uso de guiones. Explicamos a continuación cada uno de ellos:
Exact Match Domain
Se conoce como Exact Match Domain, representado bajo las siglas EMD, al conjunto de
nombres de dominio que se ajustan exactamente a las palabras de búsqueda introducidas por
los usuarios.
Un ejemplo de EMD lo vemos en la siguiente figura (Figura 8).
Figura 8: Ejemplo de EMD desde la lista de resultados de Google
Tal y como muestra la Figura 8, el primer resultado corresponde con la web
www.seobook.com. Este dominio contiene todos los términos de búsqueda, por lo que se
considera como perteneciente a los dominios EMD.
Partial Match Domain
Se conoce como Partial Match Domain, representado bajo las siglas PMD, a aquellos
dominios web que contienen palabras de búsqueda en la raíz del dominio o sub-dominio.
Dada la definición anterior para PMD, para una búsqueda que contenga las palabras clave
“sing karaoke” los siguientes dominios y subdominios serían considerados como PMD:
o Singkaraokeonline.com
52
o Singkaraokeparty.com
o Singkaraoke.example.com
Hyphen Domains
Se conoce como Hyphen domains a los dominios compuestos por palabras separadas
mediante el uso de guiones. El uso de guiones en los nombres de dominio es particularmente
usado por páginas consideradas como spam (Fetterly;Manasse;& Najork, 2004).
Motores de búsqueda como Google o Bing prestan especial atención a este tipo de dominios,
donde la posesión de más de un guión o de números en el nombre de dominio es interpretado
como una señal de posible spam (Singhal;Cutts;& Wu, 2011).
Influencia en el posicionamiento
Para conocer la evolución sobre cómo las actualizaciones de Google han afectado a los EMD,
se han consultado estudios realizados por Seomoz (Fishkin, 2010) y (Fishkin, 2011), así como
theopenalgorithm (Collier, 2012).
Los estudios realizados por estos proyectos determinan el grado de correlación existente entre
el posicionamiento que ocupan las páginas en Google y su relación con el factor en estudio
EMD. Para la determinación del grado de correlación entre el posicionamiento y el tipo de
nombre de dominio, los estudios anteriores emplearon la correlación de Spearman como
método de correlación estadística. Este método permite expresar cómo una función monótona
representa la relación existente entre dos variables bajo valores comprendidos entre +1 y -1
(Laerd Statistics, 2013).
La siguiente figura (Figura 9) recopila los resultados obtenidos en los estudios comentados
anteriormente, los cuales determinan el grado de correlación existente entre el
posicionamiento que ocupa una página web con dominio EMD para dominios .com y para el
resto de dominios:
53
Figura 9: Índice de correlación de Spearman para EMD
Mientras que en 2010 la pertenencia de un dominio que se ajustara a los términos de
búsqueda tenía un grado de correlación de Spearman de 0.35, con las actualizaciones
realizadas a lo largo del 2011 y 2012, la correlación entre estos hechos se ha visto reducida. Si
bien los nombres de dominio han llegado a tener una fuerte influencia en el posicionamiento,
ésta ha decrecido con los años.
2.4.3. Top-level Domain
Se conoce como top-level domain (representado bajo las siglas TLD) de un dominio web, al
mayor nivel jerárquico alcanzable al que pertenece un documento (ICANN, 2014). Si
disponemos del dominio www.ejemplo.es, el TLD será .es, siendo el nombre de dominio
ejemplo y www el subdominio (ICANN, 2014).
Si bien existen distintos grupos de TLD reconocidos por la ICANN (Internet Association for
Assigning Names and Numbers), el más común y referido es el ccTLD(country-code top-level
domain). Está representado por dos letras que hacen mención a un país o territorio. Éstas se
corresponden con el código ISO 3166.
Matt Cutts confirmó en una publicación realizada en su blog en 2009 (Cutts, 2009) que a
medida que van mejorando el algoritmo de Google, están más dispuestos a mostrar páginas
.com si su contenido es relevante para un país en concreto.
54
En caso de hacer uso de un TLD .com para empresas que operan a nivel nacional, Google
Webmaster Tools dispone de una herramienta que permite especificar el país para el cual el
contenido del documento es relevante. Empresas locales o establecidas a nivel nacional que
hagan uso de un TLD .com podrán informar a Google sobre el país en el cual centran sus
actividades mediante la herramienta mencionada anteriormente.
(Dover & Dafforn, 2011) recomienda evitar el uso de TLDs como .tv, .biz o .info. Estos TLD
son comúnmente asociados a web spam.
2.4.4. Meta etiquetas
Las meta etiquetas están formadas por etiquetas HTML, situadas en la sección que
<head></head> del documento. Proporcionan información adicional a navegadores y
motores de búsqueda sobre los datos que contiene el documento. La información contenida
entre estas etiquetas no es visible a los usuarios.
El primer documento donde se introducen las meta etiquetas corresponde con el borrador de
Internet (Musella, 1995). En ella se definen las meta etiquetas y sus utilidades como sigue:
“The META element is used within the HEAD element to embed documents meta-
information not defined by other HTML elements. Such information can be
extracted by servers/clients for use in identifying, indexing and
cataloging specialized document meta-information.”
En esta sección explicaremos cómo los motores de búsqueda hacen uso de estas meta
etiquetas, así como de la etiqueta title encontrada en la cabecera de documentos HTML:
Meta description
Esta etiqueta sirve para informar a usuarios y motores de búsqueda sobre el contenido que
alberga el documento web. Esta información puede ser empleada por los motores de búsqueda
como resumen del contenido que alberga el documento web.
55
Los motores de búsqueda podrán emplear otras técnicas para determinar el contenido de la
web, especialmente en casos en los que esta meta etiqueta no se encuentre presente en el
documento o no sea suficientemente descriptiva.
En la siguiente imagen (Figura 10) podemos observar cómo Google emplea el contenido
albergado en esta meta etiqueta en la lista de resultados.
Figura 10: Meta descripción perteneciente a Amazon.com
La importancia de esta meta etiqueta reside en ser el único contenido que el usuario percibe
sobre nuestra web en la lista de resultados. Este contenido debe ser capaz de ofrecer
información relevante para los términos de búsqueda introducidos, de forma que consiga
convertir las impresiones en la lista de resultados en visitas.
Para determinar los término de búsqueda, puede hacerse uso de la herramienta de
planificación disponible en AdWords. Esta herramienta nos permitirá estimar el volumen de
usuarios que realizan búsquedas bajo los términos clave seleccionados.
Mediante el uso de la herramienta Google Webmaster Tools podremos conocer la evolución
del CTR (click-through-rate), es decir, el porcentaje de clics obtenidos en base a los términos
de búsqueda, cuando nuestro sitio web es impreso en la lista de resultados.
Meta keywords
Los primeros buscadores no eran capaces de determinar la materia que albergaban los
documentos web, por lo que recurrían a meta etiquetas que definieran explícitamente la
temática principal del sitio web.
56
Al conjunto de términos o palabras clave por las que un documento web es identificado se le
conoce como keywords. La meta etiqueta keywords era empleada para definir, mediante una
serie de palabras clave, el contenido del sitio web.
Un ejemplo del uso de esta meta etiqueta sería el siguiente;
<meta name=”keywords” content=”venta, ventas, alquiler,
alquileres, piso, pisos, inmuebles”>
Matt Cutts confirmó en un video publicado en el canal Google Webmasters de YouTube que
buscadores como Google o Bing no tienen en cuenta la meta etiqueta keywords a la hora de
posicionar un documento web. Por el contrario, esta meta etiqueta sí es empleada para
detectar páginas spam (Cutts, 2012).
Cuando el objetivo es hacer relevante un documento web para un conjunto de palabras clave,
es recomendable abandonar el uso de la meta etiqueta keywords y emplear los términos clave
en el documento y enlaces internos. Esto nos permitirá mejorará la relevancia del documento
para las palabras seleccionadas. La meta etiqueta keyword es únicamente empleada por
motores de búsqueda para detectar web spam. Expertos en SEO recomiendan no hacer uso de
ella (Fleischner, 2011).
Etiqueta Title
La etiqueta title no pertenece al grupo de meta etiquetas, a pesar de encontrarse en la sección
HTML <head></head>. Proporciona información para usuarios y motores de búsqueda,
describiendo con un número reducido de caracteres (entre 64 y 80 caracteres) el contenido
principal del documento web.
A diferencia de la meta etiqueta description, ésta presenta una mayor limitación en cuanto al
número de caracteres. Dado que el contenido es más conciso y dispone de un tamaño de letra
mayor, los usuarios suelen prestar mayor atención al título antes que al contenido presente en
la meta etiqueta description.
57
Sean Odom, experto en optimización en motores de búsqueda, cuantifica en (Odom, 2010)
que el empleo de palabras clave en la etiqueta title aumenta la relevancia de un documento
web hasta en un 6% con respecto a aquellos que no disponen de palabras clave.
Danny Dover en su libro Search Engine Optimization Secrets (Dover & Dafforn, 2011)
califica a esta etiqueta como la más importante de todos los factores on-page que puede tener
una web. Según este experto en motores de búsqueda, para la incrementar el número de clics
y mejorar la posición de una web, la etiqueta title debe de incorporar el nombre de la
compañía junto con un conjunto de las palabras clave relacionadas con el contenido web a
mostrar:
<BRAND NAME> | <KEYWORD > <KEYWORD >
<KEYWORD> - <KEYWORD> | <BRAND NAME>
Podemos observar un ejemplo del resultado de esta estructura en la siguiente figura (Figura
11):
Figura 11: Ejemplo de marcado de palabras en Google.com
2.4.5. Encabezamientos HTML
Los encabezamientos HTML permiten organizar documentos bajo la marcación de secciones
y subsecciones (W3C). Se distinguen hasta seis niveles de encabezamientos HTML
reconocidos bajo las etiquetas: <h1>, <h2>, <h3>,..., <h6>.
Los primeros motores de búsqueda determinaban el tipo de contenido que albergaba la página
mediante las meta etiquetas keywords y el estudio de los encabezamientos (Odom, 2010).
58
Debido a malas prácticas realizadas por los spammers para manipular los resultados de los
motores de búsqueda, la influencia que estos otorgan a estas etiquetas se ha visto reducido.
Google ha reconocido, en declaraciones realizadas por Matt Cutts, que la realización de un
excesivo e inapropiado uso de encabezamientos HTML lleva a penalizaciones por parte del
motor de búsqueda (Matt Cutts, 2009) .
La forma correcta de usar estos marcados es como sigue:
<h1> - Expresa el contenido general de la página. Libros especializados en optimización de
documentos web tales como (Dover & Dafforn, 2011) o (Odom, 2010) recomiendan el uso de
este tipo de encabezamientos en todas las páginas.
(Odom, 2010) recomienda emplear estos encabezamientos para situar palabras clave en estos.
Según detalla (Odom, 2010) este marcado puede incrementar la relevancia de los documentos
web para los términos de búsqueda entre un 4% - 5%.
<h2> ... <h6> - Subsecciones que aportan un nivel jerárquico con respecto a la sección
bajo la que se encuentran.
Como ejemplo, analicemos la página web de Amazon - sección Amazon MP3 & Cloud
Player:
Figura 12: Página de Amazon MP3 & Cloud Player
59
La temática principal de la página trata de Amazon MP3 & Cloud Player. Así lo muestra el
documento HTML a través del encabezamiento <h1>.
Figura 13: Encabezamiento H1 Html empleados en la página de Amazon
En la siguiente imagen (Figura 14) observamos cómo la página de Amazon define diferentes
niveles jerárquicos bajo el uso de encabezamientos HTML <h2> y <h3>.
Figura 14: Encabezamiento H2-H3 Html empleados en la página de Amazon
La estructura de encabezamientos quedaría resumida de la siguiente forma:
<h1> - Amazon MP3 & Cloud Placer
<h2> - Browse MP3
<h3> - Cloud Player
<h3> - Best Seller
<h3> - Top Offers
<h2> - …
…
60
El contenido está jerarquizado e incluye las palabras clave por las que queremos ser
posicionados, permitiendo a los indexadores entender la organización de la página, la temática
que alberga y la relación existente entre los contenidos.
2.4.6. Atributo de texto ALT
El atributo alt se sitúa en la etiqueta HTML <img> (etiqueta empleada para definir una
imagen). Este atributo es empleado como método para ofrecer una descripción textual
alternativa, en caso de que la imagen no pueda ser recuperada.
En el recurso web Using ALT attributes smartly (Cutts, 2007), Matt Cutts habla sobre el
inconveniente de situar información en imágenes. Los motores de búsqueda no son capaces de
interpretar imágenes. Este atributo es la única fuente de información que los indexadores
disponen para entender qué contenido alberga la imagen.
Cuanta mayor información reciban los motores de búsqueda, mejor podrán entender el
contenido del que disponemos. Usar texto descriptivo en el atributo alt o en el nombre del
archivo nos ayudará a enviar información sobre el contenido de la imagen (Cutts, 2007).
“Search engines can use the information in an image based link, including the name of the
image and the alt attribute to interpret what the linked-to page is about.”
The Anatomy of a HyperLink, SEO Education
El posicionamiento de palabras clave en el contenido del atributo alt es una técnica
documentada en (Dover & Dafforn, 2011), (Odom, 2010) o (Enge;Spencer;Fishkin;&
Stricchiola, 2009) para el posicionamiento de documentos web.
A continuación, mostramos un ejemplo práctico extraído del recurso (Linsley, Peter; Cutts,
Matt), donde se aplica el atributo alt y el nombre del archivo para describir el contenido de la
imagen:
<img src="cachorro.jpg" alt="cachorro de dálmata jugando con una pelota">
61
2.4.7. Canonicalización
Google está constantemente incorporando mejoras a su algoritmo de búsqueda. La
incorporación del algoritmo Panda realizada en febrero del 2012, tiene como objetivo
mejorar los contenidos ofrecidos en la página de resultados de los motores de búsqueda.
Este algoritmo penaliza páginas de baja calidad o con contenido duplicado, ofreciendo
mejores posiciones a sitios web con contenido original y de calidad (Singhal, Amit; Cutts,
Matt, 2011). El algoritmo fue actualizado en sucesivas ocasiones (Moz Team, 2014),
afectando a un gran número de sitios web. Los datos ofrecidos por Google (Singhal, Amit;
Cutts, Matt, 2011) estiman que un 11.8% de las búsquedas se vieron afectadas por esta
actualización.
Para evitar penalizaciones por duplicación de contenido, debemos de identificar aquellos
documentos web que presentan el mismo contenido bajo diferentes direcciones web. De entre
las direcciones con el mismo contenido, deberemos de elegir una, aquella cuya dirección web
represente mejor el contenido que alberga.
A esta dirección se le llama dirección canónica (Google Webmaster Tools, 2013). Será la
dirección web que aparecerá en los motores de búsqueda. En caso de no especificar cuál es la
dirección web canónica, los motores de búsqueda escogerán una de ellas como la principal.
Las restantes direcciones web con contenido duplicado serán omitidas en las páginas de
resultados (Google Webmaster Tools, 2013).
Según Google expresa en (Google Webmaster Tools, 2013), un sitio podrá ser penalizado
cuando ofrezca contenido duplicado sin optimizar, siendo este usado como medio para
manipular los resultados de búsqueda.
Existen diferentes métodos que nos ayudan a manejar la duplicidad de contenidos. Los
siguientes métodos que exponemos nos ayudarán a evitar penalizaciones, así como a recopilar
las métricas adquiridas por las páginas duplicadas en la dirección canónica (Google
Webmaster Tools, 2013).
Redireccionamiento 301
62
Este tipo de redireccionamiento es especialmente útil cuando diferentes direcciones web
acceden al mismo contenido. A través del establecimiento de redireccionamientos, cuando un
usuario intente acceder a alguna de las direcciones web duplicadas, este será redireccionado
hacia la dirección canónica.
A modo de ejemplo, supongamos que todas las direcciones web siguientes presentan al
usuario el mismo documento web:
[1] paginaweb.com
[2] www.paginaweb.com
[3] pagina.com/index.php
[4] www.pagina.com/index.php
Todas las direcciones web anteriores son diferentes a pesar de que responden con el mismo
contenido. Para evitar penalizaciones por albergar contenido duplicado, y con el objetivo de
recopilar todas las métricas adquiridas por cada documento en una misma dirección web,
disponemos la posibilidad de implementar redireccionamientos (Google Webmaster Tools,
2014). Para ello seleccionamos cuál es la dirección web que mejor representa el contenido
que alberga. Esta dirección web se la conoce como dirección canónica.
Una vez hemos seleccionado nuestra dirección canónica, deberemos configurar nuestro
servidor para que responda con un redireccionamiento 301 para aquellas direcciones que
albergaban el contenido duplicado. De esta forma, cuando el usuario intente acceder a las
direcciones con contenido duplicado será redireccionado a la dirección web canónica.
Etiqueta link
La etiqueta link se emplea para indicar a los motores de búsqueda cuál es la dirección
canónica sobre un conjunto de documentos web con similar contenido (Google Webmaster
Tools, 2013). Esta etiqueta se sitúa en la sección <head></head> del documento Html.
Dispone de dos atributos: rel=”canonical”; href=“dirección web canónica”. El atributo href
nos permite declarar la dirección web canónica de entre aquellas que tienen el mismo
contenido (Odom & Habermann, 2013).
63
Esta etiqueta debe de estar presente en todos los documentos web que sean duplicados o
semejantes a otros (Google Webmaster Tools, 2013). Su uso permite dirigir las métricas
adquiridas por los documentos web duplicados hacia una misma dirección web, en nuestro
caso la dirección web canónica (Kupke, 2009).
La principal diferencia entre el uso de esta etiqueta y el uso de redireccionamientos 301
reside en que el primero posibilita acceder a los contenidos similares o duplicados desde
diferentes direcciones web, mientras que el segundo redirecciona al usuario hacia la dirección
web canónica.
2.4.8. Canibalización de palabras clave
En esta sección introduciremos uno de los problemas más comunes que surgen cuando
webmasters, escritores o bloggers publican contenido sin tener en cuenta la optimización
web. Durante el proceso de creación de contenido, el escritor o blogger debe de planear cómo
el usuario llega a este contenido, es decir, cuáles serán las palabras clave que conducirán al
usuario desde el motor de búsqueda al artículo o documento web.
Si todos nuestros documentos promocionan el mismo conjunto de palabras clave,
experimentaremos lo que se conoce como canibalización de palabras clave (Rand Fishkin,
2007). Este término se atribuye a la competición interna surgida entre documentos
optimizados para el mismo conjunto de palabras clave (albergados bajo el mismo dominio)
por conseguir una posición en los SERPs.
La canibalización de palabras clave tiene su origen en las restricciones que los motores de
búsqueda imponen para no mostrar más de tres o cuatro documentos (pertenecientes a un
mismo dominio web) en la misma página de resultados (Cutts, 2013). De entre todos los
documentos web pertenecientes al mismo dominio y optimizados para el mismo conjunto de
palabras clave, los motores de búsqueda seleccionan un conjunto reducido de documentos
(Rand Fishkin, 2007), dejando el resto fuera de la lista de resultados (SERP).
Para evitar la canibalización de términos clave, deberemos disponer de herramientas que nos
informen de las palabras clave que hemos usado o estamos usando. En caso de no tener este
tipo de herramientas, disponer de una hoja Excel donde anotar las palabras clave empleadas
64
por documento dará el mismo servicio (Dimock, 2013). La incorporación de sinónimos para
las palabras clave nos ayudará a extender el vocabulario por el cual los usuarios pueden
encontrarnos en los motores de búsqueda.
Evitar la canibalización de palabras clave conseguirá que los esfuerzos invertidos en la
creación de contenidos sean más rentables. Como mencionamos anteriormente, disponer de
un documento que mantenga las principales palabras clave promovidas por artículo nos
ayudará a evitar este fenómeno.
2.4.9. Paginación web
Se denomina paginación web, a la división de un documento web en múltiples documentos.
Un ejemplo común lo podemos observar en la mayoría de los comercios online: debido a la
cantidad de productos que disponen y a la imposibilidad de mostrar todos en el mismo
documento, lo dividen en secciones, donde cada una de ellas a su vez muestra un número
finito determinado de artículos; si el número de artículos pertenecientes a una misma sección
es muy extenso, ofrecen un menú de navegación para movernos entre las páginas de
productos.
Figura 15: Paginación desarrollada por Amazon
La paginación de documentos web presenta una serie de problemas para los motores de
búsqueda:
65
1. La profundidad a la que se encuentran los documentos.
2. Imposibilidad de determinar el documento más relevante del conjunto de páginas.
3. Pérdida de integridad entre las páginas.
Maile Ohye, jefe de los programas de desarrollo técnico en Google, expone en el recurso
(Maile Ohye, 2012) cómo la división de un documento en múltiples páginas afecta
‘negativamente’ al posicionamiento web.
Existen dos tipos de estrategias documentadas en (Li & Kupke, 2011) y (Maile Ohye, 2012)
para tratar documentos con paginación de contenido y solventar los problemas mencionados
anteriormente:
• Crear dos versiones del documento (Maile Ohye, 2012): la primera versión alberga el
contenido completo; la segunda versión paginaría el contenido.
Debido a la existencia de dos versiones con contenido similar, esta opción conlleva la
duplicación parcial de contenido. Para evitar penalizaciones y recopilar todas las
métricas en una única dirección web, tenemos que usar la etiqueta link rel=canonical,
tal y como se explicó en la sección 2.4.7. Canonicalización - Etiqueta link. Todos los
documentos paginados tendrán que contener esta etiqueta, siendo la dirección
canónica el documento web que alberga completamente el contenido.
• Cuando el número de páginas que conforman el contenido es demasiado extenso para
albergarlo en un único documento, podemos indicar al motor de búsqueda que cada
uno de las páginas forman parte de un mismo documento (Li & Kupke, 2011).
Esto puede conseguirse mediante el uso de la etiqueta link, el atributo rel y los valores
prev y next. Esta etiqueta nos permite especificar la existencia de documentos y la
relación de precedencia existente entre éstos.
Con esta opción indicamos a Google que unifique todas las métricas de los
documentos paginados. En el recurso (Maile Ohye, 2012) Maile Ohye anuncia que
66
Google mostrará en los SERPs la primera página del conjunto de documentos
paginados que hacen uso de esta opción (Maile Ohye, 2012).
A continuación, exponemos un ejemplo de cómo haríamos uso de esta opción, si los
documentos son suficientemente grandes como para mostrarlos en un único
documento:
Página 1 del artículo
Dirección web: www.miwebsite.com/post/?id=127&pagina=1
<head>
<link href=”www.miwebsite.com/post/?id=127&pagina=2”
rel=”next”/>
</head>
<body>
…
</body>
-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐
Página 2 del artículo
Dirección web: www.miwebsite.com/post/?id=127&pagina=2
<head>
<link href=”www.miwebsite.com/post/?id=127&pagina=1”
rel=”prev”/>
<link href=”www.miwebsite.com/post/?id=127&pagina=3”
rel=”next”/>
</head>
<body>
…
</body>
-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐-‐
67
Página 3 del artículo
Dirección web: www.miwebsite.com/post/?id=127&pagina=3
<head>
<link href=”www.miwebsite.com/post/?id=127&pagina=2”
rel=”prev”/>
</head>
<body>
…
</body>
En este ejemplo, el documento completo necesita tres páginas. Mediante la aplicación de la
etiqueta link y los atributos rel=”prev” y rel=”next”, conseguimos que los motores de
búsqueda interpreten estos tres documentos como documentos pertenecientes a un mismo
conjunto.
Conocidos los problemas de los crawlers para recuperar documentos web que se encuentran
localizados a varios enlaces de profundidad de la home page, la aplicación de cualquiera de
los métodos documentados en este apartado ayudará a los motores de búsqueda a entender la
arquitectura del documento.
2.4.10. Redireccionamientos
Los documentos web se encuentran alojados en direcciones web. Para descargar el contenido
de un documento, debemos de conocer la dirección web que lo alberga. Bajo estos supuestos,
disponemos de un documento web el cual es accesible mediante la dirección web
www.documentos.com/titulo. Por alguna razón, el documento web albergado en esta dirección
es movido a una nueva: www.documentos.com/nuevo-titulo. Si el documento albergado en la
dirección web www.documentos.com/titulo disponía de enlaces entrantes, dado que hemos
movido su contenido, debemos de notificar de alguna forma a los documentos que nos
enlazan sobre la nueva localización.
68
Si bien podríamos tratar de contactar con todas las páginas web que han enlazado nuestro
contenido empleando la dirección web www.documentos.com/titulo, informándoles de la
nueva dirección donde hemos alojado el documento, esta opción es ineficaz y poco factible.
Una forma mas factible de realizar esta labor, es mediante el establecimiento de
redireccionamientos web.
Un redireccionamiento web nos permite informar al navegador de que el recurso albergado en
la dirección www.documentos.com/titulo ha sido trasladado a www.documentos.com/nuevo-
titulo. Cuando el navegador intenta recuperar el contenido de la dirección
www.documentos.com/titulo, recibe información sobre la nueva localización del documento,
redireccionando al usuario allí.
Existen diferentes tipos de redireccionamientos, permitiéndonos informar al navegador sobre
si el redireccionamiento es temporal o permanente. El navegador actúa de la misma forma
ante los redireccionamientos: redirecciona al usuario hacia la nueva localización. Sin
embargo, desde el punto de vista de los motores de búsqueda, el tipo de redireccionamiento
usado importa.
A continuación exponemos los diferentes redireccionamientos que encontramos y como estos
son tratados por los motores de búsqueda:
Redireccionamiento 301
Definido en el protocolo HTTP 1.0, el redireccionamiento de tipo 301 es utilizado para
indicar que un documento ha cambiado su localización de forma permanente. Ejemplos de su
uso surgen cuando un sitio web cambia su dominio y quiere informar a los navegadores de
este cambio.
Este tipo de redireccionamiento traspasa todas las métricas adquiridas (por la anterior
dirección web) hacia la nueva dirección. (Matt Cutts, 2013)
Redireccionamiento 302
69
Definido en el protocolo HTTP 1.0, es empleado para indicar que un recurso web ha
cambiado su localización de forma temporal (World Wide Web Consortium, 2005). Cuando
el navegador recibe este código, redirecciona al usuario hacia la nueva localización donde se
encuentra el recurso.
A diferencia del redireccionamiento 301, este no traspasa las métricas adquiridas hacia la
dirección a la que se redirecciona (Moz, 2014). Actúa de forma contraria: las métricas que
adquiera la nueva dirección web pasarán hacia la dirección original (la que implementa el
redireccionamiento 302) (Peng & Dabek, 2010). Esto es debido a la interpretación que los
motores de búsqueda realizan sobre este redireccionamiento. Dado que el redireccionamiento
es temporal, en algún momento cesará. Las métricas adquiridas por la nueva dirección web
deberán de ser traspasadas hacia la dirección web que alberga el contenido.
En la sección de Blackhat SEO – Secuestrando documentos web, veremos cómo este tipo de
redireccionamiento ha sido empleado como método para apropiarse de las métricas de otras
webs.
Redireccionamientos 307
Definido en el protocolo HTTP 1.1, es el sucesor del redireccionamiento 302 en la versión del
protocolo HTTP 1.0. Se emplea para indicar que el recurso web al que se intenta acceder se
encuentra temporalmente localizado en otra dirección web. Este tipo de redireccionamiento,
al igual que pasa con el de tipo 302, no traspasa las métricas adquiridas a la página a la que
redirecciona.
La nueva versión del protocolo HTTP 1.1 ha cambiado el significado del código 302,
significando ‘Found’ en lugar de ‘Moved Temporarily’. Debido a la actualización del
protocolo y la imposibilidad de conocer si los motores de búsqueda conocen la versión del
protocolo empleada, web expertas (Moz, 2014) recomiendan usar el código 302 en lugar del
código 307.
2.4.11. Velocidad de carga
70
A lo largo de los años, Google ha manifestado la importancia de que los documentos web
sean de calidad y con contenidos únicos, además de que ofrezcan una gran experiencia al
usuario. Para conseguir esto, Google ha ido mejorando su algoritmo, penalizando contenidos
de baja calidad mediante el algoritmo Panda (Singhal, Amit; Cutts, Matt, 2011), penalizando
páginas con alto contenido de anuncios a través del algoritmo page layout (Cutts, 2012) o
penalizando contenidos duplicados mediante el algoritmo Penguin (Cutts, Matt, 2013) entre
otros muchos.
En 2010, Google anunció la adición de la métrica ‘velocidad de carga de una web’ en su
algoritmo para posicionar documentos. Esta nueva métrica se lanzó con baja repercusión
sobre el posicionamiento web, afectando tan solo al 1% de las búsquedas realizadas, según
documenta Google en su blog (Singhal & Cutts, 2010).
En la feria SMX Advanced 2013 celebrado en Seattle, Matt Cutts anunció (Schwartz, 2013)
que la velocidad de respuesta de las páginas web afectarían al posicionamiento web móvil.
Posterior al anuncio de Matt Cutts, las empresas Moz.com y Zoompf realizaron un estudio
(Peters & Isham, 2013) centrándose únicamente en factores que intervienen en la velocidad de
carga.
El estudió determinó que el único factor que guarda correlación con el posicionamiento web
corresponde con la métrica TTFB (tiempo que el usuario tarda en recibir el primer byte desde
que se realiza la petición):
“…our data shows there is a correlation between lower time-to-first-byte (TTFB)
metrics and higher search engine rankings. Websites with servers and back-end
infrastructure that could quickly deliver web content had a higher search ranking than those
that were slower” (Peters & Isham, 2013)
La siguiente gráfica (Figura 16) extraída de (Peters & Isham, 2013) muestra cómo las páginas
que se sitúan en las primeras posiciones responden su primer byte en tiempos del orden de
0.35 – 0.45 segundos:
71
Figura 16: Tiempos de respuesta TTFB y posicionamiento (Peters & Isham, 2013)
Teniendo en cuenta el estudio realizado por (Peters & Isham, 2013), las técnicas de
optimización que nos permitirían mejorar el tiempo de respuesta TTFB son:
• Uso de CDN (content delivery network) para distribuir el contenido web desde
servidores cercanos a los usuarios.
• Uso de accelerators en lenguajes compilados para cachear el bytecode/opcode
(evitando parsear y compilar el código en cada petición en lenguajes como PHP).
• Uso de caches en memoria para obtener tiempos de respuesta del orden de
milisegundos en comparación con tiempos de acceso a base de datos que gira en torno
a los 100-500 milisegundos.
• Uso de SQL cache para evitar procesar datos sobre respuestas a queries ya
respondidas.
2.4.12. Conclusiones
A la hora de elegir un nombre de dominio, el peso que los motores de búsqueda otorgan a la
disposición de palabras clave sigue influyendo considerablemente en el posicionamiento.
Elegir un EMD como nombre de dominio puede beneficiarnos, pero tenemos que conocer sus
implicaciones: alta competencia contra EMD o PMD por los mismos términos.
72
Optar por nombres de dominio compuestos por guiones (hyphen domain) no es una buena
opción debido a que estos nombres de dominio siempre han estado asociados a páginas spam.
En caso de optar por su uso, evitar usar más de un guión separador, caracteres especiales o
números.
A la hora de crear contenido, deberemos de optimizarlo tanto para motores de búsqueda como
para los usuarios. Para ello, el documento deberá HTML proporciona. Es decir, el documento
deberá de disponer de meta etiquetas title y description para cada documento web, optimizar
el contenido mediante el uso de palabras clave en encabezamientos (un encabezamiento H1
por página y posteriores subencabezamientos en caso de que sean necesarios), así como
proporcionar textos alternativos con palabras clave en el atributo alt de las imágenes.
Para evitar la canibalización web, considerar el uso de palabras clave sinónimas para
diferentes documentos web, ampliando el vocabulario para el cual nos posicionamos en los
motores de búsqueda.
En caso de disponer de documentos extensos que deban de ser separados en varias páginas,
hacer uso de los atributos next y prev disponibles para la meta etiqueta link. De esta forma,
indicamos a Google de que el documento se encuentra dividido en varias páginas y cuál es la
relación entre ellas.
Si bajo diferentes direcciones web accedemos al mismo contenido, usaremos el
redireccionamiento 301 o la meta etiqueta link con el atributo rel = “canonical”. Esto nos
permiten aunar las métricas adquiridas por los documentos duplicados hacia el documento
original, evitando penalizaciones y disponiendo de control sobre la dirección del documento
que se promociona en los motores de búsqueda.
Por último, controlar el tiempo de respuesta con la que los documentos webs son servidos.
Para mejorar estos tiempos, hacer uso de CDNs, optimizar el código en el servidor o hacer
uso de accelerators para evitar parsear código en cada petición en lenguajes como PHP.
Una vez el contenido está optimizado, tendremos que aplicar nuevas técnicas de optimización
conocidas como off-page. Estas técnicas permitirán a los motores de búsqueda conocer si
otros sitios nos consideran relevantes. Vemos estas en la siguiente sección.
73
2.5. Optimización de documentos web: off-page
En la sección anterior hemos presentado el conjunto de optimizaciones que pueden realizarse
en un documento web, con el objetivo de facilitar a los motores de búsqueda la evaluación del
contenido.
En este apartado introduciremos un conjunto de prácticas albergadas bajo la denominación de
prácticas off-page. Las prácticas off-page son aquellas que buscan la optimización de
documentos web mediante el establecimiento de enlaces internos y externos. Presentaremos
cómo optimizar para nuestros enlaces (internos y externos) desde un punto de vista SEO,
métricas que motores de búsqueda como Google han empleado para clasificar documentos en
la lista de resultados, la importancia de la arquitectura de nuestro sitio web así como técnicas
de link building empleadas para la adquisición de enlaces.
2.5.1. Anclas de texto y optimización interna
Se conoce como ancha de texto a la representación visual de un enlace. Esta representación
puede encontrarse en formatos de audio, video, animación, hojas de cálculo, etc. Las anclas
de texto se forman mediante la etiqueta HTML <a> y emplean el atributo href. para
referenciar el documento al que enlazan. Su principal funcionalidad es la permitir al usuario
recuperar recursos web.
Un ejemplo del uso de anclas de texto en Html para descargar el contenido almacenado en la
dirección www.google.com sería el siguiente:
<a href=”www.google.com”> Ir a Google </a>
Desde el punto de vista de los motores de búsqueda, Larry Page y Sergey Brin (creadores de
Google) ya expresaron en su tesis (Brin & Page, 1998) cómo el uso de anclas de texto es
usado como medio para extender información sobre la página a la que se enlaza.
74
Patentes como (Kumar;Sareen;Gupta;Clark;& Wang, 2013) y (Dou;Chen;Song;& Wen, 2013)
desarrolladas por Microsoft expresan nuevas formas de hacer uso de las anclas de texto,
pudiendo emplearse para determinar el contexto de una web (Kumar;Sareen;Gupta;Clark;&
Wang, 2013) o para determinar el posicionamiento de un documento web
(Enge;Spencer;Fishkin;& Stricchiola, 2009).
Reconocido por Matt Cutts en el canal Google Webmasters de YouTube (Cutts, 2011), Google
hace uso de las anclas de texto y el contexto en el que se encuentran como medio para
complementar la información de sitios web que no son accesibles por los crawlers (Google
Webmaster Tools, 2014).
Tal y como se expone en (Kumar;Sareen;Gupta;Clark;& Wang, 2013), las anclas de texto así
como el contenido existente alrededor de estas son estudiadas por los motores de búsqueda.
Esto permite a los motores de búsqueda incrementar el conocimiento sobre sitios web, de
forma que un documento web puede llegar a ser relevante para una serie de términos clave,
incluso cuando estos no se encuentran presente en el documento.
“… search engines can deem a page relevant to a user’s query simple because one or more
other pages reference that page by using anchor text that is similar or identical to the user’s
query. The page deemed relevant to the user’s query under such a system, however, may not
itself contain the user’s query.”
(Kumar;Sareen;Gupta;Clark;& Wang, 2013)
Expertos en SEO como Rand Fishkin en la publicación (Enge;Spencer;Fishkin;& Stricchiola,
2009) , Danny Dover en (Dover & Dafforn, 2011) o Sean Odom (Odom, 2010) manifiestan la
importancia de conseguir enlaces con las palabras clave por las cuales queremos ser
referencia en internet.
Un ejemplo de la importancia que Google otorga a las palabras localizadas en las anclas de
texto se han puesto de manifiesto con las llamadas Google Bombs. Se conoce con el término
de Google bomb al conjunto de prácticas que provocan que un sitio web adquiera un alto
posicionamiento en Google para búsquedas no relacionadas con la temática del sitio web.
75
La SGAE (sociedad general de autores y editores) ha sufrido el uso de Google Bombs. Para la
consecución de esta Google bomb multitud de recursos web decidieron enlazar a la página
principal de la SGAE bajo el término “ladrones”. Esto consiguió manipular los resultados de
los motores de búsqueda. Para búsquedas realizadas con el término “ladrones”, la página
principal de la SGAE era devuelta como primer resultado.
Desde el punto de vista de la optimización para el posicionamiento web, los términos por los
que una página es referenciada escapan del control de los webmasters. Un webmaster no
puede controlar el texto que otras páginas web emplean para enlazarle. A pesar de ello,
muchos usuarios enlazan webs parafraseando el título, textos resúmenes o textos concisos
albergados en el documento referenciado.
Ofrecer una descripción corta, concisa, con palabras clave que defina el contenido que
albergamos ayudará en el posicionamiento web, a la vez que ofrece palabras clave que
pueden ser usadas por los usuarios para enlazarnos (Kumar;Sareen;Gupta;Clark;& Wang,
2013).
2.5.2. Métricas Off-page
Los motores de búsqueda interpretan los enlaces como votos positivos. Mediante la
evaluación de los enlaces que un sitio web recibe, los motores de búsqueda son capaces de
determinar la popularidad del sitio, la autoridad de este en la temática o la reputación de
nuestro sitio web. En el presente apartado expondremos estos conceptos en mayor
profundidad.
Popularidad web
PageRank fue el nombre que se le atribuyó a uno de los algoritmos más importantes que
existen hoy día en el área de sistemas de recuperación de información en entornos web.
Desarrollado por Lawrence Page y Sergey Brin, su principal función es analizar el grafo web,
es decir, analizar el grafo que forman los sitios web cuando enlazan a otros sitios.
El PageRank, más allá de su formulación matemática que veremos mas adelante, es empleado
por Google como métrica para determinar la popularidad de un sitio web. Como si de un
sistema de votación se tratara, este algoritmo estudia las referencias entre los documentos
76
web. Estas referencias, realizadas mediante enlaces, son interpretadas como votos de
confianza emitidos desde unas webs hacia otras (Brin & Page, 1998).
El número de votos que una página puede emitir se determina en función de la popularidad
del documento (PageRank que tiene asociado) y del número de hiperenlaces salientes que
dispone el sitio web (Brin & Page, 1998).
Denominamos hiperenlaces salientes a aquellos enlaces que se producen desde el documento
web en el que nos encontramos hacia otros. Hablamos de hiperenlaces entrantes para denotar
aquellas citaciones provenientes de documentos webs.
La formulación que define el algoritmo de PageRank (Brin & Page, 1998) es la siguiente:
𝑷𝑹 𝑨 = 𝟏− 𝒅 + (𝑷𝑹 𝑻𝟏𝑪 𝑻𝟏 +
𝑷𝑹 𝑻𝟐𝑪 𝑻𝟐 …+ 𝑷𝑹(
𝑻𝒏𝑪 𝑻𝒏 ))
Donde:
- T1, … , Tn representan documentos web con citaciones hacia una página dada A.
- C(X) es una función que devuelve como resultado el número de citaciones que existen
hacia otros documentos webs desde una página X.
- d es el factor de amortiguamiento, que determina la probabilidad de que el usuario
termine saliendo de la web A realizando una búsqueda de forma aleatoria.
La mejor descripción que hemos encontrado para definir el significado de la fórmula anterior
proviene del autor de la misma, Lawrence Page en la patente (Page, 1997):
“The rank of a document is a function of the ranks of the documents which cite it.”
En base a lo explicado anteriormente, para maximizar el valor de PageRank de un documento
web disponemos de las siguientes opciones: conseguir miles de enlaces de baja calidad o
conseguir enlaces de alta calidad. (Craven, 2005) recomiendan la segunda opción, dado que la
consecución de enlaces de alta calidad también se tiene en cuenta en el cálculo de otras
métricas, contribuyendo así no solo a incrementar el PageRank sino también otras métricas
que influyen en el posicionamiento web.
77
Confiabilidad web
Se definen como web spam a aquellas páginas creadas con el objetivo de engañar a los
motores de búsqueda como forma de adquirir un mejor posicionamiento. El algoritmo de
TrustRank (Gyöngyi;Garcia-Molina;& Pedersen, 2004) nace con el objetivo de reducir el
número de páginas spam que los motores de búsqueda ofrecen en la lista de resultados.
La idea principal del funcionamiento de este algoritmo es que las páginas reputables y de
confianza, raramente apuntan hacia documentos webs considerados como spam
(Gyöngyi;Garcia-Molina;& Pedersen, 2004).
Para la determinación de la reputación de un sitio web, la métrica TrustRank
(Gyöngyi;Garcia-Molina;& Pedersen, 2004) tiene en cuenta la distancia a la que los
documentos se encuentran de páginas reputables, así como el número de enlaces salientes de
un sitio web.
Según se documenta en (Gyöngyi;Garcia-Molina;& Pedersen, 2004), a medida que un
documento web se encuentra más lejos de sitios webs considerados de confianza, la
probabilidad de que estos sean reputables disminuye. Así, páginas reputables con un número
reducido de citaciones son menos propensas a enlazar páginas spam.
El algoritmo TrustRank necesita de supervisión (Gyöngyi;Garcia-Molina;& Pedersen, 2004)
para la selección de los documentos web reputables desde los que iniciar los cálculos. Un
experto que colabore inicialmente con el algoritmo, proporcionando un conjunto de sitios web
conocidos y de confianza. A este conjunto inicial se le conoce como ‘seeds’.
Desde el punto de vista del posicionamiento web, conseguir enlaces desde páginas reputables
o cercanas a estas contribuirán en mejorar el posicionamiento web. Para posicionar
documentos web usando esta métrica, debemos de saber qué sitios web optan a ser
seleccionados como ‘seeds’. Si somos capaces de determinar cuales son los ‘seeds’, tenemos
un punto de partida desde donde comenzar las estrategias de adquisición de enlaces.
78
El documento (Gyöngyi;Garcia-Molina;& Pedersen, 2004) expone dos tipos estrategias para
la selección de seeds:
• PageRank inverso
Esta estrategia consistiría en seleccionar como ‘seeds’ aquellos sitios web que sean de
confianza (determinados por un supervisor), los cuales dispongan de multitud de
enlaces a otros documentos webs. Son sitios web que actúan como web conectoras. Se
habla de PageRank inversa porque los cálculos se realizan contabilizando el número
de enlaces salientes, a diferencia de la fórmula original de PageRank contabiliza los
enlaces entrantes (Brin & Page, 1998).
• PageRank elevado
Basa la selección de ‘seeds’ atendiendo al orden que ocupan los documentos webs
ante una búsqueda introducida en los motores de búsqueda. Esta estrategia se basa en
la idea de que documentos que ocupan altas posiciones en las listas de resultados de
los motores de búsqueda, tienen una mayor probabilidad de citar documentos
relevantes.
Basándonos en estos dos criterios, la adquisición de enlaces de páginas con un alto PageRank,
o que actúen como conectoras y sean reputables, ayudarán a incrementar la visibilidad de
nuestra web (tanto por el PageRank como por el TrustRank que traspasan).
Expertos en optimización en buscadores tales como Sean Odom (Odom, 2010), Danny Dover
y Erik Dafforn (Dover & Dafforn, 2011), recomiendan conseguir enlaces de sitios que
emplean la extensión .gov o .edu, dado que poseen una alta reputación y son fuente de
información fiable (Cutts, 2011).
Otro método para la obtención de enlaces desde páginas reputadas y que actúan como
conectoras es mediante la inclusión de nuestro sitio web en directorios. No todos los
directorios son reputables o de confianza, por lo que deberemos de evaluar cómo de
reputables son antes de incluir nuestro sitio web en estos. Algunos de los directorios más
populares son DMOZ, Yahoo directorio, Best of the web, Joe Ant, o whatuseek.
79
Especificidad web
La métrica conocida como PageRank supuso un importante avance en la clasificación de
documentos web. A pesar de mejorar la ordenación de documentos web, esta ordenación
atiende a criterios globales. La influencia de la métrica PageRank en el algoritmo de
posicionamiento era tan fuerte, que documentos especializados quedaban enterrados en la lista
de resultados de los motores de búsqueda (Bharat & Mihaila, 2003).
Desarrollado por Krishna Bharat y George Andrei Mihaila en 2003, el algoritmo Hilltop fue
empleado como algoritmo para identificar documentos web especializadas por temática. Este
algoritmo en conjunción con el algoritmo de PageRank disminuye el problema del
posicionamiento de documentos relevantes y específicos.
La base del conocimiento de este algoritmo opera sobre lo que se denominan como
‘documentos expertos’. Como documentos expertos se entiende a aquellos sitios web expertos
en una temática específica. Como ejemplo de documentos expertos, el recurso (Bharat &
Mihaila, 2003) identifica los directorios webs.
Los directorios web tienen como finalidad clasificar y ofrecer información especializada por
categorías. Cada uno de sus directorios está especializado en un temática, ofreciendo enlaces
hacia sitios considerados como expertos en la materia.
El algoritmo Hilltop hace uso de estos documentos expertos y de los documentos hacia los
que enlazan. Para que un documento web sea tenido en cuenta por este algoritmo, deberá de
ser referenciado por al menos dos documentos expertos (Bharat & Mihaila, 2003).
Google usó durante años del directorio DMOZ y fue en 2011 cuando Matt Cutts (jefe del
equipo de web spam en Google) dio a conocer que Google dejaba de usar el directorio
DMOZ. Desde entonces, el directorio es principalmente empleado debido al PageRank que
dispone (Cutts, 2011).
Si bien los directorios pueden haber dejado de realizar la función que prestaban anteriormente
a los motores de búsqueda, estos siguen siendo documentos expertos con un alto PageRank.
La consecución de enlaces desde documentos expertos, sean directorios o sitios web expertos
80
en una temática y reputable, nos ayudarán en el posicionamiento web y la adquisición de
relevancia en la materia.
Reputación web
Los motores de búsqueda estudian el grafo web para la determinación de métricas. Como
vimos en secciones anteriores, el PageRank es una métrica que mide la popularidad de un
recurso web, sin tener en cuenta la especialización de la fuente. Con el algoritmo de Hilltop,
existe la posibilidad de clasificar los documentos por categoría.
Para determinar la calidad o experiencia del contenido, Google desarrolla el algoritmo
conocido como Agent Rank, obteniendo su patente en 2007 (Minogue & Tucker, 2007). Este
algoritmo mide la reputación de los agentes, determinando como agentes a todas las entidades
capaces de crear, editar o revisar contenido.
Bajo la patente (Minogue & Tucker, 2007), el algoritmo Agent Rank es capaz de identificar y
evaluar de la reputación del contenido publicado por estos agentes. Esta reputación es
clasificada temáticamente y calificada numéricamente. Para identificar unívocamente qué
contenido pertenece a qué agente, éste debe firmarlo digitalmente. Esta firma certifica que el
agente es autor del documento (Minogue & Tucker, 2007).
Dado que la reputación online de los agentes influye en el posicionamiento de los
documentos, la firma de contenido de baja calidad con el objetivo de manipular los resultados
de búsqueda, penaliza a los agentes firmantes bajo la pérdida de reputación online.
Aquellos documentos que estén firmados digitalmente por agentes con una alta reputación,
adquieren métricas que ayudan en el posicionamiento en la lista de resultados (Minogue &
Tucker, 2007). Las implementaciones propuestas para calcular el Agent Rank son
derivaciones de otras ya estudiadas, como la fórmula del PageRank descrita en (Brin & Page,
1998) adaptada a agentes.
Microsoft presenta en la patente con número 20110246484
(Dumais;Weitz;Gounares;Gemmell;& Yiu, 2010) formas diferentes de analizar la reputación,
conocimiento y maestría mediante el análisis de las “fuentes de información”. Estas fuentes
81
de información pueden incluir individuos, organizaciones, instituciones, grupos,
compañías,…
Documentado en la patente (Dumais;Weitz;Gounares;Gemmell;& Yiu, 2010), la relevancia
de estas fuentes podría ser empleada por los motores de búsqueda para complementar sus
operaciones, otorgando un mayor peso a aquellos resultados cuyas fuentes de información
sean expertas en la materia.
“The determined authority of sources 110 may be used by the search engines to supplement
searching operations and/or to weight search results based upon the authority of the
resources 110 of content 106 identified during the search.”
En la misma patente se manifiesta la incorporación de estadísticas sociales como métricas
para medir la relevancia de las fuentes. De entre las métricas sociales mencionadas se
enumeran:
• Redes sociales como Facebook (número de publicaciones, comentarios, el número de
hiperenlaces proporcionados…)
• Redes sociales en tiempo real como Twitter (número de publicaciones, retweets,
número de seguidores, …)
• Servidores web (estadísticas sobre cómo el usuario interacciona con el contenido)
Si bien las patentes otorgadas a Google y Microsoft no significan que estas métricas estén
siendo usadas en los algoritmos de búsqueda, sí que encontramos implementaciones y
servicios desarrollados por Google que incitan a la reflexión sobre la aplicación de las
patentes mencionadas anteriormente para el posicionamiento web.
En el siguiente apartado expondremos cómo Google está realizando esfuerzos por identificar
a estos agentes, y como éstos pueden firmar el contenido que publican.
Identificación de los agentes
En este sentido, Google está realizando un gran esfuerzo por identificar físicamente a las
personas que crean un perfil en la red social Google+. Prueba de ello lo encontramos en la
82
página de ayuda de Google, donde se manifiesta la importancia de identificar a personas en la
red social de Google+:
“If we challenge the name you intend to use, you will be asked to submit proof that this is an
established identity with a meaningful following. You can do so by providing links to other
social networking sites, news articles, or official documents in which you are referred to by
this name.”
”Personal profiles on Google+ are meant to represent you, not someone or something else
with which you are associated. Therefore, your name may not represent a family, business,
avatar, gaming handle, or other group of people.”
”Name Changes are limited to 3 changes every 2 years.”
A través de este perfil, Google permite a los escritores firmar el contenido digital. Esto
establece una relación bidireccional entre el autor y el documento web. Esta firma de
contenido digital permite a Google ofrecer información sobre el autor en la lista de resultados
(Google Webmaster Tools, 2013).
Para la implementación de este marcado es necesario la disposición de una cuenta personal en
Google+. Esta cuenta identifica unívocamente a una entidad y es ésta y solo ésta la que puede
realizar cambios sobre el espacio de Google+.
Existen diferentes formas de relacionar al autor de un artículo con el artículo. Según se
manifiesta en (Google Webmaster Tools, 2013), pueden usarse los siguientes métodos para
firmar contenido digitalmente (Google Webmaster Tools, 2014):
• A través de e-mail (Google Webmaster Tools, 2013):
1. Disponer de una cuenta de correo electrónico en el dominio donde se realiza la
publicación. Por ejemplo, si publicamos artículos en el dominio
www.midominio.com, el e-mail asociado al dominio será de la forma nombre-de-
83
2. Cada artículo publicado deberá de terminar con una línea que identifique
fácilmente a su autor (por ejemplo, Autor: Alberto Fernández Reyes).
3. Es indispensable disponer de una cuenta en la red social de Google+ cuyos datos
se correspondan con el autor que se identifica en los artículos.
4. A través del siguiente link https://plus.google.com/authorship el usuario da a
conocer su e-mail. Google asociará los artículos publicados en
www.midominio.com con el autor especificado en el paso 2.
• A través de hiperenlaces (Google Webmaster Tools, 2014):
1. Este método está basado en una reciprocidad de enlaces entre el artículo y la
página del autor de Google+. Para cada artículo deberá existir un enlace de la
forma:
<a href=”[profile_url]?rel=author”>Alberto Fernández</a>
donde [profile_url] es la URL en Google+ que identifica al autor.
2. Desde Google+, añadir en la sección personal “Contributor to Section” un link que
apunte hacia el dominio donde se alberga el artículo.
El resultado puede verificarse empleando la herramienta web richsnippetcode que Google
pone a nuestra disposición:
84
Figura 17: Ejemplo de autoría de artículos de John Resig
Desde el canal GoogleWebmasterHelp (Cutts, 2013), Matt Cutts confirma que Google emplea
la información obtenida mediante la autoría de artículos en el posicionamiento web.
Esto pone de manifiesto la importancia de crear una reputación online. Basado en los
conceptos anteriores, la creación de artículos con contenido de calidad, la creación de una
reputación online o la publicación de artículos por parte de autores invitados puede ser
empleado como método para adquirir / mejorar el posicionamiento web.
2.5.3. Link juice y Arquitectura web
Se conoce como ‘link juice’ a la cantidad de PageRank que fluye desde unos documentos
webs hacia otros en el grafo web. El link juice representa el número de votos que un
documento web emite al referenciar a otro documento. También puede interpretarse como la
cantidad de PageRank que los documentos emiten cuando referencian otros documentos
(Cuuts, 2009).
La siguiente imagen (Figura 18) extraída de uno del documento original PageRank (Brin &
Page, 1998) muestra un ejemplo de cómo fluye este entre los documentos web:
85
Figura 18: Flujo de PageRank entre webs (Brin & Page, 1998)
Con cada nueva referencia o citación se producen fluctuaciones de PageRank desde unos
recursos web hacia otros. Cuanto mayor sea el número de enlaces salientes existentes en el
documento, menor será el PageRank que se transfiere a los documentos web a las que enlaza.
Mediante la adquisición de enlaces entrantes y una arquitectura web jerárquica podemos
conseguir centrar el PageRank en aquellos documentos que queremos posicionar mejor.
Como vimos anteriormente, la fórmula del PageRank es una función que depende del número
de enlaces disponibles en el sitio web. Cuanto mayor sea el número de enlaces en el sitio web,
menor será el link juice que se traspasa a los documentos.
A continuación explicaremos cómo la arquitectura de un sitio web determina la cantidad de
link juice que se traspasa a los documentos web. Emplearemos la fórmula del PageRank
original ofrecida en (Brin & Page, 1998) para el cálculo de este y el uso de la herramienta
web proporcionada por Phil Craven (Craven, 2005). Esta herramienta nos permitirá observar
la evolución del PageRank, iteración tras iteración, para las arquitecturas presentadas.
Para conocer cómo de efectiva es una arquitectura web con respecto al PageRank que
traspasa a otros documentos, Phil Craven describe en (Craven, 2005) los conceptos de
PageRank Total y PageRank Perdido:
• Se denomina PageRank total al PageRank máximo acumulado que podría alcanzar un
sitio web sin recibir enlaces entrantes. Este es equivalente al número de documentos
86
del sitio web (Craven, 2005). El PageRank total máximo de un sitio web viene
determinado por el número de documentos webs que dispone.
• Se define PageRank perdido como el PageRank que desperdiciamos debido a una
mala organización estructural del sitio web.
En la siguiente imagen (Figura 19) presentamos un ejemplo de cómo una estructura web
piramidal ayuda con el paso de PageRank, permitiendo que el sitio web alcance el máximo
PageRank posible para un sitio web cerrado sin enlaces entrantes:
Figura 19: Estructura web jerárquica
La tabla siguiente (Tabla 4) muestra la evolución del PageRank para cada uno de los
documentos web iteración tras iteración La aplicación para el cálculo de éstos ha sido
realizada a través de la herramienta documentada en (Craven, 2005).
Los valores de PageRank dejan de fluctuar tras la realización de cuarenta iteraciones:
Iteraciones 1 2 3 4 .. 39 40
Page A 1 2.7 2.48 2.32 ... 1.91 1.92
Page B 1 0.915 0.8535 0.809 ... 0.69 0.69
87
Page C 1 0.915 0. 8535 0.809 ... 0.69 0.69
Page D 1 0.915 0. 8535 0.809 ... 0.69 0.69
PR Total 4 5.445 5.0405 4.747 ... 3.98 3.99
PR
perdido
0 0 0 0 ... 0 0
Tabla 4: Evolución del PageRank sobre web estructura jerárquicamente
Tal y como podemos observar en la tabla (Tabla 4), el PageRank total sufre variaciones
durante las iteraciones hasta que el PageRank de cada página termina por estabilizarse. El
PageRank total teórico debería de ser equivalente al número de documentos que tiene el sitio
web. La pérdida de 0.01 que podemos observar tras cuarenta iteraciones, en la casilla PR
Total ha sido documentada por Phil Craven como el resultado del redondeo que emplea la
aplicación (Craven, 2005). No se produce pérdida de link juice entre los documentos webs
debido a la arquitectura jerárquica del sitio web.
En la siguiente ilustración (Figura 20) podemos observar una nueva estructura web donde se
introduce la variante de un enlace descolgando, es decir, un enlace hacia un documento el
cual no dispone de enlaces salientes.
Figura 20: Estructura web con link descolgado
88
A continuación veremos cómo los enlaces descolgados, al no ser tenidos en cuenta en el
cálculo del PageRank (Brin & Page, 1998), no traspasan link juice a ningún documento. El
resultado es que el sitio web ve reducido su PageRank total con respecto a la arquitectura
piramidal mostrada anteriormente.
Iteraciones 1 2 3 4 .. 25 26
Page A 1 1.85 1.741 1.663 ... 1.459 1.459
Page B 1 0.15 0.15 0.15 ... 0.15 0.15
Page C 1 0.9362 0. 89 0. 8569 ... 0.7703 0.7703
Page D 1 0.9362 0. 89 0. 8569 ... 0. 7703 0. 7703
PR Total 4 3.8724 3.671 3.5268 ... 3.1496 3.1496
PR
perdido
0 0.1276 0.329 0.4732 ... 0.8504 0. 8504
Tabla 5: Evolución de PageRank sobre estructura web con link descolgado
Observando la tabla anterior (Tabla 5) para la estructura web con enlace descolgado, se
produce una pérdida de PageRank cuantificada en 0.8504. El motivo por el cual no se
consigue el máximo PageRank total al que se aspira es que existe un documento web excluido
de los cálculos, el cual no aporta mayor PageRank que el inicial.
Si recapitulamos lo visto en este apartado, la arquitectura que un sitio web dispone influye en
la forma en la que fluye el link juice. Este link juice determina el PageRank que un
documento web adquiere. Según se documenta en (Rogers, 2006), la disposición de un sitio
web con estructura piramidal es la mejor opción. Para consultar cómo diferentes arquitecturas
web influyen en el paso de PageRank puede consultarse el recursos web The Google
PageRank algorithm and how it Works (Rogers, 2006).
2.5.4. Link building
89
Se conoce como link building al conjunto de prácticas SEO cuya finalidad es la obtención de
enlaces externos hacia un sitio web. La adquisición de enlaces externos mejora la visibilidad
del sitio web (incrementando las posibilidades de acceder a nuestro sitio web desde otros
sitios web), así como métricas tenidas en cuenta por los motores de búsqueda, tales como
PageRank o TrustRank.
El principal problema a la hora de establecer estrategias de link building, es que éstas
requieren de una inversión importante de capital. Moz.com realizó una encuesta en 2014
(Agate, 2014) a 315 personas relacionadas en el ámbito del posicionamiento web. La
encuesta recopila información sobre las prácticas de link building. En la Figura 21
presentamos los datos más significativos presentes en la encuesta (Agate, 2014):
Figura 21: Gastos dedicados a link building
En base a los resultados obtenidos en el estudio (Agate, 2014), el 20% declaró invertir
mensualmente un presupuesto de 0$ a 1,000$ en prácticas de link building. Por contra, el
restante 80% declaró invertir entre 1,000$ y 50,000$ mensuales para la consecución de
enlaces (Agate, 2014).
Siguiendo con la gráfica anterior (Figura 21), el 46% de los entrevistados declaró dedicar más
del 50% del presupuesto dedicado a SEO a la aplicación de técnicas de link building (Agate,
20%
20%
23%
37%
Gastos mensuales dedicados a link
building 0$ -‐ 1000$ 1000$ -‐ 5000$
5000$ 10000$ 10000$ -‐ 50000$
27%
27%
39%
7%
Porcentaje dedicado a link building del
presupuesto total SEO 0 -‐ 25% 26% -‐ 50%
51% -‐ 75% 75% -‐ 100%
90
2014). Preguntados sobre si incrementarían el presupuesto dedicado a link building durante
los próximos meses, el 73% de los entrevistados respondió de forma afirmativa. En base a
estos resultados, la adquisición de enlaces es un proceso costoso que requiere de una
inversión de capital constante.
Técnicas de link building
En esta sección expondremos un conjunto de técnicas que nos ayudarán en la adquisición de
enlaces. Mediante la adquisición de nuevos enlaces conseguiremos mejorar el
posicionamiento web de nuestro dominio.
Creación de contenido y outreach
Consiste en la práctica destinada a la creación y distribución de contenido informativo. Se
denomina outreach link building a la práctica manual de informar a sitios web del contenido
publicado. Cuando se hace uso de ella, se explica al usuario cómo puede beneficiarse cuando
establece un enlace hacia nuestro sitio web.
Dado que esta técnica de link building es tediosa y requiere una importante inversión de
tiempo, debemos de seleccionar los sitios webs a los que enviar nuestra proposición en base a
nuestras posibilidades de adquirir enlaces.
Creación de Infografías
Se conoce como infografía, a la presentación de información (generalmente compleja)
expresada de forma sencilla mediante una representación visual o gráfica. A continuación
presentamos un ejemplo de infografía extraído del blog de HubSpot (Bodnar, 2010):
91
Figura 22: Infografía extraída de HubSpot
El objetivo de las infografías es hacer el contenido conciso y atractivo. En la encuesta
destinada a evaluar la efectividad de las técnicas destinadas a link building (Agate, 2014), la
creación de infografías es recogida como la segunda técnica más importante en la adquisición
de enlaces.
Broken link building
Esta práctica consiste en establecer contacto con webmasters de sitios web que disponen de
enlaces salientes rotos. Se establece contacto con el webmaster del sitio web y se le informa
sobre el enlace roto, a la vez que se ofrecen alternativas para añadir otros enlaces o sustituir el
enlace roto.
De la misma forma que se realiza con la práctica de e-mail outreach, esta práctica requiere del
estudio del sitio web, la detección de enlaces rotos, la evaluación sobre la relevancia del
enlace, la adquisición del e-mail del webmaster y el envio de la proposición para sustituir el
enlace roto.
92
Esta práctica requiere un importante esfuerzo y dedicación. A pesar de ello, las posibilidades
de éxito son mayores en comparación con la práctica de e-mail outreach, dado que ofrece
valor directo al sitio web al que contactamos.
Directorios
Los directorios son sitios web que se caracterizan por categorizar Internet. Un directorio es un
sitio web que está separado en categorías y subcategorías. Cuando un usuario accede a un
directorio y selecciona una categoría, encuentra multitud de recursos web relacionados con la
categoría seleccionada, así como subcategorías más específicas que pueden consultarse.
La adquisición de enlaces desde directorios con reputación pueden ayudar a consolidar la
posición de un sitio web en la lista de resultados. Directorios que revisan manualmente cada
petición gozan del gusto de los motores de búsqueda. Hasta el 2011, Google usó DMOZ para
conocer sitios web expertos y reputables por temáticas. Si bien la importancia de estar
incluido en directorios se ha visto reducida con los años, adquirir enlaces desde estos es
todavía útil, dado el PageRank y la autoridad que transmiten.
Páginas de recursos
Se denomina página de recursos a la página que contiene un conjunto de artículos
relacionados con un tema específico. Se caracterizan por ofrecer una recopilación de los
mejores artículos encontrados para una temática específica.
En la entrevista realizada por Moz.com (Agate, 2014), esta práctica de link building se sitúa
como la quinta más eficaz, después de la creación de contenido y outreach email, promoción
de infografías, broken link building e inclusión en directorios de negocios.
2.5.5. Conclusiones
Las técnicas de link building nos ayudan a la generación de enlaces. Estas técnicas consiguen
incrementar el PageRank de nuestro sitio web, lo que repercute positivamente en el
posicionamiento de nuestro sitio online.
93
El principal problema a la hora de intentar incrementar el número de enlaces que disponemos,
es que las técnicas de link building son técnicas difíciles de escalar, lo que las hace costosas
en recursos, tiempo y capital. La mayoría de ellas requieren de esfuerzos para: adquisición de
la información de contacto; recopilación de información; establecimiento de relaciones con
personalidades del sector.
Técnicas como la creación de contenido atractivo mediante infografías, la inclusión en sitios
web en directorios, la generación de recursos web o la distribución de contenido de forma
manual son solo algunas de las técnicas destinadas a la generación de enlaces, las cuales nos
permitirán en última instancia mejorar nuestro posicionamiento web.
2.6. Blackhat SEO
En el área de optimización para buscadores, se denomina Blackhat SEO al conjunto de
técnicas de optimización empleadas para manipular los motores de búsqueda. Mediante la
manipulación de los motores de búsqueda se puede conseguir mejorar el posición de los
documentos web en la lista de resultados (Cutts, 2012).
En esta sección expondremos técnicas de Blackhat SEO empleadas para manipular el
posicionamiento web. Su uso se penaliza cono la pérdida de posicionamiento web o borrado
del contenido web del índice de los motores de búsqueda.
Google pone a disposición de los usuarios el recurso
https://www.google.com/webmasters/tools/spamreport a emplear en caso de que los usuarios
detecten webs que incumplan: políticas establecidas por Google; políticas de copyright;
páginas dedicadas a la extracción de información sensible; páginas dedicadas a la
compra/venta de enlaces.
2.6.1. Conectando con el grafo web
Toda adquisición de enlaces cuyo cometido sea la manipulación del PageRank o la influencia
en el procesamiento realizado por los algoritmos que estudian el grafo web, podrá ser
considerado como una violación de las normas que rigen el adecuado uso del motor de
94
búsqueda de Google. Esto puede conllevar penalizaciones en el posicionamiento web así
como la exclusión del sitio web de los motores de búsqueda (Cutts, 2012).
En las siguientes secciones expondremos algunas de las prácticas o técnicas que violan las
normas establecidas por Google. Estas técnicas son empleadas para manipular los resultados
de búsqueda mediante la obtención de enlaces.
Compra/venta de hiperenlaces
La compra o venta de enlaces, si es tratada siguiendo las líneas establecidas por los
principales motores de búsqueda, no supone una penalización. La compra de espacios webs
con fines o propósitos de marketing (captación de usuarios en dominios que manejan un gran
volumen de visitas) es una herramienta empleada en el marketing online.
La penalización tienen lugar cuando se quiere mejorar el posicionamiento a través de la
compra de enlaces de webs con una alta reputación, un alto índice de PageRank, relevantes
en una temática específica,...
Para evitar penalizaciones, Google manifiesta la importancia de evitar el paso de PageRank
en aquellos enlaces que hayan sido comprados/vendidos (Cutts, 2013). Para evitar que los
enlaces pasen PageRank podemos:
- Marcar los hiperenlaces comprados con la etiqueta rel=nofollow.
- Direccionar los enlaces hacia una página intermedia bloqueada por el archivo
robots.txt.
Estas técnicas evitan el paso de link juice hacia las webs a las que enlazan. Los motores de
búsqueda no tendrán en cuenta la relación entre las webs. El propósito de la compra o venta
de espacios con fines publicitarios debe ser acorde a tal fin, es decir, a la adquisición de
tráfico y no como medio para mejorar el posicionamiento web.
Spamming link building
95
Se conoce como spamming link building a la creación y distribución de enlaces de forma
masiva, sin la realización de méritos propios para la adquisición de estos (Davison, 2000). El
principal motivo para la creación masiva de enlaces es influir en los algoritmos que analizan
las relaciones entre las webs mediante enlaces web (PageRank, TrustRank, ....).
Así, webmasters optan por la creación masiva de enlaces a través de entradas de texto
habilitadas en otras web, tales como a través de la inserción de comentarios en blogs, foros,
grupos de ayuda, etc.
Otras formas consideradas como spamming links building son la creación de artículos y su
promoción o distribución en multitud de blogs o sitios web de baja calidad. La consecución
de estos enlaces es considerada por Google como no naturales. Es decir, son considerados
como una práctica destinada a influenciar en el posicionamiento web (Cutts, 2014).
Para evitar ser penalizados, Matt Cutts recomienda evitar distribuir artículos en sitios web de
baja reputación, así como evitar la obtención de link juice cuando se distribuye el artículo a
otras webs (Cutts, 2014).
Si lo que pretendemos es iniciar una campaña de creación de enlaces, deberemos crear
contenido interesante para el usuario, de forma que la construcción de enlaces sea natural.
En caso de optar por crear enlaces en foros, comentarios en artículos o blogs, artículos para
publicar en web externas, deberemos de extremar las precauciones para no infringir las
normativas de construcción de enlaces de Google (Google Webmaster Tools, 2013)
Intercambio de Enlaces Recíprocos
Se conoce como granjas de enlaces, a aquel conjunto de webs que intercambian menciones
recíprocamente con el objetivo de afectar el posicionamiento web (Google Webmaster Tools,
2013). Tal y como se menciona en la guía de Google, un excesivo intercambio de enlaces con
otros sitios web podrá impactar negativamente en el posicionamiento web (Google
Webmaster Tools, 2013).
96
2.6.2. Construyendo documentos web
Toda práctica dedicada a la construcción de contenido spam viola los términos que Google
especifica en el documento (Google Webmaster Tools, 2013). La violación de estos términos
influye negativamente en el posicionamiento web.
A continuación se enuncian las principales prácticas de spam llevadas a cabo por usuarios,
con el objetivo de conseguir un alto posicionamiento en un tiempo reducido.
Spamming keywords
Consiste en cargar el contenido de un sitio web con palabras clave o números, con la
intención de mejorar el posicionamiento web para un conjunto de palabras clave (Google
Webmaster Tools, 2013).
Un ejemplo de ello es el posicionamiento de palabras clave como ciudades en el sitio web.
Este tipo de palabras clave es interpretado por los motores de búsqueda como contenido de
interés para búsquedas locales. Si el contenido no guarda relación con la localidad
mencionada, generan una mala experiencia de usuario cuando Google ofrece estos resultados
en búsquedas locales. Este tipo de prácticas para atraer usuarios es penalizado por Google
(Google Webmaster Tools, 2013).
Spamming Ads
Consiste en sobreimpresionar anuncios en una página dificultando la visualización del
contenido de la misma (Cutts, 2012). Obliga al usuario al empleo de la barra lateral para
poder observar el contenido, dificultando con los anuncios la localización de éste.
A comienzos de Enero de 2012, Google anunció el lanzamiento del algoritmo conocido como
Page Layout (Cutts, 2012). Este algoritmo detecta aquellas webs que no ofrecen contenido
visible de forma directa y realiza penalizaciones sobre estos. Menos del 1% de las búsquedas
globales se vieron afectadas tras el lanzamiento de este algoritmo según fuentes de Google
(Cutts, 2012).
97
Cloaking
Se refiere a la práctica de presentar diferente contenido o direcciones web a los crawlers y a
los visitantes (Cutts, 2011). Este tipo de prácticas tienen como finalidad indexar contenido en
los motores de búsqueda diferente del que se presenta al usuario. Por contenido se entiende
todo aquello existente en la web y que es perceptible por el usuario. Son consideradas como
prácticas de cloaking:
- situar contenido de color blanco sobre un fondo blanco
- posicionar texto detrás de las imágenes
- uso de CSS para posicionar texto fuera de la pantalla del usuario
- crear contenido a indexar definiendo el tamaño de la letra a cero
Todas estas técnicas ofrecen diferentes versiones a usuarios y motores de búsqueda.
Webmaster o desarrolladores web pueden ser penalizados por prácticas de cloaking si no son
conscientes de las tecnologías que emplean, y de cómo éstas son procesadas por los motores
de búsqueda.
Tal y como comentábamos en la sección dedicada a la indexación de contenidos Ajax, Ajax es
una tecnología no es procesado correctamente por los robots o indexadores. Para evitar
penalizaciones por mostrar contenido diferente a robots y usuarios, será necesario
implementar algunos de los esquemas propuestos por Google (Google Webmasters, 2012) y
que ya tratamos en secciones anteriores.
2.6.3. Captación de usuarios
Aquellas prácticas cuya finalidad es la de captar usuarios sin ofrecer contenido de calidad, es
susceptible de ser penalizado. Google manifiesta continuamente en sus directrices generales
(Google Webmaster Tools, 2013) la importancia de ofrecer un verdadero valor al visitante.
Honey pots creados para direccionar al usuario hacia documentos web específicos están
totalmente desaconsejados bajo penalizaciones (Google Webmaster Tools, 2014).
Programas de Afiliaciones
Los programas de afiliados son una de las prácticas más empleadas en el marketing online. En
estas prácticas, un proveedor de servicios o productos ofrece un porcentaje sobre aquellas
98
ganancias que son iniciadas por acciones promovidas por los afiliados (IAB, 2010). Es decir,
el afiliado recibe un porcentaje sobre la compra que haya liderado desde su documento web.
Este tipo de prácticas son motivo de penalización si no se trabaja bien en el contenido.
Motores de búsqueda como Google consideran que la gran mayoría de los sitios web de
afiliación no ofrecen ningún valor a la visita, limitándose a repetir el mismo contenido que el
sitio original donde se realiza la compra (Google Webmaster Tools, 2014). Así, sin la
disposición de contenido exclusivo, motores como Google informan sobre las pocas
probabilidades de que las páginas de afiliados puedan conseguir un buen posicionamiento
(Google Webmaster Tools, 2014).
Doorways
Práctica consistente en la optimización de páginas de baja calidad para palabras clave
específicas, con el objetivo de captar usuarios y guiar éstos hacia un documento web en
concreto (Google Webmaster Tools, 2014). Este tipo de prácticas se pueden encontrar bajo el
uso de uno o varios dominios webs.
Ejemplos de este tipo de prácticas son:
- Creación de páginas optimizadas para captar usuarios por localización geográfica,
conduciendo la visita hacia una página general.
- Creación de páginas de similar contenido optimizadas para búsquedas por ciudades.
- Creación de páginas para captar usuarios y direccionarlos hacia páginas de afiliados.
Al igual que las técnicas mencionadas en esta sección, este tipo de práctica viola las normas
establecidas por Google así como otros motores de búsqueda. El uso de estas técnicas
conlleva penalizaciones (Google Webmaster Tools, 2014).
2.6.4. Secuestrando documentos web
99
En esta sección exponemos técnicas documentadas por expertos que han permitido suplantar
documentos web originales por documentos no oficiales. Las principales técnicas
documentadas corresponden a ataques sobre el funcionamiento de los motores de búsqueda.
Redireccionamiento 302
Es una práctica que aprovecha la forma en la que los motores de búsqueda interpretan los
redireccionamientos temporales de tipo 302. Este tipo de redireccionamiento es empleado
para indicar que una web ha sido movida temporalmente a otra dirección web.
Cuando los motores de búsqueda acuden a escanear una web y obtienen el código de
respuesta 302, interpretan este redireccionamiento como temporal. La dirección web que
responde con el código 302 es considera la página original, siendo la página donde se realiza
el redireccionamiento como un recurso temporal.
La siguiente figura (Figura 23) muestra el intercambio de mensajes que se produce entre
servidor y cliente (crawler en nuestro caso particular). El cliente requiere un recurso
index.html y es el servidor el que le facilita información sobre la localización temporal del
recurso:
100
Según vimos en la sección de redireccionamientos, los motores de búsqueda traspasan las
métricas adquiridas por la página temporal a la página que realiza el redireccionamiento 302.
Bajo este funcionamiento particular, existen webmasters que han aplicado esta técnica para
adquirir el PageRank de otras web (Schmidt, 2005).
En (Cutts, 2006) y (Cutts, 2012) Matt Cutts manifiesta que este tipo de prácticas están
controladas por Google. A pesar de sus afirmaciones, la combinación de redireccionamientos
302, la duplicación de contenido sobre el documento a secuestrar y la disposición de un alto
PageRank permitió al equipo de Dejan SEO suplantar la identidad de un documento web
original (Petrovic, 2012).
Duplicación de contenidos
Este método de suplantación de documentos web es causado por la eficiencia con la que los
motores de búsqueda detectan y actúan ante la duplicidad de contenido. Documentada en
Figura 23: Comunicación entre cliente y servidor con redireccionamiento 302
101
2005 por Claus Schmidt, fue parcialmente empleada por el equipo Dejan SEO (Petrovic,
2012) en 2012, como método para verificar la posibilidad de secuestrar documentos web.
Daniel Peng y Frank Dabek publican en 2010 el documento “Large-scale incremental
processing using distributed transactions and notifications” (Peng & Dabek, 2010).
En este documentan que los contenidos duplicados deben ser únicamente almacenados bajo
una única dirección web, evitando almacenar copias de contenido ya existente en el índice de
Google. Para ello, de entre un conjunto de documentos duplicados, se almacenará aquel que
disponga de mayor PageRank.
El PageRank es definido como métrica para determinar cuál de las direcciones web con
contenido duplicado debe de ser almacenada en el índice. Esto se expresa en el siguiente
párrafo extraído del documento original (Peng & Dabek, 2010):
“Consider the task of building an index of the web that can be used to answer search queries.
The indexing system starts by crawling every page on the web and processing them while
maintaining a set of invariants on the index. For example, if the same content is crawled
under multiple URLs, only the URL with the highest PageRank [28] appears in the index.
Each link is also inverted so that the anchor text from each outgoing link is attached to the
page the link points to. Link inversion must work across duplicates: links to a duplicate of a
page should be forwarded to the highest PageRank duplicate if necessary.”
Por tanto, para la suplantación de un documento web, es necesario la posesión de un mayor
PageRank en el documento duplicado que la que posee el documento original. El equipo
Dejan SEO ejecutó exitosamente esta técnica (Petrovic, 2012) como método para demostrar
que la suplantación de documentos web sigue siendo una amenaza temporal a la cual los
motores de búsqueda no han puesto fin. Temporal, debido a que Google notificó al equipo
Dejan SEO sobre la detección de contenido duplicado 17 días después de haberse secuestrado
el documento (Petrovic, 2012).
2.6.5. Inyectando código en documentos web
102
Es una práctica consistente en el estudio de las vulnerabilidades de una web para la posterior
inyección de código por parte una tercera entidad no autorizada. De entre las diversas formas
de explotar dominios web ajenos, se destacan las prácticas de inyección de código HTML
mediante ataques basados en XSS (cross-site scripting).
Ataques basados en XSS tienen como objetivo la introducción de código JavaScript en un
documento web, de forma que pueden hacerse con el control del propio documento (OWASP,
2014) permitiendo la modificación de contenidos, la creación de spam, etc.
Este tipo de ataque consigue sobrepasar controles de acceso tales como la política del mismo
origen, el cual evita que los scripts tengan acceso al árbol DOM del documento si el script no
pertenece al mismo dominio (Ruderman, 2014). Dado que el script es introducido en el propio
documento web, esta medida de restricción es esquivada por un ataque de tipo XSS.
Este tipo de ataque se produce generalmente por la falta de validación de los datos
introducidos en entradas de texto, formularios, parámetros HTTP, etc. (OWASP, 2014). En
2007, Symantec dio a conocer en su estudio (Turner, ym., 2007) que el 84% de las
vulnerabilidades documentadas pertenecían a ataques llevados a cabo a través de XSS.
Un ejemplo de este tipo de ataque puede verse en el proyecto Apertium, sistema de traducción
automática financiado por el gobierno español, que a pesar de ser un proyecto participante en
Google Summer of Code está sufriendo este tipo de ataques:
105
Capítulo 3:
Marketing Online
En el presente capítulo expondremos las diferentes fases a tener en cuenta a la hora de
mejorar la visibilidad y el tráfico de un proyecto web. El capítulo se encuentra
dividido en cuatro secciones:
- Planificación web
Sección en la cual presentamos cómo hacer uso de la herramienta Google
Keyword Planner para conocer el volumen de tráfico al que un documento
web opta cuando es optimizado. Se acompaña de benchmarks empleados en la
industria SEO como método para estimar el ratio de clics esperado en función
del posicionamiento web.
- Estrategias de publicidad online
En esta sección exponemos estrategias de publicidad online a emplear como
medio para adquirir visibilidad, incrementar el tráfico y potenciar las
conversiones web.
- Optimizaciones para la conversión
En esta sección exponemos técnicas que nos pueden ayudar a incrementar el
éxito de las campañas de promoción online. La sección está dividida en
subapartados, en función del canal de promoción a optimizar.
- Análisis de la evolución web
106
En este apartado introducimos los conceptos básicos sobre la analítica web
como herramienta para conocer la evolución de un proyecto web.
3.1. Planificación web
En esta sección presentaremos métodos para analizar el volumen de búsquedas al que
optamos en base a las palabras clave seleccionadas. Para conocer el volumen de
búsquedas mensuales introduciremos la herramienta Google Keyword Planner.
Presentaremos también estudios que muestran el porcentaje de clics que reciben de
media los documentos, en función de la posición web en la que se encuentran. Estos
estudios nos permitirán disponer de un modelo contra el que comparar nuestros
resultados.
Al finalizar la sección, seremos capaces de analizar, para cada palabra clave, el
volumen de búsquedas del que dispone, así como la competitividad de esta. También
dispondremos de un marco de referencia contra el que evaluar el porcentaje de clics
que adquiere nuestro sitio web.
3.1.1. Tipos de palabras clave
Los motores de búsqueda hacen uso de las palabras de búsqueda introducidas por los
usuarios para determinar los resultados a mostrar. Prácticamente cualquier búsqueda
que realicemos termina mostrándonos resultados cuyos títulos y descripciones
contienen estas palabras.
Conocer las palabras de búsqueda que introducen los usuarios es primordial para la
optimización de documentos. Buscaremos en la medida de lo posible, optimizar
nuestros documentos empleando como palabras clave aquellas que son introducidas
por los usuarios.
Los términos de búsqueda empleados por los usuarios puede ser muy amplio.
Mientras que unos realizan búsquedas específicas, otros realizan búsquedas más
107
populares. El sector de marketing en motores de búsqueda categoriza las palabras
clave como:
- Head terms
Se conoce con el término head terms a los términos de búsqueda que son
cortos y populares. Como veremos posteriormente, este tipo de términos
dispone de un ratio de clics superior a los long tail keywords (SEMPO, 2011).
- Long tail keywords
Se conoce como long tail keywords o tail terms a aquellos términos de
búsqueda caracterizados por ser muy específicos y largos. A pesar de que este
tipo de términos disponen de un menor volumen de búsquedas, al ser más
descriptivos, los usuarios conocen lo que buscan. Es decir, se encuentran más
cerca de la conversión.
Según el estudio realizado por Optify (Siddiqi, 2012), la optimización de contenidos
con head terms consigue atraer un mayor volumen de tráfico cuando nuestro
documento se encuentra entre los primeros puestos de Google.
Por el contrario, documentos que no se encuentran entre los primeros puestos de
Google consiguen un mejor CTR si el contenido está optimizado para long tail
keywords.
3.1.2. Volumen de búsquedas, competencia y rentabilidad
Antes de comenzar la optimización de documentos, es conveniente analizar las
palabras clave para las cuales queremos optimizar estos. Estas palabras clave
determinan, junto con el posicionamiento que adquirimos en los motores de búsqueda,
el volumen de búsquedas al que optamos. Para analizar el volumen de búsquedas
vamos a emplear la herramienta Google Keyword Planner.
La herramienta Google Keyword Planner es una herramienta perteneciente al
programa Google AdWords. Google AdWords es una plataforma de anuncios online,
108
la cual funciona mediante un modelo de pujas en tiempo real. Los anunciantes crean
sus anuncios y fijan el precio a pagar por cada clic que recibe el anuncio.
A pesar de que la herramienta Google Keyword Planner está dedicada a ayudar a los
anunciantes a hacer campañas en Google AdWords, podemos emplear la información
que esta herramienta nos proporciona para conocer qué términos disponen de un
mayor volumen de búsquedas o cuáles son mas rentables.
Figura 25: Interfaz gráfica de la herramienta Google Keyword Planner
Para conocer datos sobre palabras clave específicas, deberemos introducir estos en la
herramienta Google Keyword Planner. Esta herramienta nos proporciona información
como: términos de búsqueda relacionados con los que hemos introducidos (Search
terms); media de búsquedas mensuales para cada término (avg. monthly searches);
puja sugerida para adquirir tráfico por publicidad (suggested bid).
A continuación explicamos cómo interpretar estos datos desde el punto de vista de la
optimización de documentos web:
• Volumen de búsquedas
Conocer el volumen de búsquedas de una palabra clave nos proporciona
información sobre el tráfico que podemos capturar si conseguimos posicionar
el contenido adecuadamente.
109
La selección de palabras clave con un alto volumen de búsquedas suele estar
relacionado con palabras clave populares, llamadas head terms. Centrarnos en
estas palabras puede ayudarnos a ganar visibilidad web si disponemos de una
buena posición.
Términos o palabras clave con un bajo índice de búsquedas reciben el nombre
de long tail terms. Este tipo de términos capturan un tráfico más cualificado
para la venta (Siddiqi, 2012).
• Competencia en Google AdWords
La herramienta Google Keyword Planner está diseñada para ayudar a usuarios
a estimar el volumen de tráfico esperado, el coste de los anuncios y la
competitividad existente para las palabras seleccionadas.
Los anuncios de AdWords son anuncios patrocinados, es decir, el anunciante
paga por cada clic que el usuario realiza en el anuncio. Términos con una alta
competitividad entre anunciantes implica competitividad para imprimir
anuncios usando la plataforma Google AdWords.
Dado que nosotros no estamos haciendo uso de Google AdWords para
promocionar nuestro contenido, sino que estamos buscando las palabras clave
a emplear para posicionar nuestros documentos, daremos una interpretación
diferente al calificativo de alta competitividad.
En Google AdWords, los anuncios son posicionados en base a las palabras
clave seleccionadas. Los anunciantes pagan por cada clic que adquiere el
anuncio. Palabras clave con una alta competitividad pueden ser interpretadas
como palabras que consiguen llegar al correcto usuario, es decir, palabras
clave cuyo precio es rentable dado que consigue conversiones.
El término conversión tiene un amplio contexto que puede abarcar:
incremento de visibilidad, consecución de leads o consecución de ventas,
110
entre otros. Para cada palabra clave con alta competitividad, deberemos
evaluar si representan el tipo de usuarios que nos interesa.
• Precio del clic en Google AdWords
Información sobre el precio del clic es indicativo sobre la rentabilidad del
tráfico y del producto en venta. Los anuncios que disponen de un alto precio
por clic son aquellos para los cuales los márgenes de beneficio son superiores.
Antes de optimizar documentos web, será conveniente analizar las palabras clave
seleccionadas con herramientas como Google Keyword Planner. Esta herramienta nos
permitirá conocer el volumen de búsquedas existente para los términos seleccionados,
así como el grado de conversión de la palabra clave o la rentabilidad de estas.
3.1.3. Benchmark
Se conoce como benchmark a la técnica utilizada para medir o comparar los
resultados de un sistema frente a otro. En este apartado exponemos algunos de los
benchmarks más empleados en la industria SEO a la hora de comparar la posición del
documento con el volumen de clics que recibe.
Entre los estudios empleados como benchmark por expertos en posicionamiento
online destacan los realizados por las empresas Enquiro (Enquiro, 2007), Optify
(Siddiqi, 2012) y Chitika (Chitika, 2013). En la siguiente imagen (Figura 26) vemos
los resultados de estos tres estudios:
111
Figura 26: Benchmark ratio de clics por posición del documento
La gráfica anterior (Figura 26) muestra el porcentaje de clics adquirido por
documentos web (conocido como click-through-rate o CTR) en base a la posición en
la que se encuentran. Los documentos que se sitúan en la primera posición de Google
son los que adquieren el mayor porcentaje de clics, triplicando el porcentaje de clics
adquiridos por los documentos que se encuentran en la segunda posición y obteniendo
hasta cuatro veces más clics que los situados en la tercera posición.
Según los resultados obtenidos para los anteriores estudios, deberíamos esperar que
nuestros documentos tuvieran ratios de clics cercanos a los indicados en la siguiente
tabla (Tabla 6), en función de la posición en la que se encuentren:
Posición CTR benchmark
#1 32.5 – 36.4 %
#2 11.7 – 17.6 %
#3 8.7 – 11.4 %
#4 5.1 – 8.1 %
#5 4.0 – 6.1 %
#6 4.1 – 4.4 %
#7 3.5 – 4.1 %
#8 3.1 – 3.5 %
0
5
10
15
20
25
30
35
40
0 2 4 6 8 10 12
Enquiro '07
Optify '10
Chitika '13
112
#9 2.6 – 3.0 %
#10 2.2 – 3.6 %
Tabla 6: Posicionamiento y ratio de clics
El principal objetivo de tener un benchmark es disponer de un punto de comparación,
de forma que podamos evaluar el progreso de nuestros resultados y dispongamos de
un objetivo a alcanzar.
Durante el desarrollo de este proyecto final de carrera, hemos encontrado que
porcentajes de CTR muy por debajo del benchmark suelen ser debido a errores de
medición o de crawling. A continuación explicamos este tipo de errores:
- Precisión de la herramienta web
Google Webmaster Tools es una herramienta bien diseñada para detectar
problemas de crawling o indexación. Desafortunadamente, durante la
realización de este proyecto final de carrera nos hemos enfrentado a
incoherencias con respecto a la posición que ocupan nuestros documentos y la
posición marcada por Google Webmaster Tools.
Para poder realizar un análisis de los datos que disponemos, debemos de
conocer bien las herramientas que usamos, su efectividad y sus defectos.
- Procesos de crawling o indexación
Si los procesos de crawling o indexación fallan, es muy probable que los título
y descripciones mostrados en la lista de resultados no sean los esperados.
En siguientes apartados desarrollaremos estrategias para aumentar el ratio de clics
adquiridos desde los motores de búsqueda, en base a las recomendaciones realizadas
por expertos en el sector.
3.1.4. Conclusiones
En este apartado hemos visto los tipos de palabras clave de los cuales podemos hacer
uso: head terms y long tail keywords. Se ha introducido el uso de la herramienta
113
Google Keyword Planner como medio para analizar las palabras clave a emplear en
los documentos web. Haremos uso de head terms para la adquisición de un alto
volumen de búsquedas o long tail keywords para adquirir usuarios más preparados
para la conversión.
Los documentos posicionados en las tres primeras posiciones adquieren entre el 50%
- 60% de los clics, obteniendo la primera posición de Google ratio de entre el 32% -
36% de las búsquedas.
Para finalizar, se ha expuesto un conjunto de benchmarks empleados en la industria
SEO, los cuales sirven como marco de referencia para evaluar como de desarrollado
se encuentra un proyecto que busca posicionamiento y adquisición de tráfico.
3.2. Estrategias de publicidad online
En este apartado presentaremos estrategias empleadas en marketing online para
incrementar la visibilidad y el tráfico que recibe un sitio web. Para ello se expondrán
los conceptos de marketing de afiliación y anuncios patrocinados como métodos para
alcanzar a los usuarios mientras realizan búsquedas o navegan entre páginas web.
También se expondrá el concepto de e-mail marketing como canal de comunicación,
permitiendo a las empresas incrementar la visibilidad de su marca mediante la
publicidad por e-mail.
3.2.1. Sitios de afiliados
Cuando los usuarios realizan búsquedas desde los motores de búsqueda, estos
devuelven una lista de resultados ordenados según la relevancia del documento, la
cual es estimada por el propio motor. Entre los resultados que nos ofrecen solemos
encontrar sitios web, sitios de cupones, sitios de empresas, comparadores de
productos o blogs.
114
Al conjunto de sitios web que promocionan servicios o productos y perciben un
margen por la venta, se los conoce como sitios de afiliados. Sitios de cupones y
comparadores son un ejemplo de sitios de afiliados.
En esta sección presentaremos los conceptos de marketing de afiliación y las ventajas
que ofrece para los anunciantes el uso de este tipo de marketing. Expondremos
también estudios desarrollados por Forrester Research y Google para comprender el
valor añadido que adquieren los anunciantes al usar este tipo de marketing como canal
de ventas y promoción online.
Marketing de afiliación
El marketing de afiliación es un tipo de marketing especializado en la obtención de
resultados. Trabaja con la figura de afiliados, entendiendo estos como “compañías,
grupos o personas individuales que promocionan servicios y productos de
anunciantes.” (IAB, 2010).
Los afiliados son especialistas en conseguir un tipo de tráfico y dirigirlo hacia otros
sitios web. Por cada uno de los usuarios que el afiliado envía al comercio online para
el que trabaja, si los usuarios terminan comprando, el afiliado percibe un porcentaje
sobre la venta que inicia.
Los afiliados trabajan con diferentes modelos de promoción para capturar tráfico y
derivarlo hacia otros sitios web. Entre ellos encontramos blogs o sitios web,
comparadores, sitios de ofertas, sitios de promociones y cupones o sitios de cash
back entre otros.
En los últimos años los sitios de ofertas y cupones han adquirido un mayor
protagonismo. Según destaca el informe desarrollado por Google (Google, 2012),
entre el 2009 y el 2012 el número de usuarios que navegan desde las tiendas de retail
hacia los sitios de ofertas y cupones experimentó un crecimiento de tráfico del 69%.
115
Este cambio de comportamiento es aprovechado por aquellos comercios online que
apuestan por el marketing de afiliación. Las principales ventajas de trabajar con
afiliados son:
• Rentabilidad
Los afiliados trabajan en base al resultado de sus acciones. Si no consiguen
tráfico valioso para los anunciantes, no reciben remuneración. Este modelo de
marketing no ofrece riesgos aunque el valor de la venta se devalúe por la
comisión que adquiere el afiliado.
• Visibilidad
El comportamiento del usuario online ha cambiado. Los usuarios están cada
vez mas involucrados en las compras que realizan. Mientras que en el 2010 la
media de fuentes consultadas antes de realizar una compra online era de 5.27
en 2011 el número de fuentes consultadas creció hasta las 10.4 (Google,
2012).
Según destaca el estudio (Forrester Consulting, 2012), el 57% de los usuarios
reconoce que ver anuncios de un producto en diferentes sitios web, incrementa
las posibilidades de compra del producto.
Los afiliados, mediante la implementación de blogs, comparadores y sitios de
cupones permiten alcanzar a los usuarios durante los diferentes ciclos de
compra (búsqueda de información, comparación de productos, búsqueda de
ofertas y compra), incrementando la visibilidad y ofreciendo descuentos que
pueden cerrar la compra.
• Tráfico Cualificado
Los afiliados son especialistas en la adquisición de tráfico de calidad. Tal y
como mencionábamos anteriormente, el estudio (Google, 2012) detectó un
incremento del 69% de usuarios que visitan sitios de cupones y descuentos
desde los sitios de retail.
116
Este tráfico es un tráfico cualificado (Forrester Research, 2011) para la venta,
el cual busca la mejor forma de rentabilizar los recursos económicos de los
que dispone.
• Ventas
Los afiliados son especialistas en la adquisición de tráfico de calidad. Esto se
debe al tipo de sitios web del que disponen. Sitios comparadores, de cash back
o cupones están dirigidos a un público que busca la conversión.
Mediante el ofrecimiento de pequeños descuentos, los afiliados incentivan
finalizar la venta. En el estudio (Forrester Research, 2011), el 88% de los
usuarios entrevistados reconoció que los códigos promocionales y cupones
cierran la venta cuando se encuentran dubitativos.
Tras conocer las ventajas que ofrece el marketing de afiliación, presentamos cómo
hacer uso de este tipo de marketing. En la siguiente sección se expone cómo alcanzar
a los afiliados mediante el uso de las redes de afiliación.
Redes de afiliados
El trabajo con afiliados se realiza a través de las redes de afiliación. Las redes de
afiliación son el punto de encuentro entre anunciantes y afiliados (IAB, 2010). En
una red de afiliados podemos distinguir tres tipos diferentes de entidades:
- Plataforma de afiliados
Plataforma que permite la comunicación entre los afiliados y anunciantes.
Ofrece opciones de registro para ambos. En ella, los afiliados definen los
métodos de publicidad de los que disponen (IAB, 2010).
La plataforma ofrece programas para que anunciantes y afiliados puedan estar
en contacto sobre el desarrollo de las campañas de publicidad y la medición de
los resultados de estas campañas (IAB, 2010).
117
- Afiliados
Los afiliados son compañías o personas que cuentan con un medio para
promocionar productos, a cambio de cobrar comisiones por la venta que
inician (IAB, 2010).
- Anunciantes
Compañías que buscan promocionar o vender productos. Hacen uso de
páginas de afiliados para anunciarse e incrementar su visibilidad, pagando una
comisión en base a los resultados obtenidos (IAB, 2010).
Los anunciantes entran en contacto con los afiliados a través de la plataforma de
afiliación. Una vez toman la decisión de anunciarse con algún afiliado, deberán de
acordar la cuantía de la comisión y la acción por la cual pagar una comisión. Los
modelos de pago existentes dependen de la plataforma de afiliación, aunque es común
encontrar los siguientes modelos:
- CPM (cost-per-thousand-impressions)
Se conoce como CPM o cost-per-thousand-impressions, al coste que el
anunciante paga por cada 1000 impresiones de su anuncio en el sitio web del
afiliado (IAB, 2010). Este tipo de modelo publicitario es el mas parecido a los
modelos tradicionales de publicidad presentes en televisión o radio.
Esta opción es utilizada como medio para incrementar la visibilidad o
exposición de una marca en Internet. La adquisición de usuarios no debe de
ser el objetivo, dado que existen otros modelos más rentables que nos
permitirán pagar por la adquisición de tráfico (Marshall & Todd, 2012).
- CPC (cost-per-click)
La modalidad CPC o cost-per-click define el coste a pagar por los anunciantes
por cada clic que los usuarios realizan en los anuncios que los afiliados
disponen en su web (IAB, 2010). Esta modalidad es especialmente útil cuando
el objetivo es la adquisición de tráfico.
118
A diferencia de la modalidad CPM, este modelo no tiene en cuenta el número
de impresiones. Los anunciantes pagan por la adquisición de usuarios en su
web.
- CPDC (cost-per-double-click)
La modalidad CPDC o cost-per-double-click define el coste que los
anunciantes pagan por cada segundo clic (IAB, 2010). Permite a los
anunciantes adquirir un tráfico que ha verificado su interés en el producto.
En esta modalidad, los afiliados son remunerados cuando envían tráfico tras
un segundo clic. El requerimiento de dos clics obliga a los afiliados a disponer
de una página intermedia donde enviar a los usuarios. Los clics realizados en
esta página intermedia serán aquellos por los que los anunciantes paguen.
Este tipo de páginas intermedias suelen ampliar la información del producto,
disponiendo de enlaces hacia la página del anunciante. Así, los anunciantes
reciben usuarios interesados en el producto y con conocimientos sobre este.
- CPL (cost-per-lead)
Se conoce como lead a la adquisición de los datos del usuario. La adquisición
de datos se realiza mediante el relleno de un formulario (IAB, 2010). Esta
información es valiosa para las empresas dado que les otorga la posibilidad de
establecer posteriores contactos con los usuarios.
La modalidad CPL o cost-per-lead define el precio a pagar por la adquisición
de los datos del usuario. Los afiliados envían tráfico hacia la página del
anunciante, la cual dispone de un formulario para la adquisición de datos. Los
anunciantes remuneran a los afiliados en función del número de formularios
que reciben.
- CPA (cost-per-adquisition)
La modalidad CPA o cost-per-acquisition es la modalidad de pago más
empleada en las tiendas online o e-commerce (IAB, 2010). Los anunciantes
119
pagan únicamente por aquellos usuarios enviados por sitios afiliados que
terminan comprando o adquiriendo productos.
En esta modalidad se establece el precio a pagar a los afiliados cuando inician
la venta de un producto. La comisión percibida por el afiliado puede ser fijada
de antemano o variable, dependiendo del precio del producto vendido.
Para finalizar el apartado, mostramos un cuadro resumen (Tabla 7) extraído de la web
afiliado.com con algunas de las plataformas de afiliación más conocidas y los
modelos de pago que soportan:
Red de afiliados Zanox Affilinet Adjal Afilead Argonas
Cost-per-thousand-impressions
NO
Sí
NO
Sí
NO
Cost-per-click
Sí Sí Sí Sí NO
Cost-per-double-click
Sí NO Sí NO NO
Cost-per-adquisition
Sí Sí Sí Sí Sí
Cost-per-lead Sí Sí Sí Sí Sí
Tabla 7: Plataformas de afiliación y acciones que registra la plataforma
3.2.2. Publicidad online
En este apartado presentamos el concepto de marketing contextual como medio para
publicitar en Internet un sitio web en base a un conjunto de palabras clave
seleccionadas.
120
A diferencia del marketing de afiliación, este tipo de marketing no requiere de la
selección de sitios afiliados, acuerdo de las comisiones o conversaciones con terceras
personas. Como veremos en este apartado, facilita la creación de publicidad online y
automatiza el proceso de publicación de anuncios en sitios externos.
Al finalizar el apartado dispondremos de los conocimientos básicos sobre la creación
de publicidad online y los modelos de publicidad existentes.
Marketing contextual
Según la definición ofrecida por la organización profesional de marketing para
motores de búsqueda conocida como SEMPO, el marketing contextual es un tipo de
marketing en el cual los anuncios son automáticamente seleccionados en base al
contexto del sitio web (contenido, el idioma, estructura web y palabras clave del
anunciante) (SEMPO, 2011).
Este tipo de marketing funciona bajo la figura del afiliado. Como en toda red de
afiliación, los afiliados reciben un incentivo económico por cada clic que los usuarios
realizan en el anuncio que promocionan, o por cada impresión de un anuncio.
Mientras que en el marketing de afiliados los anunciantes tienen que seleccionar los
sitios web en donde quieren ver impresos sus anuncios, el marketing contextual
realiza esta labor de forma automática.
Anunciantes y afiliados acceden a que Google AdWords actúe como distribuidor de
anuncios contextuales. El sistema determina automáticamente qué anuncios imprimir
en qué sitios web. Para ello hace uso de las palabras clave proporcionadas por el
anunciante y del contenido albergado en el sitio web.
Para hacer uso de este tipo de marketing, es necesario el uso de plataformas de
publicidad online específicas. Google AdWords es la más extendida, disponiendo de
dos redes de afiliados: Google display network (red de anuncios en sitios web) y
Google Search network (red de anuncios en el buscador de Google).
121
En este tipo de plataformas las palabras clave seleccionadas por los anunciantes y los
términos de búsqueda empleados por los usuarios determinan los anuncios a mostrar.
Cuando estos coinciden, los anuncios son considerados como candidatos a ser
mostrados.
La impresión de los anuncios depende de otros factores específicos de la plataforma
de publicidad a emplear. En el capítulo dedicado a las herramientas online usadas en
el presente proyecto final de carrera, presentaremos los factores la plataforma Google
AdWords tiene en cuenta a la hora de imprimir anuncios online.
Modelos de publicidad online
Las plataformas de anuncios contextuales ofrecen al menos dos modelos de
publicidad. Estos modelos de publicidad permiten a los anunciantes elegir las
acciones por las que pagar. Los modelos de publicidad soportados por plataformas
como Google AdWords o Bing Ads son:
- Pago por click
Se conoce como pago por click al modelo de promoción online por el cual el
anunciante paga únicamente por los clics que recibe el anuncio. También
conocido como pay-per-click, referencia al modelo de promoción online
basado en clics. Hablar de cost-per-click es hablar del coste que supone para el
anunciante el clic del usuario.
La fórmula que define el precio que pagamos por redireccionar a un usuario
hacia nuestro sitio web es la siguiente:
𝑃𝑟𝑒𝑐𝑖𝑜 𝑝𝑜𝑟 𝑎𝑑𝑞𝑢𝑖𝑠𝑖𝑐𝑖ó𝑛 𝑢𝑠𝑢𝑎𝑟𝑖𝑜 =𝐼𝑛𝑣𝑒𝑟𝑠𝑖ó𝑛 𝑒𝑛 𝑎𝑛𝑢𝑛𝑐𝑖𝑜𝑠
𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑙𝑖𝑐𝑠
- Coste por impresión
Se conoce como coste por impresión al modelo de promoción online por el
cual el anunciante paga por el número de impresiones que recibe el anuncio.
122
El término coste por impresión también es conocido como cost-per-
impression. Denota al modelo de publicidad por el cual el anunciante paga por
cada impresión.
Cuando se habla de cost-per-thousand-impressions, se hace mención al coste
que el anunciante pagará por cada mil impresiones del anuncio. Es un término
comúnmente empleado para hablar de modelo de coste por impresión, ya que
facilita el manejo de cifras y cuotas de pago.
Para conocer el coste de una impresión podemos hacer uso de la siguiente
formulación:
𝑃𝑟𝑒𝑐𝑖𝑜 𝑝𝑜𝑟 𝑖𝑚𝑝𝑟𝑒𝑠𝑖ó𝑛 =𝐼𝑛𝑣𝑒𝑟𝑠𝑖ó𝑛 𝑒𝑛 𝑎𝑛𝑢𝑛𝑐𝑖𝑜𝑠𝑁ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑖𝑚𝑝𝑟𝑒𝑠𝑖𝑜𝑛𝑒𝑠
En el capítulo siguiente, presentaremos cómo hacer uso de Google AdWords como
herramienta para realizar campañas de anuncios, tanto en buscadores como en sitios
web.
3.2.3. E-mail
Las estrategias de marketing online mostradas en los apartados anteriores son
estrategias conocidas como pasivas. Decimos pasivas porque requieren de la acción
del usuario (búsqueda web o visita a sitios web) para que la campaña de publicidad
pueda iniciarse.
En este apartado presentaremos el concepto de marketing por e-mail, los tipos de e-
mail existentes y los porcentajes de apertura de estos, como medio para incrementar la
eficacia de nuestro mensaje.
Email marketing
En 1971 Ray Tomlinson creó el e-mail. El propósito del e-mail era actuar como
herramienta de comunicación entre usuarios conectados a un mismo servidor. Hoy en
123
día, el e-mail es una herramienta fundamental como medio de comunicación, tanto
personal como promocional.
Email marketing es el término empleado para definir la acción de enviar mensajes
comerciales a un grupo de personas, empleando el e-mail como canal de
comunicación. El principal propósito que persigue esta técnica de marketing es
fidelizar al usuario, generar visibilidad sobre una marca y crear confianza mediante el
establecimiento de acciones informativas/educativas.
Proveedores de servicios de e-mail como iContact, Benchmark Email, Pinpointe o
MailChimp ofrecen la posibilidad de crear campañas promocionales mediante e-mail
de forma sencilla.
Este tipo de servicios son además capaces de obtener métricas sobre el
comportamiento de los usuarios cuando reciben un e-mail, tales como porcentajes de
apertura, porcentajes de clics o número de aperturas de e-mail entre otros. También
permiten la segmentación de usuarios en base a características definidas o grado de
interés.
Tipos de e-mail
El e-mail marketing es conocido en el sector de la publicidad online, como el segundo
medio de publicidad de entre los canales de marketing que ofrece mejores resultados.
Se encuentra únicamente por detrás de la promoción y rentabilidad que ofrece la
publicidad pay-per-click (Marketing Sherpa, 2009).
El e-mail marketing distingue dos tipos de e-mails, dependiendo de la acción que
motiva su envío. Los exponemos a continuación:
- E-mail transaccionales
Se conoce como e-mail transaccionales a los que son enviados como
respuesta a una acción realizada por el usuario. Este tipo de e-mails se
caracterizan por ser bien aceptados por los usuarios, contando con porcentajes
124
de apertura cercanos al 47% y siendo el ratio medio de clics del 20%
(McDonald, 2013).
Debido a que el porcentaje de apertura es bastante alto, cada vez es más usado
para el envío de información promocional, siempre y cuando el principal
propósito del e-mail sea la información sobre la transacción realizada.
Ejemplos de ello serían los e-mails que se envían cuando el usuario se registra
en un sitio web o cuando lleva a cabo una compra. Son e-mails con una alta
apertura debido a que el usuario espera recibir una notificación sobre sus
acciones.
- E-mail directos
A este tipo de promociones se las conoce como “Opt-in email”, y es el usuario
el que inicia la conversación con la compañía, dando su consentimiento para
recibir promociones por medio del e-mail.
La media de aperturas de e-mail promocionales se sitúa en torno al 20.1%,
contando con una media de clics del 2.3% - 2.5% (Silverpop, 2012), aunque
estos porcentajes varían según la industria y el sector.
En el año 2002, la Unión Europea introduce la directiva de privacidad y
comunicación electrónica (Directive on Privacy and Electronic
Communications). En ella se establece que para enviar e-mail directos es
necesario contar con el consentimiento previo del usuario. Desde entonces
algunos de los países miembros la han incorporado también en sus leyes.
En capítulos posteriores veremos cómo realizar campañas de e-mail, segmentar
usuarios y crear listas usando el servicio MailChimp.
3.2.4. Conclusiones
125
En este apartado hemos revisado los conceptos de marketing de afiliación como un
marketing basado en la consecución de objetivos. Su uso permite a los anunciantes
visibilidad web y tráfico cualificado. A cambio, los anunciantes tienen que ofrecer un
margen del beneficio por las ventas iniciadas por los afiliados.
Mediante el acceso a las redes de afiliados, los anunciantes contactan con los
afiliados, escogen el modelo de pago y disponen del software capaz de medir el
desarrollo de las campañas.
Como método para automatizar los anuncios o publicidad web se encuentra el
marketing contextual. Este nos permite mostrar publicidad en motores de búsqueda y
sitios web en base a un conjunto de palabras clave seleccionadas. Según el estudio
realizado por Marketing Sherpa, el modelo pay-per-click es el modelo más eficaz a la
hora de rentabilizar los esfuerzos publicitarios (Marketing Sherpa, 2009).
Como estrategia directa para iniciar el contacto con los usuarios, hemos presentado el
marketing por e-mail. Se han estudiado los diferentes tipos de e-mail de los cuales
pueden hacerse uso y sus tasas de apertura media. Debido a las altas tasas de apertura,
los e-mail transaccionales están incluyendo cada vez más publicidad en un intento por
conseguir incrementar la visibilidad de productos (McDonald, 2013).
3.3. Optimización para la conversión
El posicionamiento web, la publicidad contextual y el uso de afiliados nos permite
incrementar la visibilidad de nuestro sitio web. A cambio, la promoción por estos
canales genera costes. Para mejorar la rentabilidad de nuestro sitio web, deberemos de
trabajar en mejorar el porcentaje de usuarios que recibimos por posicionamiento
orgánico (desde los motores de búsqueda), así como mejorar la rentabilidad de los
usuarios que adquirimos mediante el uso de publicidad online.
Si el usuario no termina clicando en nuestro resultado de Google o en la publicidad
que dispongamos en sitios web externos, los esfuerzos en optimizar el sitio web habrá
126
sido en vano. De la misma forma, si los usuarios llegan a nuestro sitio web pero no
convierten, la inversión en publicidad realizada para captar usuarios no será rentable.
En este apartado presentaremos estrategias empleadas por expertos en marketing
online para mejorar el ratio de clics, incrementar la efectividad de los anuncios
contextuales así como prácticas para preparar un sitio web para captar usuarios y
llevarlos hasta la conversión.
La sección está dividida en varias subsecciones: optimizaciones a realizar en la lista
de resultados de Google; estrategias a usar en las campañas de publicidad online;
prácticas a implementar en sitios web para mejorar la captación de datos de usuarios y
herramientas para optimizar nuestras páginas de conversión.
3.3.1. Resultados de búsquedas
En el capítulo dedicado al posicionamiento de documentos web en motores de
búsqueda, hemos visto técnicas que nos ayudan a controlar el escaneo de documentos,
la indexación de contenidos y cómo optimizar los contenidos web. La consecución de
un buen posicionamiento era el objetivo principal.
A pesar de todas las técnicas mencionadas en el capítulo de posicionamiento online,
no siempre es posible alcanzar los primeros puestos en la lista de resultados de
Google. A continuación presentamos un conjunto de técnicas cuyo objetivo es
mejorar el ratio de clics de los documentos que aparecen en la lista de resultados:
Revisar palabras clave en títulos y descripciones
Cuando se realiza una búsqueda web en el motor de Google, éste proporciona una
lista de resultados, donde se distingue el título de la web, la dirección web así como
un texto resumen.
A veces los motores de búsqueda no indexan correctamente este contenido. Otras
veces este no aparece por error nuestro. Optimizar los títulos y descripciones para
captar al usuario es una de las primeras optimizaciones que podemos introducir.
127
La siguiente imagen (Figura 27) muestra como Google destaca en negrita las palabras
que coinciden con los términos de búsqueda. En la imagen de a continuación, los
términos de búsqueda fueron “low prices in electronics”.
Figura 27: Marcado de palabras clave en una búsqueda web
Aparecer en la primera página de Google es sinónimo de visibilidad. Estamos en la
primera página de Google y esto permite que nuestro resultado sea impreso para
cualquiera que realice una búsqueda con nuestros términos clave.
La adquisición de posiciones es también un factor importante a la hora de adquirir
usuarios. A pesar de ello, los usuarios disponen de ocho resultados en la lista sobre los
que clicar. Si no nos encontramos entre los primeros puestos, deberemos intentar
llamar la atención del usuario hacia nuestro resultado.
Especialistas en el posicionamiento de documentos web como Eduard Blacquiere o el
equipo de Catalyst indican que la personalización de resultados ayuda a incrementar
el número de clics (Eduard Blacquiere: Higher efficiency through Google Rich
Snippets, Catalyst team: How Rich Snippets Can Improve your CTR). Una opción
para que nuestro resultado sea más atractivo será estudiar las palabras clave
empleadas por los usuarios y optimizar las descripciones web y títulos acordes a estas.
128
Uso de head terms y long tail keywords
Según el estudio realizado por la empresa Optify (Siddiqi, 2012), la selección de las
palabras clave influye en el ratio de clics que reciben los documentos. La imagen
(Figura 28) extraída de (Siddiqi, 2012) muestra lo enunciado anteriormente:
Figura 28: CTR para head y long tail keywords por posición de documentos
Observamos como el ratio de clics varía en función de la posición ocupada por el
documento y el tipo de término empleado (head terms en rojo o tail term en verde).
El uso de head terms permite la adquisición de un alto volumen de clics si nuestros
documentos ocupan las primeras posiciones. Usando long tail keywords
incrementamos nuestras posibilidades de conseguir usuarios (existe un mayor CTR
por posición), aunque el volumen de búsquedas de long tail keywords es reducido, por
lo que el volumen de usuario también será inferior (Siddiqi, 2012).
Si nuestros documentos no disponen de un buen posicionamiento en la primera página
de Google, podría ser conveniente la optimización de documentos usando long tail
keywords. Optimizar nuestros documentos para este tipo de búsquedas nos permitirá
alcanzar un reducido volumen de público, pero más preparado para la conversión
(Siddiqi, 2012).
Sitelinks
129
Se conoce como Sitelinks a la información adicional que Google muestra en la lista de
resultados (Google Webmaster Tools, 2013). Estos enlaces así como la información
que muestran es automáticamente generada por Google.
Blogs especializados en posicionamiento web y marketing en motores de búsqueda
tales como quicksprout.com, searchenginewatch.com o searchengineland.com
presentan el uso de sitelinks como recurso para mejorar el CTR (click-through rate).
En la siguiente imagen (Figura 29) podemos observar la evolución de la apariencia de
estos:
Figura 29: Evolución del sitelink de 2007 a 2011
130
Según documenta Google en su blog (Google Webmaster Tools, 2013), el correcto
uso de las marcaciones Html y la disposición de una buena arquitectura web son los
principales factores para que el motor de búsqueda sea capaz de generar sitelinks.
La apariencia actual de los sitelinks se muestra en la siguiente figura (Figura 30):
Figura 30: Modelo de Sitelinks empleado actualmente
Si optamos por el uso de publicidad online, plataformas como Google AdWords
permiten la creación de sitelinks en sus anuncios de enlaces. Especialistas como Dan
Friedman llega a cuantificar en un 30% de incremento del CTR cuando se emplea en
anuncios patrocinados (Friedman, 2011).
Marcando contenido web
Con el objetivo de proporcionar mayor información al usuario desde la lista de
resultados, Google incorpora una serie de marcadores HTML que permiten
personalizar estos (Google Webmaster Tools, 2013).
Esta personalización de resultados puede ayudarnos a destacar sobre el resto de
documentos presentes en la lista de resultados. Para personalizar nuestros resultados,
es necesario hacer uso de una marcación HTML específica. Esta marcación puede
realizarse a través de la herramienta Data Highlighter (Google Webmaster Tools,
2014), o manualmente mediante el uso del formato microdata.
131
En la web schema.org, podemos encontrar todos los tipos soportados, el conjunto de
propiedades de cada tipo, así como las relaciones de herencias o jerarquías que deben
respetar.
Actualmente, Google soporta la personalización de resultados para aquellas páginas o
documentos que dispongan de información sobre: personas, productos, recetas,
música, eventos, organizaciones, valoraciones de producto y aplicaciones software.
A continuación, presentamos ejemplos de personalización de resultados soportados
por Google:
Aplicaciones Software
Si queremos aportar información extra a los motores de búsqueda sobre el tipo de
aplicación que disponemos en nuestra web, podemos emplear el tipo
SoftwareApplication (Google Corporation , 2011).
El uso de este marcado nos permite indicar el tipo de sistema operativo soportado
o el tipo de aplicación:
Figura 31: Personalización de resultado: aplicación de software
Ofertas de productos
Si nuestro sitio web dispone de ofertas, es posible personalizar nuestros
documentos con marcadores HTML que destacarán nuestras productos en la lista
de resultados. Actualmente el marcador solo nos permite marcar un único
producto por página, aunque es posible marcar diferentes precios.
132
La marcación de productos u ofertas tiene restricciones (Google Corporation,
2011):
- El contenido de la página debe estar centrado en el producto anunciado.
- La compra del producto debe poder realizarse desde esa misma página.
- No puede emplearse este marcado para promocionar productos para adultos.
En las siguientes figuras (Figura 32 y Figura 33) pueden observarse las diferentes
personalizaciones que podemos conseguir dependiendo del uso de formato de
marcación usado:
Oferta del Producto
Figura 32: Personalización de resultado: oferta de producto
Oferta del Producto con varios vendedores
Figura 33: Personalización de resultado: oferta de producto con diferentes precios
Valoraciones
La adición de valoraciones e información social en la página de resultados de
Google permite a los webmasters incrementar el ratio de clics entre un 5% y un
10% (Google, 2012).
Si combinamos las valoraciones con información sobre el producto, podemos
conseguir resultados como la Figura 34:
133
Rating y precios
Figura 34: Personalización de resultado: valoración de producto y precio
Friendly-Urls
Se conoce con el término de friendly-url a la creación de direcciones web descriptivas
y concisas. La importancia que ha adquirido el uso de friendly-urls está relacionada
con la forma en la que los usuarios reaccionan ante estas. A continuación
enumeramos algunas de las ventajas:
• Evitar confusión
Multitud de usuarios estudian el contenido de las direcciones web antes de
pulsar sobre el enlace. La creación de direcciones web limpias favorecen el
entendimiento del contenido que albergan (Sherpa, 2008).
• Promoción de keywords
Las URLs o direcciones web son el lugar recomendado por los expertos para la
situación de keywords. Google resalta las palabras que coincidan con los
términos de búsqueda. Esto permite destacar la dirección web sobre el resto de
resultados.
• Incrementar CTR
Direcciones web limpias y con un número reducido de caracteres obtienen dos
veces mas clics comparado con direcciones largas y con direcciones
indescifrables (Sherpa, 2008).
La personalización de direcciones web debe permitir al usuario conocer dónde se
encuentra y qué contiene el documento. Según se documenta en (Sherpa, 2008), este
tipo de prácticas ayuda a incrementar el ratio de clics desde los motores de búsqueda.
134
3.3.2. Publicidad Online
En la sección anterior hemos presentado la publicidad contextual como una
publicidad online basada en palabras clave. Este tipo de publicidad hace fácil el
posicionamiento de anuncios en miles de sitios web, mientras el usuario navega o
realiza búsquedas. Este tipo de publicidad se centra en dónde posicionar anuncios y
no en el perfil al que nos estamos anunciando.
En esta sección presentamos formas de alcanzar al usuario en base a su perfil. No nos
centramos en los sitios donde promocionar nuestro contenido sino en el perfil del
usuario al que queremos anunciarnos, independientemente del sitio web donde se
encuentre. También introduciremos el concepto de remarketing, el cual nos permitirá
centrar nuestros anuncios en usuarios que ya visitaron nuestro sitio web.
Marketing por comportamiento
El marketing por comportamiento es una de las estrategias de marketing online
empleadas por anunciantes para mejorar la efectividad de las campañas publicitarias
(BlueLithium's BL Labs, 2006).
Este tipo de estrategia de marketing puede únicamente ser realizada por plataformas
de anuncios online populares. Estas plataformas son capaces de recopilar información
sobre el usuario (género, edad, localización), así como el comportamiento de este
mientras navega por sitios web (SEMPO, 2011). Métricas como el tiempo de estancia
en página, los enlaces pulsados, páginas visitadas, compras realizadas o términos de
búsquedas introducidos en motores de búsqueda son recopiladas por las plataformas
de anuncios como Google AdWords (Google AdWords Support, 2014).
En base a los datos recopilados, estas plataformas nos ofrecen opciones sobre las que
segmentar a los usuarios que recibirán la publicidad. Algunas de las características
sobre las que podemos segmentar los usuarios son: localización, edad, patrones de
comportamiento, intereses, etc. Servicios de publicidad online como Google AdWords
disponen de un mayor rango de opciones, permitiéndonos alcanzar a usuarios en base
135
a: estilo de vida, hábitos de compra, intereses o páginas visitadas (Google AdWords
Support, 2014).
Esta segmentación permite a los anunciantes elegir el público al cual mostrar los
anuncios, en lugar de elegir la web sobre la que anunciarse. Según el estudio
independiente realizado por la empresa BlueLithium (BlueLithium's BL Labs, 2006),
la combinación de anuncios contextuales que tienen en cuenta el público objetivo (es
decir, aquella campañas publicitarias que presenta anuncios en sitios web acordes con
los intereses del usuario) consiguen mejores porcentajes de clics en comparación con
campañas de publicidad contextual.
Este mismo estudio destaca que cuando los anuncios se presentan en sitios web fuera
de contexto, es decir, no existe relación entre el contexto del anuncio y el anuncio de
publicidad, el ratio de clics se reduce pero el tráfico adquirido produce mejores tasas
de conversión en comercios online (BlueLithium's BL Labs, 2006).
El siguiente fragmento extraído del estudio (BlueLithium's BL Labs, 2006) expresa lo
expuesto en los anteriores párrafos:
“As a top-line recommendation for advertisers, if your goal is traffic, use behavioral
targeting in context. If your goal is conversions, use behavioral targeting out of
context.”
En la sección dedicada al funcionamiento de la herramienta Google AdWords
introduciremos cómo hacer uso de la herramienta para realizar campañas de
marketing enfocadas en usuarios que reúnan características especificas.
Remarketing
A lo largo de este capítulo hemos presentado estrategias de publicidad que nos
permiten alcanzar al usuario en base a palabras de búsquedas, mientras navega, en
base a sus gustos, preferencias o patrones de comportamiento.
136
En este apartado hablaremos sobre una técnica de marketing centrada en alcanzar a
usuarios que interactuaron previamente con nuestro sitio web. A esta técnica se la
conoce con el nombre de remarketing.
Mediante la creación de campañas de remarketing seremos capaces de realizar
promociones online alcanzando a usuarios que previamente visitaron nuestro sitio
web.
Esta técnica es especialmente útil a la hora de recapturar tráfico web. Por ‘recaptura
de tráfico web’ nos referimos a la captura de tráfico que previamente se interesó por
nuestro sitio web.
El uso de este tipo de marketing ha crecido en los últimos años como respuesta al
creciente abandono de carritos de compra en comercios online. La media de abandono
de carritos de la compra online, desde el 2008 hasta el 2013 es del 67.45% según se
estima en documento presentado por el instituto Baymard (Baymard Institute, 2013).
La siguiente gráfica (Figura 35) presenta la evolución del abandono de carritos de la
compra online:
Figura 35: Evolución del abandono de carritos de compra online
137
Para hacer frente a esta tendencia creciente de abandonos, las tiendas de comercio
online han incrementado las prácticas de remarketing como método para recapturar a
usuarios que abandonaban los carritos de la compra (Oullet, 2013).
Mientras que en 2011 el 14.6% de los 1000 mas importantes retailers online
realizaban acciones para recapturar este tráfico, en 2012 la cifra creció hasta el 19%
(Ouellet, 2012), alcanzando el 24.5% en 2013 (Oullet, 2013).
El estudio llevado a cabo por la empresa SeeWhy (SeeWhy, 2011) documenta cómo
las campañas de remarketing realizadas en tiempo real consiguen recuperar al 26% de
los usuarios que abandonan el carrito de la compra, generando un 105% más de
ingresos que las campañas de remarketing realizadas 24 horas después de recibir la
visita del usuario. Esto pone de manifiesto la importancia de actuar con rapidez a la
hora de realizar campañas de remarketing.
Para la creación de campañas de remarketing es posible usar la plataforma de
anuncios Google AdWords. Google AdWords hace uso de cookies para salvaguardar
información sobre el visitante. Estas cookies son almacenadas en las listas de
remarketing.
Las listas de remarketing almacenan información sobre los usuarios que cumplen con
una acción específica (por ejemplo, la visita al sitio web o la adición de un producto al
carrito de la compra). Así, mientras el usuario navega por un sitio web, plataformas de
anuncios como Google AdWords analizan el comportamiento del usuario. Ante una
acción determinada por el anunciante, la cookie que identifica al usuario pasa a
formar parte de la lista de remarketing.
“At first, your list might not have any cookie IDs associated with it. Once you've
added the remarketing tag to your pages, as visitors come to your site, they'll start
getting added to your list.” (Google AdWords Program, 2013)
El anunciante puede crear campañas centradas en los usuarios cuyas cookies están
almacenadas en alguna de las listas de remarketing. En la sección dedicada a Google
138
AdWords expondremos cómo crear listas de remarketing y cómo hacer uso de éstas en
campañas de remarketing.
3.3.3. Sitios Web
La adquisición de tráfico es el primer paso hacia la consecución de ventas online. En
los apartado anteriores hemos expuesto diferentes estrategias para optimizar los
resultados de búsqueda o sobre estrategias para centrar nuestros esfuerzos en perfiles
específicos de usuarios.
En esta sección expondremos algunos de los conceptos más destacados a la hora de
preparar un sitio web para la conversión. Expondremos como la velocidad de carga de
un sitio web afecta al comportamiento del usuario. Veremos estrategias empleadas
por sitios web para la adquisición de datos mediante squeeze pages, formularios de
suscripción y landing pages. Como herramienta para mejorar la efectividad de estas
páginas introduciremos el concepto de A/B testing.
Velocidad de Carga
La velocidad de carga de un sitio web es un factor que los motores de búsqueda tienen
en cuenta a la hora de posicionar un documento. Independientemente de cómo afecta
al posicionamiento web, la velocidad de carga afecta a la usabilidad del sitio web y a
la forma en la que interactúan los usuarios con ella.
Según el estudio realizado por JupiterReseach para la empresa Akamai
(JupiterResearch, 2006), un tercio de los usuarios online no esperan más de cuatro
segundos a que un sitio web cargue el documento. Pasados cuatro segundos, si el sitio
web no ha terminado de cargar, un tercio de los usuarios abandonarán el sitio.
El mismo estudio manifiesta que el 40% de los entrevistados considera la velocidad
de carga de una página web como uno de los factores más importantes para proseguir
en un proceso de compra online.
139
Este no es el único experimento relacionado con el cambio de comportamiento en los
usuarios ante un sitio web lento. Google ha realizado también pruebas para determinar
como la velocidad de carga afecta a los usuarios. El experimento realizado por
(Brutlag, 2009) buscaba conocer cuál era el comportamiento del usuario cuando se
introducían retrasos de 100 ms y 400 ms en la página de resultados.
Los resultados del estudio determinaron que la introducción de retardos de 400 ms
impactaban negativamente en el número de búsquedas realizadas por usuarios.
Durante las tres primeras semanas del experimento, los usuarios reducían el número
de búsquedas en un -0.44%, alcanzando un -0.74% de búsquedas durante las tres
siguientes semanas de estudio (Brutlag, 2009).
Si bien estos datos puede parecer insignificantes, según cifras ofrecidas por
ComScore, Google procesa al año 1.2 billones de búsquedas (Internet Live Stats,
2013). La reducción de un búsquedas por usuario del 0.74% supone ocho mil
cuatrocientos millones de búsquedas menos al año. Recordemos que Google consigue
la mayor parte de sus ingresos de los anuncios que muestra.
Existen estudios más recientes, como el realizado por la empresa Tagman en
colaboración con Glasses Direct (Tagman, 2012). Para llevar a cabo el estudio la
empresa Tagman introdujo retrasos en la carga de la web Glass Direct. Tras la
finalización del periodo de estudio, Tagman determinó que la reducción de la
velocidad de carga del sitio web repercutió negativamente en la tasa conversión del
sitio web. El aumento de un segundo en el tiempo de carga del sitio web redujo el
número de conversiones en un 6.7%.
Optimizar un sitio web para conseguir la conversión online depende de múltiples
factores. Como hemos expuesto mediante los anteriores estudios, la velocidad es uno
de ellos, el cual influye negativamente en el comportamiento del usuario, pudiendo
afectar incluso en la conversión del sitio web.
Captación de leads
140
En el área de marketing online se conoce con el término lead a la captura de datos del
usuario (Miller, 2010). Para la consecución de leads, los sitios web deben de
prepararse. Algunas de las estrategias empleadas para la recolección de datos de
usuarios son:
• Squeeze pages
Se conocen como squeeze pages a las páginas especializadas en la captación
de los datos del usuario (Arnold;Lurie;Dickinson;Marsten;& Becker, 2009).
Se caracterizan por disponer de un formulario para dejar información y una o
dos llamadas a la acción (también conocidas como calls-to-actions).
Figura 36: Squeeze page del sitio blogprofitcamp.com
Por llamadas a la acción se entiende el uso de un lenguaje directo que incite al
usuario a realizar el clic. Este tipo de páginas suele ofrecer algún tipo de
recurso gratuito como infografías, e-books o similares.
• Formularios de subscripción
Formularios localizados en el sitio web que permiten al usuario suscribirse al
contenido. Este tipo de suscripción permite al usuario recibir noticias o
141
artículos en el e-mail. Los formularios pueden disponerse en sitios específicos
del sitio web o aparecer en forma de popups.
Figura 37: Formulario para capturar e-mails en la web Backlinko.com
La captación de datos de usuarios, puede ser empleado por el equipo de marketing
para conseguir ventas a posteriori mediante un proceso de educación. Este proceso de
educación puede ser llevado a cabo mediante e-mails, y puede servir para incrementar
la visibilidad de una marca, los servicios y/o productos que oferta o la profesionalidad
con la que se realizan estos. El objetivo es fidelizar al usuario (Marketo Blog, 2012)
para posteriormente intentar llevarlo hacia la conversión.
Landing pages
Se conoce como landing page a la página a la que llega una persona tras pulsar un
banner o un anuncio web. Este tipo de páginas suele extender la información del
banner, y su objetivo es la consecución de la venta (Ash;Ginty;& Page, 2012).
Las landing pages son páginas que han sido optimizadas para la conversión. Para
optimizar las landing pages se hace uso del A/B testing, el cual veremos en el
apartado siguiente.
En la siguiente figura (Figura 38) podemos observar un ejemplo de landing page:
142
Figura 38: Ejemplo de landing page del sitio Advanced Data Systems Corporation
A/B Testing
Se conoce como A/B testing a la comparación de dos versiones de una misma página
con el objetivo de conocer cuál ofrece mejores resultados. Este tipo de tests son
empleados para determinar, de forma empírica, qué variante obtiene mejores
resultados.
Hablar sobre páginas optimizadas para la conversión (como son las landing pages o
squeeze pages), es hablar sobre páginas que han sido diseñadas mediante el uso de
A/B testing.
Para realizar A/B testing de forma efectiva, es necesario disponer de un framework
que nos permita:
- Medir:
En un experimento A/B, lo primero que tenemos que decidir es la métrica que
determina el éxito del experimento. Esta métrica debe de poder ser medida por
el framework.
- Disponer de variaciones:
143
Disponer de dos versiones: la versión de control y una versión variante. Estas
serán mostradas paralelamente a los usuarios que accedan a la dirección web.
El uso de una única variante en el diseño nos permitirá determinar que es esta
variación la causante del cambio de comportamiento en los usuarios.
- Adquirir tráfico:
Para que los resultados obtenidos puedan ser considerados como válidos, estos
deben de ser estadísticamente significativos. Para ello es recomendable
realizar los tests en páginas con un alto volumen de tráfico.
Servicios como Optimizely, Visual Website Optimizer, KissMetrics o Google
Analytics proporcionan herramientas online para la creación de pruebas de A/B
testing.
En casos en los que sea difícil determinar si la introducción de cambios en un sitio
web mejorará los resultados, es conveniente realizar experimentos de A/B. Una vez
recopilados suficientes datos, podremos tomar decisiones informadas basadas en
hechos.
3.3.4. Conclusiones
En esta sección hemos visto diferentes técnicas que nos pueden ayudar a mejorar los
resultados de captación de usuarios desde Google, así como mediante la segmentación
de usuarios que reciben nuestros anuncios.
Como medio la usabilidad del sitio web, hemos destacado varios estudios que nos han
enseñado la repercusión de disponer de un sitio web con un tiempo de carga superior
a los 4 segundos.
Como medio para mejorar la conversión web, hemos presentado los términos de
landing pages, squeeze pages y formularios de suscripción. Mediante el uso de la
144
herramienta de trabajo de a/b testing seremos capaces de probar variaciones web y
determinar que cuales mejoran la conversión o ventas.
3.4. Analítica web
En los apartados anteriores hemos visto estrategias para la adquisición de tráfico,
desde buscadores, afiliados o mediante publicidad. Hemos introducido técnicas para
mejorar el CTR, así como elementos a optimizar para mejorar la conversión web. Se
ha presentado el A/B testing como herramienta para optimizar documentos web
específicos que buscan la adquisición de leads o el incremento de ventas.
En este apartado presentamos la analítica web como herramienta para medir la
evolución de un sitio web. Esta nos proporciona un framework para identificar las
acciones online que traen valor al negocio y aquellas que no son rentables.
3.4.1. Analítica web y objetivos de negocio
El uso de la analítica web nos permite recolectar, analizar y emitir informes de datos
(Digital Analytics Association, 2013). Herramientas como Google Analytics realiza
todas estas acciones de forma automática. A pesar de ello, el uso de estas
herramientas no significa que sepamos cómo interpretar los datos que nos
proporciona.
Para poder realizar un correcto análisis de estos necesitamos conocer el tipo de sitio
web (blog, comercio online, web de empresa que oferta servicios, …) y los objetivos
que tiene definidos (Munoz Vera & Elosegui Figueroa, 2011).
Antes de comenzar con cualquier análisis de datos, debemos de conocer cuál es el
objetivo del sitio web. Expertos en analítica web recomiendan formularse preguntas
sobre la existencia del sitio web, es decir, sobre la razón por la que se creó este
(Kaushik, 2010).
145
Estas suelen estar relacionadas con ideas para impulsar un negocio: como medio para
obtener visibilidad, para incrementar las ventas mediante un canal online, como canal
para resolver dudas y evitar colapsos en la línea de atención al cliente. Sea cual sea el
motivo por el cual se creo el sitio web, este nos determinará qué papel desempeña
para el negocio o comercio en cuestión.
Una vez conocemos el porqué se desarrolló el sitio web, es decir, cuales son las
necesidades de negocio que tiene que aportar el sitio web, estamos en disposición de
estudiar como transformar estas en acciones web. En la siguiente sección
presentaremos cómo traducir estos objetivos en acciones web (Kaushik, 2010).
3.4.2. Objetivos web
En el apartado anterior hemos destacado la importancia de reconocer la función que
debe de cumplir un sitio web con respecto a los objetivos de negocio. Conocer estas
nos ayudará a analizar y determinar cuales son las acciones web que traen valor al
negocio.
Para medir cómo el canal web contribuye a los objetivos de un negocio, es necesario
el establecimiento de objetivos web. Cada una de los documentos web pertenecientes
a un sitio web debe de tener un objetivo. A este objetivo lo denominaremos objetivo
web.
Los objetivos de un sitio web son empleados como herramienta para medir el progreso
de un sitio web. Expertos en analítica web como Avinash Kaushik (Kaushik, 2010) o
Vera Muñoz (Munoz Vera & Elosegui Figueroa, 2011) hacen distinción entre dos
tipos de objetivos web:
- Macro-Goals
Se conoce como macro-goals a los objetivos principales que definen la existencia
de un sitio web. Este tipo de objetivos conectan con los objetivos del negocio. Así,
estos objetivos son empleados como método para medir cómo el canal web
contribuye al desarrollo del negocio.
146
- Micro-Goals
Se conoce como micro-goals al tipo de objetivo que nos ofrece la información
necesaria como para entender la forma en la que se está educando al usuario, cuál
es su progreso, el interés que éste presenta sobre los contenidos ofrecidos, la
evaluación de la utilidad de estos contenidos desde el punto de vista del usuario,
etc.
La definición de micro-goals nos ayudarán a detectar y depurar dónde existen
problemas en el proceso de conversión, y cómo de efectivas son las prácticas
ejecutadas para persuadir al usuario.
A continuación mostramos una tabla con diferentes tipos de sitios web, definiendo
para cada uno de ellos posibles macro-goals y micro-goals a usar:
Tipo de Web Macro-goals Micro-goals
Blog
- Ser referencia en
Internet en la temática
tratada
- Branding
- Incrementar tráfico
- Incrementar el número de
páginas vistas
- Incrementar el promedio
de tiempo en el sitio web
- Incrementar la frecuencia
de visitas
- Disminuir bounce rate
Consultoría
- Incrementar la cartera
de clientes
- Incrementar los
- Adquisición de tráfico
web
- Incrementar el número de
usuarios que contacta a
147
beneficios por servicio
través de formularios
- Incrementar el número de
visitas a la sección de
servicios
E-commerce
- Incrementar el número
de ventas
- Incrementar los
beneficios por
producto/s vendido/s
- Adquisición de tráfico
- Incrementar las visitas a
páginas de artículos
- Incrementar las visitas a
las páginas de reviews
- Incrementar la adición de
artículos al carrito de
compra
- Incrementar el número de
conversiones de carritos
- Incrementar las visitas
cruzadas entre secciones
web / productos similares
Tabla 8: Definición de micro y macro goals para diferentes tipos de web
3.4.3. Métricas web
Una vez hemos definido los objetivos web del proyecto, comienza la fase de análisis
datos. Mediante el uso de herramientas de analítica web, como Google Analytics,
seremos capaces de recopilar información sobre el comportamiento de los visitantes
en nuestro sitio web, la procedencia de estos, el número de páginas que visitan o las
páginas por las que salen de nuestra web.
148
Para poder realizar un análisis sobre los datos que presentan herramientas como
Google Analytics, es necesario entender la forma en la que este calcula cada una de
las métricas que pone a nuestra disposición.
En el capítulo dedicado a las herramientas online empleadas en el presente proyecto
final de carrera, expondremos las métricas más básicas que Google Analytics es capaz
de recopilar, y cómo mide estas. Entender la naturaleza o la forma de cálculo de estas
es la base para entender qué métricas pueden servirnos a la hora de calcular nuestros
objetivos web.
Si bien todas ellas proporcionan información sobre la forma en la que el usuario
interactúa con el sitio web, no todas serán válidas para analizar el progreso o la
evolución del sitio web. De entre todas las métricas de las que disponemos, debemos
de analizar cuáles son las que representan la evolución hacia los objetivos
establecidos. A este tipo de métricas se las conoce como criterios de éxito o Key
Performance Indicators (KPI). En el siguiente apartado expondremos estas en más
detalle y proporcionaremos ejemplos de posibles KPI para diferentes tipos de sitios
web.
3.4.4. Key performance indicator
Una vez establecidos los objetivos del sitio web, tenemos que definir las métricas que
nos permitirán conocer la evolución de este, esto es, las KPI. A estas métricas se las
conoce como Key Performance Indicators y se representan mediante las siglas KPI.
Avinash Kaushik define informalmente las KPIs como “Measures that help you
understand how you are doing against your objectives.” (Kaushik, 2010).
Forman parte de las KPIs todas aquellas métricas que puedan ser empleadas por un
negocio para evaluar el éxito o progreso de una actividad relacionada con los
objetivos de este.
La correcta identificación de KPIs es una tarea que requiere de iteraciones. Encontrar
las KPIs que mejor representan la evolución del sitio web y que mejor conectan con
149
los objetivos del negocio requiere de tiempo (Munoz Vera & Elosegui Figueroa,
2011).
El proceso para la selección de KPIs comienza con el análisis de las métricas
proporcionadas por la herramienta de análisis elegida. El objetivo es encontrar
aquellas que son capaces de representar la evolución del sitio web, es decir, aquellas
que representan la evolución hacia los objetivos web especificados. De entre todas las
métricas disponibles, deberemos de seleccionar un conjunto que representará nuestras
hipotéticas KPIs.
El proceso continua con la fase de validación de hipótesis, donde se determina si éstas
representan el/los objetivos web definidos. Si las KPIs seleccionadas no representan
éstos correctamente, deberemos de seleccionar nuevas y comenzar el proceso de
nuevo.
Una KPI será útil si puede ser representada numéricamente, es indicativa del progreso
que se está llevando a cabo y es “accionable” (Munoz Vera & Elosegui Figueroa,
2011). Vera Muñoz define en su libro (Munoz Vera & Elosegui Figueroa, 2011)
“métrica accionable” como aquella sobre la que podemos influir.
A continuación presentamos para un conjunto de sitios web, cada uno de ellos con
diferentes objetivos, posibles KPIs a usar para medir el progreso de estos:
Sitio Web Objetivos Web KPI
Blog
- Referencia en Internet en
una temática específica
- Cuota de tráfico.
- Cuota de mercado.
- Cuota de adquisición de
nuevos visitantes.
- Fidelidad de nuevos visitantes.
150
Consultoría
de negocios
- Incrementar la cartera de
clientes
- Tasa de conversión a clientes
(clientes/visitantes).
- Tasa de conversión a leads
(leads/visitantes).
- Cuota de conversión de leads
(clientes/leads).
- Coste de adquisición per leads
- Coste de adquisición por
cliente.
- Ingreso medio por cliente
(ingreso/cliente).
E-commerce
- Incrementar el número de
ventas
- Porcentaje de usuarios que
visitan productos sin añadir al
carrito.
- Cuota de conversión.
- Cuota de carritos
abandonados.
- Porcentaje de conversión por
sesiones.
- Coste por cliente.
- Ratio de conversión entre
nuevos compradores y
repetidores.
151
Tabla 9: Definición de KPIs para objetivos web
3.4.5. Conclusiones
Existen multitud de herramientas que nos permiten hoy día recopilar datos basados en
las acciones que el usuario realiza en nuestra web. Antes de comenzar a hacer uso de
estas herramientas, tenemos que saber cómo funcionan y cómo miden los datos
(Kaushik, 2010). Una vemos entendemos las herramientas que manejamos y sus
limitaciones, seremos capaces de empezar a medir.
En este apartado hemos visto que para poder comenzar a medir el progreso de un sitio
web es necesario la definición de macro-goals y micro-goals. Una vez definidos
estos, tendremos que estudiar de entre todas las métricas que nos proporciona Google
Analytics, cuáles representan mejor los objetivos establecidos. Conocidas como KPI,
servirán para medir numéricamente la evolución del sitio web.
153
Capítulo 4:
Herramientas
En este capítulo expondremos las herramientas usadas durante el desarrollo del
proyecto final de carrera. Cada una de las herramientas empleadas nos ha permitido
analizar diferentes aspectos del sitio web desdemiatalaya:
- Estudio de palabras clave
Para el estudio de palabras clave, se emplearon las herramientas Google
Webmaster Tools, Google Analytics y Google AdWords.
- Análisis sobre la evolución en los motores de búsqueda
Para conocer el posicionamiento y las variaciones de posiciones en los
motores de búsqueda, se hizo uso de WebCEO.
- Análisis de tráfico y comportamiento del usuario
Para analizar el tráfico recibido y el comportamiento del usuario en el sitio
web, se hizo uso de Google Analytics.
- Captura de leads
Para la captura de leads empleamos el servicio MailChimp, creando
formularios de suscripción y automatizando la descarga de documentos.
En las siguientes secciones expondremos cómo funcionan las herramientas
comentadas anteriormente, así como los problemas encontrados durante el uso de las
mismas.
154
4.1. WebCEO
En esta sección expondremos las herramientas que ofrece la plataforma WebCEO para
auditar sitios web, estudiar el perfil de enlaces de nuestros clientes, analizar el
impacto de nuestro contenido en las redes sociales así como medir la evolución del
sitio web.
4.1.1. Auditoria del sitio web
La plataforma WebCEO pone a nuestra disposición una serie de herramientas para
ayudarnos en la realización de auditorias SEO. Mostramos a continuación el conjunto
de herramientas que ofrece, y como hemos hecho uso de algunas de estas durante el
desarrollo del proyecto final de carrera.
Análisis de palabras clave
Estudiar las palabras o términos a posicionar en el contenido web es clave para la
adquisición de un buen posicionamiento o la adquisición de tráfico. La selección de
palabras o términos clave determina el tipo de usuarios a adquirir, así como los sitios
webs contra los que competir por alcanzar los primeros puestos en Google.
La plataforma web WebCEO ofrece diversas herramientas para determinar las
palabras clave a emplear en el sitio web. Recopila información de herramientas como
Google AdWords o Google Webmaster Tools, ofreciendo la información que estas
herramientas proporcionan.
Vemos a continuación la información que nos proporciona esta herramienta para el
estudio de palabras clave como:
escandallos, escandallos de carnicería, dealz, pounland dealz,
dealz Málaga, dealz Madrid, supeco
155
Figura 39: Herramienta WebCEO para la determinación de palabras clave
En la imagen (Figura 39) podemos observar las palabras clave de búsqueda
introducidas (Keyword), las búsquedas globales (global searches) así como locales
(local searches), la competencia de pago (bid competition), un gráfico de barras
indicando la evolución de búsquedas a lo largo del año (Search trends) así como el
índice KEI.
Este índice conocido como KEI (Keyword Effectiveness Index) es un indicador que
determina la eficacia que tendría el uso de cada palabra clave. Según indican en el
propio software, esta fórmula matemática está basada en el número de búsquedas
globales y la competencia existente.
- Palabras con un KEI bajo son indicativos de un bajo volumen de búsquedas
para esa palabra clave con una alta competencia.
- Palabras con un KEI alto son indicativos de la existencia de un gran volumen
de usuarios empleando esa palabra clave con una baja competencia.
156
Al determinar el KEI empleando las búsquedas globales y al no determinar la fórmula
de la cual hacen uso, no hicimos uso de esta métrica en la selección de palabras clave.
La herramienta proporciona también sugerencias sobre palabras clave que podrían
estar relacionadas con los términos de búsqueda introducidos, basándose en los datos
recuperados de la herramienta Google Keyword Planner de Google AdWords.
Debido al desconocimiento del sector de la distribución alimentaria, se llevaron a
cabo entrevistas con el autor del blog para determinar las palabras clave a emplear,
viendo las búsquedas existentes y analizando el perfil de las búsquedas.
Optimización de enlaces internos
Se conocen como enlaces internos aquellos que se encuentran en nuestro sitio web.
Por optimización de enlaces internos, se entiende a la práctica de enlazar contenido
propio desde unos documentos web hacia otros, optimizando el texto de las anclas de
texto y disponiendo palabras clave en estas.
Para controlar el texto empleado en los enlaces, la herramienta WebCEO dispone del
panel Link Text Analysis. Este panel nos permite conocer las anclas de texto usadas en
los documentos, el número de enlaces que usan este texto, el text juice así como
información sobre si los enlaces llevan a páginas bloqueadas por el archivo robots.txt.
Mediante este panel podemos fácilmente detectar si nuestras palabras clave se
encuentran en las anclas de texto. Mostramos a continuación una imagen de este
panel:
157
Figura 40: Herramienta WebCEO para el análisis de las anclas de texto
Como observamos en la figura anterior (Figura 40) , las palabras con más entradas se
corresponden con los enlaces que se encuentran presentes en todos los documentos.
Existe también un gran número de enlaces que hacen uso de las misma palabras de
texto, tales como gran consumo, distribución alimentaria, Mercadona o Grupo Día.
Estas anclas de texto hacen mención a las etiquetas empleadas para categorizar los
artículos.
Si estamos interesados en estudiar el perfil de enlaces de una página específica,
podemos acudir al panel Page Authority Analysis (Figura 41). Este panel nos muestra
un resumen sobre la autoridad de la página web y el número de enlaces entrantes y
salientes que dispone.
158
Figura 41: Herramienta WebCEO para analizar métricas de enlaces
Si queremos disponer de información más detallada sobre los documentos internos
que enlazan una página específica, podemos emplear el panel Landing Page Analysis
(Figura 42).
Figura 42: Herramienta WebCEO para el estudio de enlaces por documento web
159
Como vemos en la imagen anterior (Figura 42), para documento específico, esta panel
nos permite visualizar las páginas internas que enlazan el documento, el texto
empleado en el enlace y el link juice que pasan al documento especificado.
Auditoría técnica
La plataforma WebCEO ofrece esta herramienta para analizar errores técnicos como:
- Enlaces rotos hacia páginas web
- Enlaces rotos empleados en imágenes
- Páginas que responden con errores de servidor
- Páginas que responden con errores de acceso a páginas
- Páginas con un tiempo de respuesta alto
En la figura siguiente (Figura 43) podemos observar la interfaz gráfica de esta
herramienta:
Figura 43: Herramienta WebCEO para la realización de auditoria técnica
160
Se ha trabajado continuamente con el autor del sitio web asesorándole sobre los
problemas encontrados y cómo arreglarlos. Debido a la existencia de más de 500
artículos, hay todavía errores sobre los que el autor del blog deberá de trabajar.
Análisis SEO
Para detectar errores SEO y conocer optimizaciones a realizar sobre nuestros
documentos, en la plataforma WebCEO ofrece la herramienta SEO Analysis. Esta
herramienta está compuesta por 6 paneles diferentes:
- On-Site Issue Overview
Este panel ofrece una visión general sobre las errores encontrados y
optimizaciones implementadas en el sitio web. Con ella podemos detectar si
todas nuestras páginas disponen de un título, si estos sobrepasan los 70
caracteres, qué páginas no disponen de descripciones, cuáles deberían de ser
reducidas para no sobrepasar los 160 caracteres, la presencia correcta de
encabezamientos, estructura correcta de direcciones web o presencia del
fichero robots.txt entre otros.
161
Figura 44: Herramienta WebCEO para la optimización on-page
- Landing Pages Overview
Este panel nos ofrece una visión general sobre los documentos que hemos
elegido como nuestras landing pages a optimizar. Nos permite conocer el
porcentaje de optimización realizado para la página, errores críticos desde el
punto de vista SEO, velocidad del sitio web así como el número de veces que
ha sido mencionado el documento en las redes sociales. Dispone también de
información sobre posición media de la página extraída de la herramienta
Google Webmaster Tools (GWT).
Durante el proyecto final de carrera hemos comprobado grandes diferencias
entre la posición documentada por WebCEO y GWT. En este sentido,
WebCEO es una herramienta mas precisa que GWT.
En la siguiente figura (Figura 45) mostramos la interfaz de este panel:
162
Figura 45: Herramienta WebCEO para la optimización de documentos concretos
- Landing SEO Pages
Para analizar en mayor profundidad cómo mejorar una página web desde un
punto de vista SEO, la herramienta WebCEO nos ofrece el panel landing SEO
pages. Este panel nos ofrece información sobre cómo de optimizado se
encuentra nuestro documento para un conjunto de palabras clave.
Este panel ha sido usado para la optimización del documento de escandallos
publicado en la web desdemiatalaya. Mostramos a continuación una vista
sobre este panel y la puntuación SEO obtenida (Figura 46).
163
Figura 46: Herramienta WebCEO para la optimización de landing pages
El uso de esta herramienta nos ayudó a establecer las palabras clave
escandallos y escandallos de carnicería en títulos, encabezados, meta
descripción, artículo, dirección web, etiquetas alt así como en los enlaces que
referencian al artículo.
- Page Speed
Si recordamos secciones previas (2.4.11. Velocidad de carga), la velocidad del
sitio web es una de las métricas tenidas en cuenta por los motores de
búsqueda. Esta también tiene impacto en la usabilidad de nuestro sitio web.
Para conocer la velocidad de nuestros documentos y recibir instrucciones
sobre cómo mejorar esta, WebCEO nos proporciona un panel para ello. Esta
herramienta parece usar los datos extraídos de la herramienta Google Page
Speed. Mostramos una imagen a continuación sobre la información que nos
proporciona (Figura 47):
164
Figura 47: Herramienta WebCEO para mejorar la velocidad del sitio web
Mediante el uso de esta herramienta hemos sido capaces de:
o Optimizar imágenes, reduciendo el tamaño de la página en 1 MB.
o Reducir el tiempo de renderizado del sitio web, eliminando widgets
que hacían uso de llamadas síncronas en JavaScript.
Tras realizar los cambios anteriores, basándonos en una muestra de 3369
visitas (1816 visitas se produjeron antes de reducir el tamaño del sitio web y
1553 tras la optimización), el sitio web desdemiatalaya experimentó:
o Incremento del 7.03% en páginas consumidas por sesión.
o Reducción del porcentaje de rebote en un 1.76%
o Incremento del tiempo medio de sesión en un 32.46%.
Como podemos observar, la velocidad del sitio web tuvo impacto en el
comportamiento de los usuarios, no experimentando ninguna mejora en el
posicionamiento del sitio web.
- Popular Pages
Para conocer las páginas más visitadas desde los motores de búsqueda, la
plataforma WebCEO proporciona el panel popular pages. Este panel funciona
165
con las sesiones extraídas de Google Analytics (GA) y los datos (impresiones,
clics, CTR y posición media) extraídos Google Webmaster Tools (GWT).
En la siguiente imagen (Figura 48) podemos observar cómo el número de clics
que GWT documenta no se corresponde con el número de visitas que GA
documenta. Es un problema conocido en la comunidad SEO a la cual Google
no ha dado respuesta oficial.
Figura 48: Herramienta WebCEO para analizar las páginas mas populares
Generación de sitemap
Esta herramienta nos permite crear un archivo sitemap.xml del sitio web. Para que los
robots hagan uso de este, debemos alojar el archivo en el servidor. Desde la
herramienta GWT podemos indicar a Google sobre su localización.
4.1.2. Link building
Con el objetivo de conocer el desarrollo de nuestras estrategias de captación de
enlaces, WebCEO pone a nuestra disposición un conjunto de herramientas para
monitorizar los enlaces de los que disponemos, organizar y categorizar sitios a los que
166
contactar, espiar los enlaces de la competencia así como un listado de sitios web
desde dónde conseguir enlaces.
Detallamos a continuación cada uno de las herramientas mencionadas anteriormente:
Backlink Quality Check
Esta herramienta nos proporciona información sobre el perfil de enlaces de nuestro
cliente. Informaciones tales como la diversidad del texto empleado en las anclas de
texto, de subredes que nos enlazan, de dominios o enlaces follow (frente a nofollow).
En la siguiente imagen (Figura 49) podemos observar la forma en la que la
herramienta WebCEO muestra la información.
Figura 49: Herramienta WebCEO para analizar el perfil de enlaces
La anterior imagen muestra un panel resumen del perfil de enlaces del que dispone el
blog desdemiatalaya. En el diagrama de barras podemos observar cómo la mayoría de
los enlaces provienen de páginas con TLD.com.
De los gráficos circulares, el primero de los gráficos representa la diversidad de textos
usados en los enlaces (“Diversity of link texts”). Tal y como puede observarse, existen
ciertas palabras clave que han sido usadas bastante a menudo, formando algunas de
ellas incluso mas del 30% (primer gráfico circular en color rojo).
167
El siguiente de los gráficos circulares (posicionado en el centro) nos muestra
información sobre la diversidad de subnets desde donde hemos conseguido enlaces.
La última de las gráficas circulares corresponde a información relativa a la diversidad
de dominios que nos enlazan (“Diversity of linking domain”). blogs.bolsa.com
representa el 22.8% de los enlaces adquiridos (representado en rojo), seguido de
gurusblog.com, rankia.com e investia.com.
Para conocer el texto que han empleado dominios externos para enlazarnos, podemos
acceder al panel Link Texts. La siguiente figura (Figure 50) muestra las anclas de
texto empleadas por documentos externos para enlazarnos:
Figura 50: Herramienta WebCEO para analizar las anclas de texto usadas
Como vemos en la imagen anterior, existe una repetición continua de palabras a usar
para adquirir enlaces. Esto se debe a la forma en la que se promocionó el blog en sus
comienzos. Se usaron diferentes plataformas con el objetivo de publicar el mismo
artículo. A pesar de que es una práctica desaconsejada por Google, no se ha percibido
ningún tipo de acción manual por parte de Google.
A continuación mostramos una lista (Figura 51) con algunos de los dominios que
enlazan al sitio web desdemiatalaya.com. No todos los dominios se han hecho
168
visibles, manteniendo la privacidad del sitio desde donde se han conseguido los
enlaces.
Figura 51: Herramienta WebCEO para analizar enlaces entrantes
Para finalizar con la herramienta Backlink Quality Check, es posible conocer los
documentos más enlazados desde dominios externos. La siguiente imagen (Figura 52)
muestra algunas de las páginas más enlazadas del blog:
Figura 52: Herramienta WebCEO para analizar los documentos mas enlazados
169
Competitor Backlink Spy
Con el objetivo de analizar nuevas oportunidades para adquirir enlaces, la plataforma
WebCEO pone a disposición la herramienta Competitor Backlink Spy. Esta
herramienta nos proporciona información sobre los documentos que enlazan a
nuestros competidores o a páginas del sector que especifiquemos.
Con el objetivo de encontrar oportunidades desde donde conseguir enlaces para el
blog desdemiatalaya, identificamos dominios con contenido similar e hicimos uso de
la herramienta Competitor Backlink Spy. Esta herramienta nos ayudó a encontrar
dominios candidatos con los que establecer contacto para la adquisición de enlaces.
A continuación mostramos una lista (Figura 53) con algunos de los resultados que
ofrece esta herramienta:
Figura 53: Herramienta WebCEO para analizar enlaces de la competencia
Tras estudiar los enlaces conseguidos por los sitios de contenido similar, se optó por
la consecución de enlaces desde directorios y/o menciones (tal y como veremos en el
siguiente capítulo). Esta decisión fue tomada junto con el autor del sitio web.
170
Chosen Links Watch
El panel Chosen Links Watch de WebCEO nos ayuda a organizar los sitios web
objetivo desde donde adquirir un enlace o dominios desde donde ya los hemos
adquirido.
Para el blog desdemiatalaya, organizamos los enlaces bajo categorías: directorios,
enlaces nuevos, perfiles sociales, periódicos y web objetivos. La siguiente figura
(Figura 54) muestra los enlaces conseguidos desde directorios:
Figura 54: Herramienta WebCEO para comprobar la existencia de enlaces
Content Submission
Con el objetivo de conocer sitios donde adquirir enlaces o compartir material,
WebCEO dispone de un directorio con una recopilación de sitios webs. Estos se
encuentran categorizados bajo los siguientes grupos: Automatic, Standard, Local,
eCommerce, Content, Blog y PPC.
La mayoría de ellos corresponden a sitios de habla no hispana, motivo por el cual no
hemos hecho uso de ellos.
4.1.3. Métricas sociales
171
Esta herramienta WebCEO dispone de dos paneles relacionados con métricas
sociales, los cuales exponemos en las siguientes secciones.
Monitor de palabras
Esta herramienta nos permite recuperar la información existente alrededor de un
conjunto de palabras clave especificado. Nos permite realizar un seguimiento sobre
qué sucede en Internet acerca de un tema específico.
Esta herramienta no ha sido utilizada durante el proyecto final de carrera, debido a la
falta de filtros sobre el idioma del cual recuperar la información.
Actividad social
Para estudiar la evolución de nuestra actividad en las redes sociales, WebCEO pone a
nuestra disposición la herramienta Social Engagement (Figura 55). Con ella es posible
monitorear la evolución de las citaciones que ocurren en las redes sociales como
Twitter, Facebook o Google+.
Figura 55: Herramienta WebCEO para monitorear métricas de redes sociales
172
Ofrece también herramientas para analizar el número de visitas recibidas desde las
redes sociales a nivel de documento web, así como métricas propias de las redes
sociales Twitter, Google+ o Facebook (Figura 56).
Figura 56: Herramienta WebCEO para monitorear métricas sociales
Para conocer la evolución de nuestros canales sociales con respecto a páginas con
audiencia similar, WebCEO permite definir un máximo de cuatro competidores.
Definidos estos, nos proporciona un informe con el número de citaciones realizadas
hacia la página principal de cada uno de ellos (Figura 57).
Figura 57: Herramienta WebCEO para monitorear métricas sociales por dominio
También dispone de una herramienta para analizar el tráfico recibido proveniente de
las redes sociales (Figura 58). En el caso del blog desdemiatalaya, la red social que
mejor actúa como captadora de tráfico es Linkedin.
173
Figura 58: Herramienta WebCEO para analizar el tráfico por red social
4.1.4. Analítica de Marketing
Para conocer el resultado de nuestras acciones de marketing, la herramienta WebCEO
ofrece cuatro paneles. Estos nos permitirán conocer la efectividad de nuestras
campañas de marketing, ofreciéndonos cifras sobre las palabras de búsqueda
empleadas, el ranking que ocupa el sitio web para determinadas palabras clave, así
como datos sobre la adquisición de usuarios. Presentamos a continuación cada una de
estas herramientas:
Ranking web
Esta es la herramienta con la que más hemos monitorizado las posiciones del sitio
web durante el proyecto final de carrera. Simula la realización de búsquedas en los
principales motores de búsqueda, para un conjunto de palabras clave. Extrae de este
listado aquellos donde aparece el dominio especificado, en nuestro caso,
desdemiatalaya.com.
Para los documentos encontrados pertenecientes a nuestro dominio, ofrece
información sobre la posición que ocupan estos. Si estos no se encuentran entre las
tres primeras páginas, la herramienta no muestra información alguna.
Esta herramienta ofrece varios paneles para obtener más detalles de la posición que
ocupan nuestros documentos. Es posible obtener información a nivel de palabra
clave, mostrando el número de búsquedas realizadas para la palabra clave
especificada, las visitas provenientes desde Google (resultados provenientes de la
174
herramienta Google Webmaster Tools), las visitas totales así como el ranking de
nuestros documentos (para una palabra clave específica) en los motores de Google,
Bing y Yahoo. Mostramos a continuación una imagen (Figura 59) de este panel:
Figura 59: Herramienta WebCEO para monitorear el ranking en los SERPs
Ofrece la posibilidad de ver la información a nivel de motor de búsqueda (Figura 60),
así como a nivel de etiquetas (Figura 61):
Figura 60: Herramienta WebCEO para monitorear el ranking por motores
175
Figura 61: Herramienta WebCEO para monitorear el ranking por etiquetas
Es posible configurar la herramienta para monitorizar el posicionamiento de nuestros
competidores (Figura 62), ofreciéndonos una visión general del posicionamiento que
estos disponen para las palabras clave para las cuales intentamos posicionarnos.
Figura 62: Herramienta WebCEO para monitorear la evolución de la competencia
Durante el proyecto final de carrera hemos observado como las posiciones de los
documentos oscilan diariamente. Monitorizar las palabras por semana ha resultado
suficiente para controlar las posiciones de estas.
Analítica web
176
Esta herramienta nos ofrece información organizada extraída desde Google Analytics.
Ofrece diferentes vistas para visualizar la evolución del tráfico para los canales
orgánicos, directos, pagados, de campaña o bien de referencia.
En la siguiente imagen (Figura 63) podemos observar la evolución del sitio web
durante el año 2014, para los canales de tráfico referenciado y tráfico orgánico.
Figura 63: Herramienta WebCEO para analizar la evolución del tráfico
Si nuestro objetivo es analizar el tráfico procedente de las redes sociales, WebCEO
ofrece una sobrevista del comportamiento para cada una de las redes sociales. A
continuación mostramos una imagen (Figura 64) sobre la información que ofrece esta
herramienta:
Figura 64: Herramienta WebCEO para analizar el tipo de usuario por red social
177
Para conocer el porcentaje de visitas que son catalogadas como nuevas, WebCEO
dispone del panel Efficiency. Este panel nos permite conocer cómo han evolucionado
las campañas de adquisición de nuevos usuarios.
Si vemos los resultados obtenidos para el sitio web desdemiatalaya (Figura 65),
observamos cómo el porcentaje de nuevas visitas adquiridas a través de los motores
de búsqueda tuvo una ligera subida en Septiembre y Octubre, cayendo hasta el 48%
en Noviembre.
Este hecho se explica como consecuencia de la potenciación de canales de referencia
y campañas, los cuales consiguieron incrementar el porcentaje de adquisición de
nuevas visitas.
Figura 65: Herramienta WebCEO para analizar el porcentaje de nuevas visitas
La herramienta de analítica web ofrecida por WebCEO resulta ser útil para obtener
una visión general sobre la evolución del sitio web aunque no llegará a sustituir al
nivel de datos al que se tiene acceso desde los paneles ofrecidos por Google Analytics.
Palabras clave de búsqueda desde Google
178
Para conocer las palabras de búsqueda que emplean los usuarios en los motores de
búsqueda, WebCEO recupera los datos que ofrece la herramienta Google Webmaster
Tools (GWT).
Tal y como hace GWT, esta herramienta también muestra información sobre el
número de impresiones, clics, CTR y posición media para palabras de búsqueda y
documentos. En posteriores secciones explicaremos el uso de la GWT.
Métricas de la competencia
Para visualizar la evolución del sitio web con respecto a la competencia, la
herramienta WebCEO ofrece el panel Competitor metrics. Desde este panel se puede
consultar la evolución en el ranking de Alexa o el tráfico adquirido de la herramienta
Compete, el perfil de enlaces de nuestros competidores (extrayendo información
desde las herramientas Ahrefs y Moz Scape), así como el perfil social de estos.
Mostramos a continuación algunas imágenes (Figura 66, Figura 67 y Figura 68)
representativas de la información que presenta esta herramienta:
Figura 66: Herramienta WebCEO para comparar el ranking Alexa
179
Figura 67: Herramienta WebCEO para comparar métricas contra la competencia
Figura 68: Herramienta WebCEO para comparar citaciones en redes sociales
4.1.5. Conclusiones
La herramienta WebCEO se posiciona como una de las herramientas más completas
existentes en el mercado. Esto se debe a que hace uso de aplicaciones externas para
180
agregar información. Destacamos la información que extrae de Ahrefs (perfil de
enlaces), Moz.com (autoridad de dominio y de página web), Google Webmaster
Tools(palabras clave), Google Analytics (métricas web) así como Google
AdWords(estudio de palabras clave) o Google PageSpeed (consejos sobre cómo
mejorar la velocidad del sitio web).
Gracias a la integración de estas herramientas, es posible llevar a cabo autorías
internas (a nivel de dominio así como a nivel de landing page), estudiar las palabras
clave, el perfil de enlaces o monitorizar las posiciones que ocupan los documentos
para un conjunto de palabras clave.
El valor añadido de esta herramienta es sin duda la posibilidad de analizar la
competencia.
4.2. MailChimp
En esta sección se introducirá el uso de la herramienta MailChimp. MailChimp es una
herramienta diseñada para el envío de campañas de e-mail. Expondremos cómo crear
listas de usuarios, campañas de email e interpretación de las métricas que ofrece.
4.2.1. Lista y grupos
Se conoce como lista de e-mails al elemento básico empleado por MailChimp para la
creación de campañas de e-mail. Almacenan la información proporcionada por el
usuario.
La creación de listas en MailChimp se realiza importando los contactos a través de
servicios built-in como zendesk, eventbrite, salesforce, surveygizmo, etc. o bien a
través de la importación de archivos Excel. Los únicos e-mails que pueden importarse
al servicio de MailChimp son aquellos para los cuales los usuarios nos dieron su
consentimiento para recibir e-mails. MailChimp puede aplicar penalizaciones en caso
de que considere que el que hace uso de su servicio está realizando spam.
181
La importación de usuarios permite además importar información adicional o extra
que pueda considerarse valiosa para la creación de campañas de e-mail. Ofrece el uso
de grupos como medio para categorizar a los suscriptores en base a sus gustos o
intereses.
Un ejemplo del uso de grupos sería ofrecer a los suscriptores que seleccionen el tipo
de artículos que quieren recibir de entre actualidad, ciencias o economía.
Esta información será muy útil posteriormente como medio para segmentar nuestras
campañas de e-mail, llegando a ser más relevantes para los usuarios al recibir estos
únicamente la información en la que están interesados.
4.2.2. Formularios opt-in/re-opt
MailChimp proporciona funciones para la creación de formularios de opt-in o re-opt.
Estos formularios se emplean como medio para conseguir la autorización del usuario
para recibir e-mails. MailChimp proporciona varias opciones para la creación de
formularios, con diferentes niveles de personalización de éstos.
La siguiente es una vista (Figura 69) del uso de MailChimp para la creación de
formularios de registro:
Figura 69: Formulario de registro en lista de MailChimp
182
Una vez creado el formulario, Mailchimp dispone de diferentes modos de compartir el
formulario de opt-in: generación de HTML, dirección web donde se aloja el
formulario o integración en aplicaciones como WordPress.
Durante el proyecto final de carrera se ha hecho uso de varios formularios como
medio para adquirir usuarios. A continuación mostramos el formulario empleado para
la captura de usuarios interesados en recibir un Excel con hojas de escandallos (Figura
70).
Figura 70: Formulario de registro para la recepción del Excel de escandallos
4.2.3. Emails transaccionales
Este tipo de e-mails se caracterizan por ser enviado de forma individual como
consecuencia de una acción realizada por el usuario, en contraposición con el
concepto de bulk-email donde el envío se produce de forma masiva.
En la herramienta MailChimp se conocen como Autoresponders y permiten enviar
automáticamente una campaña de e-mail enfocada a un único usuario. Este tipo de e-
mails es empleado como respuesta a registros, descarga de ficheros, aniversarios, etc.
El envío se produce como consecuencia de acciones realizadas por el usuario.
Actualmente MailChimp soporta el envío de e-mails bajo las siguientes acciones:
eventos de campañas, fechas específicas, consecución de objetivos o bajo compras
realizadas o subscripción a listas.
183
El e-mail se configura previo envío, seleccionando la lista o el segmento al que debe
pertenecer el usuario, así como la acción que producirá la acción de envío del e-mail.
Para hacer uso de ellos, debe de disponerse de una cuenta premium en MailChimp.
4.2.4. Segmentación
MailChimp ofrece la posibilidad de segmentar las listas de usuarios como forma de
centrar las campañas en un tipo determinado de público, previa creación de la
campaña. A través de la segmentación podremos enfocar nuestros esfuerzos hacia un
tipo específico de público.
La segmentación se realiza a través del establecimiento de filtros sobre la información
almacenada en las listas de e-mails. Es posible la creación de filtros basados en el
comportamiento de usuarios (apertura o clics de campañas anteriores), cliente de
email o geolocalización entre otros.
4.2.5. Personalización de e-mails
La personalización de e-mails es posible mediante el uso de tags o etiquetas. Los tags
son empleados como medio para personalizar el envío de campañas de e-mails,
mostrando en estos el nombre del usuario, apellidos, e-mail, lista a la que esta
subscrito, etc.
Ofrece también funcionalidades para el uso de conditional merge tags. Estos tags
evalúan condiciones, permitiendo mostrar diferentes contenidos en base a la
información disponible.
A continuación presentamos uno de los posibles usos de conditional merge tags,
desarrollado por LaughYourWay.com. En el footer de esta website promocionan el
registro a su newsletter sorteando un iPod Touch.
184
Una vez han decidido el usuario ganador, emplean la siguiente lógica para informar a
sus usuarios del ganador, controlando a su vez los e-mails a enviar para los no
ganadores.
*|IF:[email protected]|*
Congratulations, you appear to be this month’s winner of an
iPod touch! Please contact us by replying to this message,
using the contact us form on our website, or giving us a call
to claim your prize. When you contact us, please mention
codeword: EXAMPLECODE to help us verify your identity.
*|ELSE:|*
<strong>joh*****@example.com is this month’s
winner!</strong><br>
Sorry, you didn’t win this month, please watch this area in
future issues to see if you’re our next iPod touch winner!
*|END:IF|*
En el anterior código se hace uso de tags condicionales. Cuando el campo e-mail es
evaluado y coincide con el valor [email protected], el e-mail que se envía es de
felicitaciones. En caso de que el usuario al que se envía el e-mail no tenga esa
dirección, el ejemplo anterior notifica el ganador del mes.
4.2.6. Campañas de e-mail
Mailchimp ofrece múltiples opciones a la hora de crear campañas de e-mail. Las
opciones ofrecidas por MailChimp son las siguientes:
- Regular Campaign y Plain Text Campaign.
185
Permite la creación de campañas bajo selección de templates prediseñados
pero con opción a edición de éstos. Las campañas basadas en formato de texto
no ofrecen esta posibilidad ni la adición de imágenes o formatos.
- A/B Split Campaign
Permite la realización de pruebas de A/B testing sobre el asunto del e-mail,
sender y horarios de envío. Las dos primeras opciones permiten testear sobre
un porcentaje de usuarios, además de poder especificar la métrica que define
el éxito. La versión ganadora será enviada al porcentaje restante.
- RSS Driven Campaign
Permite la creación de campañas basadas en RSS. Ofrece opciones para
controlar la lista de usuarios a la que enviar estas campañas, así como la
configuración sobre cuando enviarlas.
4.2.7. Informe de Campañas
Para determinar el éxito de una campaña de e-mail, es necesario saber qué se puede
medir, cuáles son los objetivos de la campaña (promoción de productos, relleno de
encuesta, atracción de tráfico,…) y definir las variables que medirán el éxito de esta.
A continuación expondremos cuáles son las métricas básicas que pueden consultarse
para conocer cómo los usuarios responden a las campañas de e-mails:
- Porcentaje de emails enviados
Esta métrica mide el porcentaje de emails que no son bloqueados por los
ISPs (Internet Service Providers). Es una métrica que no indica cuántos de
ellos han llegado a su destino, si han llegado a la carpeta de spam o a la
bandeja de entrada.
- Porcentaje de emails rechazados
Mide el porcentaje de emails que son rechazados debido a que no pueden ser
enviados. Esto puede deberse a errores sintácticos en el email al que se
envió, bien porque el servidor de correo esté temporalmente no disponible o
186
bien porque la cuenta de usuario no existe para ese dominio o bien el
dominio en sí.
- Porcentaje de envíos declarados spam
Mide el porcentaje de envíos que son declarados como spam por parte de los
usuarios. MailChimp dispone de un formulario en su web donde cualquier
usuario que haya recibido un email servido por MailChimp pueda notificarlo
como spam.
- Porcentaje de e-mails abiertos
Mide el grado de interés o compromiso de los subscriptores con respecto al
servicio del cual reciben el email. El cálculo obtenido de esta métrica no es
exacto.
La forma empleada para calcular esta métrica es través de los llamados “web
beacon” o “balizas web”. Consisten en pequeños fragmentos de código o
imágenes generalmente imperceptibles para los usuarios que se envían junto
con la campaña de e-mail. Cuando los usuarios abren el e-mail, la baliza
(generalmente formada por una imagen de 1px de tamaño) es descargado del
servidor. MailChimp detecta esta descarga y contabiliza la vista del
documento web.
Esta técnica es empleada por los ESP (e-mail service providers) para
computar cuando un e-mail es abierto. Para que la apertura del e-mail sea
contabilizada, el subscriptor debe de tener habilitado la “vista de imágenes”,
o bien debe de clicar en “mostrar imágenes” cuando abre el e-mail.
- Porcentaje de clics
Mide la relevancia del mensaje para los subscriptores. Analizando el
porcentaje de clics se puede conseguir valiosa información para determinar
cuáles son los principales intereses de los subscriptores con respecto al
servicio del cual reciben el e-mail.
187
- Porcentaje de cancelaciones
Mide el porcentaje de subscriptores que han perdido interés por el producto
o servicio y cancelan la subscripción a la lista de e-mail.
- Porcentaje de conversión
Mide el porcentaje de subscriptores que han respondido a una “llamada a la
acción” contenida en el e-mail. Para tener un mayor conocimiento sobre la
conversión del subscriptor es necesario integrarlo con herramientas de
analítica web.
- Porcentaje de reenvíos
Porcentaje de subscriptores que encuentran valioso el contenido y lo
reenvían.
4.2.8. Conclusiones
MailChimp es una herramienta fácil de usar, la cual puede ser empleada gratuitamente
por bloggers que cuentan con una lista mediana de suscriptores. Durante el proyecto
final de carrera, hemos encontrado deficiencias a la hora de configurar la hora de
envío o la muestra parcial de los artículos para las campañas RSS. Para este tipo de
campañas, las imágenes quedan excluidas.
4.3. Google Webmasters Tool
En este apartado vamos a introducir la herramienta Google Webmaster Tools (GWT).
Esta herramienta es ofrecida gratuitamente por Google. Proporciona información a los
webmaster sobre el estado en el cual se encuentran sus sitios webs.
El servicio de Google Webmaster Tools está categorizado por funcionalidades, de
forma que cada una de las categorías nos permitirá consultar y/o controlar cómo
Google interacciona con nuestro sitio web.
188
En los siguientes apartados veremos el proceso a seguir para dar el sitio de alta en
GWT, así como las herramientas que ofrece para controlar cómo se presenta el sitio
web en la lista de resultados (SERPs), información relacionada con las impresiones y
CTR así como información sobre el escaneo e indexación de nuestro sitio web.
4.3.1. Proceso de alta
El uso de Google Webmaster Tools requiere de un proceso de autenticación desde el
cual un usuario se identifica como autor del sitio web. El proceso de autenticación
requiere disponer de una cuenta de gmail para su identificación. Una vez creada esta,
el usuario puede solicitar el uso del servicio.
Google proporciona una serie de métodos para verificar que el usuario es legítimo con
la web que solicita. Generalmente estos métodos requieren de acceso al sitio web. El
dueño del sitio web tendrá que situar un archivo proporcionado por Google en el
directorio raíz aunque existen formas alternativas de verificar la autoría del sitio web
(Figura 71):
Figura 71: Formas de identificación en la herramienta Google Webmaster Tools
Una vez finalizado el proceso de autenticación, se puede comenzar a hacer uso de la
herramienta.
4.3.2. Control sobre la apariencia en los SERPs
189
Las herramientas que se mencionan a continuación nos van a permiten trabajar sobre
la apariencia de nuestra web en la página de resultados.
Bajo el nombre de Search Appearance, se ofrecen herramientas para consultar cómo
Google detecta los datos estructurados marcados en el sitio web. En secciones
anteriores ya mencionamos cómo el uso de datos estructurados permiten resaltar
información relevante para los usuarios directamente en los motores de búsqueda.
El marcado de datos estructurados puede realizarse manualmente (añadiendo el
pertinente marcado) u automáticamente. GWT ofrece una herramienta automática para
resaltar estos datos estructurados para aquellos usuarios menos técnicos.
A través de la herramienta Data Highlighter el usuario puede destacar los datos
estructurados (Figura 72) sin necesidad de emplear el esquema de marcado ofrecido
en schema.org.
Figura 72: Herramienta Data Highlighter para resultados de búsqueda
Otra de las herramientas ofrecidas en esta categoría permite al usuario conocer si
existen problemas con meta descriptions, títulos de página o contenido no indexable.
Detecta y sugiere correcciones con el objetivo de mejorar la experiencia del usuario.
En caso de que las meta descripciones no proporcionen información relevante,
Google seleccionará automáticamente el contenido que considere más significativo,
pudiendo extraerlo del directorio DMOZ, o bien de descripciones que Google pueda
encontrar sobre páginas que nos enlazan.
190
Figura 73: Información mostrada en la lista de resultados de Google
La última de las herramientas que ofrece para controlar la apariencia del sitio web en
los SERPs es la herramienta Sitelinks. Sitelink hace mención a la generación
automática de enlaces que pueden aparecer bajo la impresión del resultado del sitio
web (Figura 74).
Figura 74: Sitelinks del sitio desdemiatalaya.com
Como ejemplo, podemos observar el Sitelinks generado para el sitio web
desdemiatalaya.com (Figura 74). Dispone de seis resultados resaltados en el Sitelinks.
Mediante el uso de esta herramienta podemos controlar los enlaces que no queremos
mostrar en el Sitelink sin eliminar del índice de Google el documento web.
4.3.3. Consulta sobre el tráfico de búsqueda
En esta categoría se encuentran las herramientas necesarias para consultar
información relacionada con las búsquedas de los usuarios, enlaces internos de
nuestro sitio web o enlaces entrantes adquiridos.
191
Mediante la herramienta Search Queries podemos consultar las keywords para las
cuales optamos como resultado. Junto con las keywords se encuentran el número de
impresiones o visualizaciones de nuestros documentos en Google Search, el número
de clics conseguidos así como el porcentaje de CTR (click-through-rate) y la posición
que ocupamos para las keywords introducidas (Figura 75).
Figura 75: Herramienta GWT para el análisis de las palabras clave empleadas
La herramienta Links to your site (Figura 76) nos permite consultar quién nos enlaza,
los documentos más enlazados o el texto empleado por el cual nos enlazan. Esta
herramienta no es exacta y puede que no aparezcan todos los enlaces externos que
hemos adquiridos. Es por ello que durante el proyecto final de carrera se hizo uso de
la herramienta WebCEO como medio para obtener una visión completa de los enlaces
adquiridos.
Figura 76: Herramienta GWT para el análisis de enlaces entrantes
192
GWT también ofrece una herramienta que nos permite obtener información sobre los
enlaces internos de los que disponemos. Conocida como internal links (Figura 77),
esta herramienta puede emplearse para detectar páginas huérfanas, la estructura del
sitio web así información sobre las páginas reciben mayor promoción o son más
enlazadas.
Figura 77: Herramienta GWT para el análisis de enlaces internos
La última herramienta situada en esta categoría se denomina Manual Actions. Es
empleada por Google para notificar si estamos siendo penalizados. Las acciones
mostradas en este informe pueden tener impacto sobre todo el sitio web o sobre
páginas específicas.
Algunas de las acciones que pueden ser listadas en el informe incluyen: detección de
links no naturales hacia tu sitio web (pudiendo detectar patrones de construcción de
links, manipulación de links, compra de links, …), sitios que hayan sido hackeados,
aquellos que contengan puro spam o palabras clave ocultas, etc.
193
Durante el proyecto final de carrera se aplicaron únicamente las técnicas
recomendadas por los motores de búsqueda, evitando la creación masiva de enlaces
desde directorios y comentarios.
4.3.4. Control sobre el índice de Google
El índice de Google guarda información relevante sobre los sitios web. Gracias a la
información almacenada en este índice, Google hace frente a las keywords que los
usuarios introducen en el motor de búsqueda.
Las herramientas que GWT ofrece nos permiten consultar el número de documentos
web que se encuentran indexados (Figura 78) y las palabras clave empleadas en estos
(Figura 79).
Figura 78: Herramienta GWT para el análisis de contenido indexado y bloqueado
194
Figura 79: Herramienta GWT para conocer las palabras mas empleadas
También ofrece una herramienta para borrar información del índice de Google (Figura
80). El uso de esta última herramienta es para casos de emergencia, donde
información privada se haya visto comprometida y haya sido indexada.
Figura 80: Herramienta GWT para eliminar direcciones web del índice de Google
4.3.5. Control sobre robots o crawlers
La principal función de los robots y crawlers es visitar documento web, recuperar el
contenido y almacenarlo en los servidores de Google. Esta información permite a
Google ordenar los documentos y crear el índice de búsqueda.
195
De entre las herramientas que Google Webmaster Tool pone a disposición, Crawl
errors nos permitirá consultar si los robots han tenido problemas al visitar nuestra
web o si estamos enlazando a direcciones con enlaces rotos. También dispone de
información sobre el correcto funcionamiento de DNS o la conectividad al servidor.
En caso de que queramos consultar cuándo fue la última vez que googlebot visitó
nuestro sitio web, disponemos de estadísticas sobre las páginas visitadas por día, el
tamaño descargado así como el tiempo de descarga por página bajo el panel de crawl
stats.
Ofrece también una herramienta conocida bajo el nombre de Fetch as Google que
permite al dueño del sitio web conocer la información que es recuperada por los
robots.
Esta herramienta es especialmente útil si nuestro sitio web esta desarrollado en Ajax o
Flash. Nos permite conocer qué contenido es extraído, ayudándonos a depurar
posibles problemas de escaneo de documentos.
En caso de que queramos evitar que Google visite documentos web específicos, éstos
pueden ser especificados en el documento robots.txt. Actualmente Google Webmaster
Tool ofrece una herramienta denominada Blocked URLs que nos permite consultar el
archivo robots.txt existente, así como realizar pruebas previa actualización del
fichero.
El archivo Sitemap.xml puede ser enviado a Google a través de la herramienta
denominada Sitemap. El envío de este fichero informa a los robots sobre las páginas
que están disponibles en el sitio web.
4.3.6. Conclusiones
La herramienta Google Webmaster Tool ha sido utilizada intensamente durante el
proyecto final de carrera. Para ello se integró la información que esta herramienta
proporciona en las herramientas WebCEO y Google Analytics. Los principales
problemas encontrados están relacionados con la fiabilidad de los datos que
196
proporciona. El posicionamiento de los documentos así como el número de clics
adquiridos desde los motores de búsqueda no se corresponde con los documentados
por la herramienta WebCEO(posicionamiento web) o Google Analytics (visitas
adquiridas desde buscadores).
4.4. Google Analytics
Google Analytics es una herramienta desarrollada por Google cuyo objetivo es
proporcionar estadísticas para tomar decisiones informadas. Es una herramienta
analítica con la que podremos estudiar: la audiencia, la adquisición de tráfico, el
comportamiento de los usuarios y las conversiones para los objetivos web
establecidos.
En esta sección se introducirá al lector las métricas básicas y el cálculo de éstas,
cálculo de KPIs tales como el ratio de fidelización o el número de visitas necesarias
hasta la conversión, así como los problemas existentes para el cálculo de métricas
como recency y visitor loyalty.
4.4.1. Cálculo de métricas básicas
La comprensión sobre cómo se calculan las métricas básicas resulta clave para definir
y componer métricas. En este apartado describiremos cómo Google Analytics calcula
las métricas más básicas, tanto de navegación como en tiempo de permanencia en el
sitio web.
Métricas de usuario
Este tipo de métricas se caracterizan por almacenar información sobre cómo
interactúa el usuario. A continuación exponemos las métricas principales relacionadas
con el usuario (Google Analytics, 2013):
Páginas Vistas: Esta métrica proporciona el número total de páginas vistas o
visitadas (Google Analytics, 2014). Cada vez que un usuario realiza una petición de
197
un recurso al servidor web, se incrementa el contador interno de páginas vistas o
visitadas (Figura 81).
Figura 81: Páginas vistas por usuario en Google Analytics
Páginas Vista Únicas: Esta métrica mide el número de diferentes recursos webs que
han sido requeridos por una visita (Google Analytics, 2014). Es decir, cuenta el
número de páginas webs distintas servidas en una sesión (Figura 82).
Figura 82: Páginas vistas únicas por usuario en Google Analytics
Visita o Sesión: Esta métrica mide el número de sesiones o visitas que un usuario
realiza al sitio web. Identifica a cada uno de los visitantes, contabilizando una nueva
visita cuando el usuario interactúa con el sitio web tras 30 minutos de inactividad
(Google Analytics, 2013) o cuando cierra el navegador y vuelve al sitio web (Figura
83).
198
Figura 83: Medición de sesiones en Google Analytics
Visitante Único: Esta métrica mide el número de visitantes diferentes que realizaron
algún tipo de petición al servidor durante un periodo de tiempo específico (Figura 84).
Figura 84: Medición de visitantes únicos en Google Analytics
Visitantes Recurrentes: Son aquellos visitantes identificados con anterioridad que
realizan en diferentes sesiones peticiones de recursos webs (Figura 85).
199
Figura 85: Medición de Visitantes recurrentes en Google Analytics
Métricas de Tiempo
Estas métricas nos permiten estudiar el tiempo que los usuarios emplean en los
documentos web. Mediante ellas y junto con las métricas de usuarios anteriormente
explicadas, seremos capaces de estudiar el interés de los usuarios en los documentos
web.
Tiempo en Página: Para calcular el tiempo que un visitante está en una página web,
Google Analytics mide la diferencia en tiempo entre peticiones (Kaushik, 2010). El
tiempo transcurrido entre petición y petición es el tiempo que el usuario estuvo en la
página web.
El tiempo que un visitante se encuentra en una página es una medida inexacta. Google
Analytics únicamente calcula el tiempo cuando las peticiones son realizadas dentro
del mismo dominio. Si el usuario navega hacia una web externa a nuestro dominio, el
tiempo en página es considerado de 0 segundos (Kaushik, 2010).
Veamos un ejemplo para entenderlo:
200
Figura 86: Medición de tiempo en página en Google Analytics
Si observamos la Figura 86, tras visitar el documento 3 el usuario abandona el sitio
web. El tiempo que Google Analytics estima es que el usuario estuvo 0 segundos en
el documento 3. Esto es debido a que no hubo una nueva petición.
Tiempo medio en Página: Para el cálculo de esta métrica, Google Analytics tiene en
cuenta el tiempo de la visita en la página, excluyendo aquellas cuyo tiempo haya sido
cero, bien porque el visitante haya entrado y salido de la página rápidamente, porque
el visitante solo consumiera únicamente ese recurso web y se marchara, así como para
aquellas páginas que son mostradas y que terminan con la salida hacia el exterior del
visitante.
Tiempo medio en el site: El cálculo de esta medida, a diferencia de la anterior tiene
en cuenta aquellas páginas vistas que supusieron la salida del visitante hacia otro
dominio, contabilizando su tiempo en página como cero (Munoz Vera, Era cuestion
de tiempo..., 2008). Cuanto mayor sea el número de visitantes y menor el número de
recursos web que consumen, mayor será la distorsión del valor de esta métrica, dado
que las visitas sin interacción serán incluidas en los cálculos.
Una de las soluciones propuestas por Gemma Munoz Vera en su blog (Munoz Vera,
2008) para conseguir datos más exactos, es excluir a aquellos usuarios que solo
201
visitaron una única página. De esta forma, los resultados serán más exactos, pues
medirán el tiempo que emplean aquellos que están interesados en la web.
Bounce Rate: El ‘bounce rate’ es una métrica que por si sola, y sin necesidad de
ningún otro tipo de métrica, es capaz de informarnos sobre si el contenido que
ofrecemos es el esperado por los usuarios. Avinash Kaushik lo define con la célebre
frase ‘I came, I saw, I puked, I’m out of here’ (Kaushik, 2010). Viene a indicarnos el
porcentaje de visitas que empezaron la navegación en una página de entrada
determinada y se marcharon sin consumir ningún recurso.
4.4.2. Cálculo de métricas Avanzadas
En esta sección mostraremos como puede hacerse uso de la herramienta Google
Analytics para calcular KPIs relevantes para todo negocio web. Las KPIs mostradas a
continuación son de propósito general. En secciones posteriores veremos cómo no
todas las KPIs pueden calcularse con exactitud mediante el uso de Google Analytics.
KPI: Bounce Rate
El bounce rate es una métrica significativa. Se define en Google Analytics como el
porcentaje de sesiones que visitan una única página (Kaushik, 2010). Permite
responder a preguntas sobre el interés del usuario en base al tipo de tráfico adquirido,
campaña de marketing, palabras clave empleadas, etc.
Para hacer buen uso de esta KPI, es importante realizar una serie de ajustes de forma
que el porcentaje de bounce rate notificado en Google Analytics represente
correctamente a aquellos usuarios para los cuales no les hemos ofrecido lo que
buscaban.
Tal y como hemos comentado anteriormente, el cálculo de esta métrica está basado en
identificar la página de entrada y de salida como la misma, sin detección de acciones
desde que se accede hasta que se sale del sitio web.
Existen problemas asociados con el cálculo del bounce rate en los siguientes casos:
202
- Páginas formadas por una única pagina web:
Debido a que la web está concentrada totalmente en un único documento web,
Google Analytics no reconoce interacciones, de forma que identifica todas las
visitas como bounce rate.
- Páginas desarrolladas con Ajax:
Este tipo de páginas padecen mismo problema que las anteriores. Debido a
que cargan el código a través de funciones Ajax, la página o el elemento que
contiene el código de Google Analytics nunca es refrescado.
- Incorrecta adición del código de Google Analytics:
Este tipo de problemas suceden cuando no situamos el código de Google
Analytics en el lugar apropiado, compartido por todas las páginas.
De los problemas comentados anteriormente, el uso de eventos puede ayudarnos a
informar a Google Analytics cuando una visita es considerada como exitosa y debe no
ser contabilizada para el cálculo del bounce rate (Kaushik, 2010).
A continuación mostramos un ejemplo del código a añadir para ajustar el cálculo de
bounce rate:
<script type="text/javascript">
// Setting up Google Analytics code
var _gaq = _gaq || [];
// Setting up Account
_gaq.push(['_setAccount', 'UA-‐XXXXXXX-‐1']);
// Push trackPageView
_gaq.push(['_trackPageview']);
// Push asynchronous event
_gaq.push(['_trackEvent', '15_seconds', 'read']);
</script>
203
A través del método __trackEvent ( ) es posible informar a Google Analytics de que
el usuario ha interactuado con el sitio web, por lo que no debería de ser contabilizado
como bounce. A continuación exponemos dos ejemplos de cómo usar este método:
- Páginas formadas por una única pagina web.
<script type="text/javascript">
var _gaq = _gaq || [];
_gaq.push(['_setAccount', 'UA-‐XXXXXXX-‐1']);
_gaq.push(['_trackPageview']);
setTimeout("_gaq.push(['_trackEvent', '15_seconds',
'read'])",15000);
…
</script>
La adición del código anterior permitirá detectar cuándo un usuario permanece
más de 15 segundos en una página. Esto se consigue mediante la emisión de
un evento para notificar a Google Analytics sobre este hecho. No será
contabilizado como bounce rate dado que hay interacción a pesar de que las
webs de entrada y/o salida sean las mismas.
- Páginas desarrolladas con Ajax.
<a href="#"
onClick="_gaq.push(['_trackEvent', 'Videos', 'Play',
'Baby\'s First
Birthday']);loadPage('videos')">Play</a>
Esta solución consiste en disparar el método __trackEvent( ) cada vez que
vaya a realizarse una acción mediante llamadas Ajax. El método
__trackEvent( ) será disparado con la pulsación de los botones de navegación
que cargan contenido. De esta forma, cada vez que se realice la pulsación de
uno de estos botones se emitirá un evento.
204
El bounce rate es una métrica de fácil acceso desde cualquiera de los informes
proporcionados por Google Analytics. Deberemos prestar especial atención al bounce
rate de las páginas que sirven de entrada. Estas deben estar diseñadas para la
consecución de objetivos. Un alto índice de bounce rate en las páginas de entrada
puede ayudarnos a identificar problemas entre el contenido y la promoción de este.
KPI: Ratio de conversión de objetivos
Se conoce como ratio de conversión de objetivos, a la KPI que mide al número de
usuarios que convierten al menos uno de los objetivos establecidos en la web (Munoz
Vera & Elosegui Figueroa, 2011). Si bien Google Analytics dispone de herramientas
para medir el ratio de conversión sobre los objetivos, este se calcula en base a las
visitas y no en base a los usuarios únicos. Es importante hacer esta distinción a la hora
de interpretar resultados, pues un usuario único puede realizar varias sesiones y solo
en una de ellas completar el objetivo.
Para hacer uso de esta métrica tenemos que definir objetivos en Google Analytics. El
dueño del sitio web había definido algunos de estos pero su configuración no era la
adecuada para un blog. A principios de Octubre se definieron nuevos objetivos de la
siguiente forma:
- Interés del usuario
Número de usuarios que consumen más de un documento.
- Retención de usuarios
Número de usuarios que permanecen más de 25 segundos en el blog.
- Página de contacto
Número de usuarios que durante su sesión visitan la página de contacto.
- Página de autor
Número de usuarios que durante su sesión visitan la página del autor.
205
A continuación mostramos una tabla (Tabla 10) que muestra la evolución del
porcentaje de objetivos web alcanzados durante el proyecto final de carrera por
meses:
Mes Interés del
usuario
Retención de
usuarios
Página de
contacto
Página de
autor
Septiembre 7.53% 9.35% 0.38% 1.37%
Octubre 9% 10.91% 0.28% 1.10%
Noviembre 26.81% 24.34% 0.61% 1.06%
Media 15.66% 15.8% 0.44% 1.16% Tabla 10: Evolución del porcentaje de objetivos web
El informe sobre los resultados finales puede obtenerse a través del menú Audience –
Acquisition – All Traffic, en la pestaña Conjunto Objetivos 1. Mostramos una imagen
(Figura 87) extraída de Google Analytics que corrobora los datos anteriores.
Figura 87: Informe de adquisición de audiencia
KPI: Ratio de fidelización
Se conoce como ratio de fidelización al número de usuarios nuevos que son
necesarios para conseguir fidelizar uno (Munoz Vera & Elosegui Figueroa, 2011). La
fórmula que define el ratio de fidelización es la siguiente:
206
𝑹𝒂𝒕𝒊𝒐 𝑭𝒊𝒅𝒆𝒍𝒊𝒛𝒂𝒄𝒊ó𝒏 =𝑵° 𝑽𝒊𝒔𝒊𝒕𝒂𝒏𝒕𝒆𝒔 𝑵𝒖𝒆𝒗𝒐𝒔
𝑵° 𝑽𝒊𝒔𝒊𝒕𝒂𝒏𝒕𝒆𝒔 𝑹𝒆𝒄𝒖𝒓𝒓𝒆𝒏𝒕𝒆𝒔
Para medir el ratio de fidelización tendremos que conocer el número de usuarios
únicos que captamos. Esta métrica podemos encontrarla en el panel de Audience, una
vez aplicamos segmentos avanzados para distinguir entre visitas nuevas y visitas
recurrentes.
A continuación, mostramos una tabla (Tabla 11) con datos procedentes del sitio web
desdemiatalaya.com:
Mes Visitantes
Recurrentes
Visitas Nuevos Ratio
Fidelización
Septiembre 400 2244 5.61
Octubre 456 2434 5.33
Noviembre 652 2849 4.36 Tabla 11: Tabla con datos del sitio web desdemiatalaya.com
En esta tabla podemos apreciar la evolución del ratio de fidelización. Con ella
determinamos cuántos usuarios tenemos que conseguir para fidelizar a uno. Mientras
que en Septiembre era necesario captar 6 usuarios para fidelizar uno, en Noviembre la
cifra mejoró, fidelizando 1 de cada 4 usuarios.
KPI: Visitas hasta la conversión
Calcular el número de visitas que emplean los usuarios hasta convertir puede
ayudarnos a encontrar errores de navegación, falta de confianza del usuario o un
pobre diseño que no favorece la conversión de objetivos. También puede ayudarnos a
conocer el número de sesiones necesarias que el usuario necesita hasta la conversión.
Para calcular esta métrica se hace uso del informe que encontramos en Audience –
Behavior – Frequency & recency – Count of Visits (Kaushik, 2010). Emplearemos
207
este informe para conocer en qué visita se generó la conversión o la consecución de
un objetivo creado en Google Analytics. Para ello será necesario aplicar como
segmento avanzado el objetivo que queremos observar.
Mostramos a continuación un ejemplo (Figura 88) que nos indica el número de
sesiones que requiere la adquisición de un lead.
Figura 88: Informe para medir sesiones necesarias hasta la conversión
En la gráfica anterior (Figura 88) podemos observar que de las diez visitas que
terminaron en leads, seis de ellas se realizaron en la primera sesión, una en la segunda
y dos en la tercera. La sucesión de visitas no ayuda en la consecución de objetivos.
Si este sitio web fuera un blog, esta información sería suficiente para determinar que
la adquisición de leads está teniendo resultado. La generación de leads para blogs
suele estar en porcentajes de entre 2% - 15%, dependiendo del éxito del blog o de la
temática, de cómo y dónde se promociona el blog, de dónde se adquieren los usuarios
o de la audiencia.
208
4.4.3. Errores de medición
Google Analytics ofrece multitud de información sobre tráfico, comportamiento del
usuario, segmentos avanzados, etc. Si bien es una herramienta muy potente, gran
parte de las KPIs definidas en la literatura consultada durante el proyecto final de
carrera hacen referencia a usuarios únicos, mientras que Google Analytics realiza la
mayor parte de sus cálculos basados en visitas o sesiones; funciona a través del
procesamiento de datos agregados, es decir, las observaciones son transformadas en
estadísticas, por lo que no es posible el estudio de sucesos aislados. Otras
herramientas de analítica web permiten esto (por ejemplo, KissMetrics).
La evolución y crecimiento del uso de tablets y móviles y la imposibilidad de
identificar usuarios finales dificulta a su vez el cálculo de métricas.
A continuación mostramos algunos ejemplos de mediciones que son imposibles de
realizar a través de la herramienta de Google Analytics debido a la naturaleza del
cálculo de sus mediciones:
Usuarios Nuevos: para aquellos usuarios que realicen navegación multiscreen
(es decir, empleando múltiples dispositivos electrónicos), cada uno de estos
serán contabilizados como usuarios nuevos. No existe la identificación cross-
device.
Usuarios Únicos: para aquellos usuarios que realicen navegación multiscreen,
se identificará cada uno de los dispositivos electrónicos empleados para
consultar información como usuarios únicos.
Visitor loyalty: obtener el número de veces que un usuario visita un sitio web
resulta difícil o impreciso dado que se contabilizan las visitas como un cálculo
agregado.
Recency: medir la frecuencia de las visitas por usuario no es actualmente
posible. No existe informe que identifique a los usuarios de forma unívoca y
209
nos permita saber el número de sesiones o visitas que realizó en un periodo de
tiempo especificado.
4.4.4. Conclusiones
Google Analytics se presenta como la herramienta por excelencia para controlar qué
sucede en un sitio web. Durante la realización del proyecto final de carrera se ha
hecho uso de esta herramienta principalmente para conocer la evolución sobre la
captación de usuarios desde distintos canales.
Esto nos permitió conocer que las técnicas empleadas en la optimización de
contenidos consiguieron aumentar el volumen de visitas que capta el sitio web, tanto
el procedente desde los motores de búsqueda como el procedente de las redes
sociales.
Los análisis sobre el número de impresiones que recibe el sitio web en la lista de
resultados, así como el número de clics que documenta el informe Adquisición /
Optimización en buscadores nos hacen dudar sobre la exactitud de los datos
adquiridos. Estos datos no concuerdan con las cifras obtenidas que muestra el panel
Adquisición / Todo el tráfico / Canales / Organic Search.
4.5. Google AdWords
Google AdWords es el programa de anuncios online ofrecido por Google. Permite
patrocinar sitios web a través de distintas modalidades de anuncios y distintas redes
(Google AdWords, 2013). Funciona mediante la definición de keywords. Las
keywords son las palabras o frases que el anunciante elige para conectar con los
usuarios.
Los anuncios promocionados a través de Google AdWords optan a ser impresos para
aquellos usuarios que realizan búsquedas relacionadas con las keywords especificadas
por los anunciantes o bien en sitios web cuya temática está relacionada con ellas.
210
La impresión de los anuncios funciona bajo un sistema de subastas y pujas (Google
AdWords, 2014). Éstas son realizadas en tiempo real. Si varios anunciantes pujan por
la misma palabra o el mismo espacio, Google determina cuál se imprime y el orden de
estos mediante la métrica Ad Rank.
El Ad Rank es una combinación conjunta del máximo valor dispuesto a pagar por el
anunciante por la consecución de un clic (conocido como máximo CPC) y el quality
score (Google AdWords, 2013) .
Se conoce como quality score a la medida que califica la calidad de las keywords
seleccionadas, la calidad del anuncio en base a click-through-rate (abreviado como
CTR) para la posición conseguida, la calidad de la landing page así como otros
factores no dados a conocer (Google AdWords, 2013).
AdWords funciona para diferentes redes. Los anuncios pueden ser visualizados por los
usuarios que realizan búsquedas en Google Search o bien por los usuarios mientras
navegan entre páginas web (Google AdWords, 2013). El primero de los casos hace
mención hacia lo que se conoce como Search Network. La segunda red se conoce
como Google Display Network. En este segundo caso, si las pujas se realizan
empleando la opción cost-per-thousand impressions (abreviado como CPM), el
quality score se determina únicamente midiendo la calidad de la landing page.
En la siguiente sección mostraremos los conceptos básicos sobre el funcionamiento de
Google AdWords, cómo crear campañas, cómo realizar listas de remarketing, cómo
acotar la audiencia así como algunas de las posibilidades que Google AdWords ofrece
para actuar sobre las subastas y personalización de pujas. También veremos cómo
manejar herramientas para planificar las campañas en la Search Network así como en
la Display Network.
4.5.1. Principios básicos y funcionamiento
En esta sección se tratarán los principios básicos para entender la creación de
campañas y las diferentes redes a las cuales se tiene acceso desde Google AdWords.
Explicaremos cómo manejar eficientemente los anuncios a través de ad groups, cómo
211
emplear las keywords, veremos el funcionamiento de las subastas y cómo Google
AdWords determina la máxima cantidad a pagar en cada subasta.
Network
Se conoce como Google Network a la red de recursos donde Google AdWords puede
mostrar anuncios (Google AdWords, 2013). Esta red está formada por sitios web que
tienen acuerdos con Google, aplicaciones móviles, Google Search así como otros
servicios proporcionados por Google como Gmail, YouTube, grupos de Google, etc.
A la hora de crear una campaña publicitaria empleando AdWords es necesario
especificar el tipo de red a emplear. Google Network puede separarse en dos tipos de
redes diferenciadas por los sitios donde pueden mostrar anuncios.
La red Display Network, también conocida como Content Network, forma parte de la
red Google Network. Forman parte de ella todos los sitios web donde Google
AdWords puede añadir contenido, incluyendo Gmail, YouTube o Blogger entre otros
(Google AdWords, 2013).
Se conoce como Search Network al grupo de buscadores donde los anuncios de
Google AdWords pueden aparecer, incluyendo Google Search así como Shopping,
Maps, Images o partners de Google como AOL (Google AdWords, 2013).
Tipos de Campaña
Google AdWords ofrece la posibilidad de crear diferentes tipos de campaña. La red de
AdWords provee una serie de campañas sobre las que distribuir los anuncios. A
continuación mostramos un cuadro resumen de los tipos de campañas existentes y las
redes donde éstas pueden actuar (Google AdWords, 2013).
Search Network Search & Display
Network
Display Network
212
ALL FEATURES
STANDARD
MOBILE APS
REMARKETING
PRODUCT
LISTING
DYNAMIC ADS
Para obtener mayor información sobre las posibilidades que cada una de éstas ofrece,
así como de sus características, se puede consultar la página de soporte de AdWords.
Ad groups
Se conoce como ad groups, al elemento básico de trabajo de Google AdWords. Estos
nos permiten agrupar palabras clave, aplicando a todas ellas la misma configuración,
es decir, facilitando la gestión de estas (Google AdWords, 2014).
Cada ad groups puede contener uno o varios anuncios, empleando todos las mismas
palabras clave. Si determinamos que ciertas palabras clave atraen un tráfico de buena
calidad (es decir, un tráfico que convierte en nuestro sitio web), es posible redefinir el
CPC máximo a nivel de palabra clave (la puja máxima a pagar por el clic del usuario
en el anuncio) (Google AdWords, 2014).
A continuación podemos observar un ejemplo de ad group (Figura 89), donde se ha
definido un máximo CPC para todas las palabras clave, y redefinido una puja
superior para aquellas palabras clave que tienen un mejor rendimiento:
213
Figura 89: Ad Group con redefinición de puja para keywords específicas
Keywords
Se conocen como keywords o palabras clave a la representación más sencilla
empleada por Google AdWords para identificar y emparejar anuncios con las
búsquedas realizadas por los usuarios o con los sitios webs relacionadas que
establezcan alguna relación con las keywords.
Dependiendo del tipo de red seleccionada, las keywords serán empleadas de forma
diferente (Google AdWords Support, 2014). Si la red elegida es Google Search and
search partner sites, las keywords seleccionadas tendrán que ser relevantes para los
términos que los usuarios emplean al realizar las búsquedas. Como veremos a
continuación, en el caso de usar la Google Search Network es recomendable emplear
keywords relacionadas con los términos de búsqueda de los usuarios.
En caso de que la red seleccionada sea Google Display Network, estas keywords
sirven para identificar los sitios web que están relacionados con la misma temática. Si
conocemos bien a nuestra audiencia, Google AdWords nos permite especificar sitios
webs concretos donde lanzar nuestras campañas de anuncios. También es posible
centrar las campañas en base al interés de los usuarios o en base a categorías
predefinidas por Google AdWords (Google AdWords Support, 2014).
214
Anuncios
Los anuncios (también conocidos como ads) conforman la interfaz a través de la cual
trataremos de cumplir nuestros objetivos publicitarios. Se definen a nivel de ad group.
A través de estos pueden manejarse varios anuncios aunque deberán fomentar un
único dominio por ad group.
Existen diferentes tipos de formatos a través de los cuales se puede intentar seducir al
usuario para conseguir el clic.
La elección del tipo de campaña determina los formatos de ads disponibles (Google
AdWords, 2013). A continuación se muestra un grafo (Figura 90) con los tipos de
campaña y los formatos que estos permiten:
Figura 90: Formatos de anuncios disponibles por tipo de campaña en AdWords
De entre los formatos soportados encontramos: texto, imágenes, extensiones, wap,
descarga de apps, videos y lista de productos. Dependiendo del tipo de red, los
anuncios serán visualizados por un tipo diferente de usuario. Es decir, si
seleccionamos el formato imagen bajo la campaña Search Network Only – All
features estos serán mostrados en Google Image Search. Por el contrario, si
215
seleccionamos el mismo formato de imagen bajo Display Network Only – All features
el anuncio será mostrado en websites en lugar de Google Image Search.
Funcionamiento de las subastas
Google Adwords funciona a través de un proceso de subastas. Nos permite establecer
límites sobre el máximo presupuesto disponible del cual puede hacerse uso
diariamente por campaña (Google AdWords, 2014). A continuación expondremos el
funcionamiento de las subastas y cómo se determina el valor final a pagar en cada una
de ellas.
Si se emplea la red Search Network, con cada búsqueda que se realiza, Google
procesa la información para decidir que ads mostrar. Google determinar si las
keywords están relacionadas con la búsqueda realizada por el usuario. En caso
afirmativo, el ad es considerado para entrar en la subasta .
El sistema ignorará aquellos anuncios que no cumplan con ciertos requisitos sobre los
que tenemos control, tales como localización, país, etc. De los anuncios que han sido
seleccionados para entrar en la puja, se emplea la métrica Ad Rank (combinación del
máximo CPC y el quality score) para determinar cuáles serán mostrados, así como el
orden de éstos (Google AdWords, 2014).
Desde AdWords se enfatiza que si el quality score es suficientemente alto comparado
con los anuncios contra los que se compite, es posible la adquisición de una mejor
posición incluso cuando nuestra puja es inferior (Google AdWords, 2014).
El precio máximo a pagar por un clic se conoce como máximo CPC (Google
AdWords, 2014) . Google AdWords tiene en cuenta este valor para conocer la máxima
cantidad que estamos dispuestos a pagar para superar a otros anunciantes.
El precio que se paga por clic se denomina actual CPC (Google AdWords, 2014) . El
actual CPC se define como la mínima cantidad que es necesaria pagar por batir el Ad
Rank del anuncio que se encuentra por encima del nuestro.
216
En la red Search Network, el actual CPC se determina como el valor mínimo a pagar
para posicionar nuestro anuncio por encima del anuncio de nuestro competidor.
En la Display Network, el precio del clic se determina de forma diferente. Existe el
concepto de incremental clics. Hace referencia a la diferencia en el número clics que
consigue un anuncio por el mero hecho de aparecer en una mejor posición. En esta
red de anuncios, el actual CPC se determina como la media de las pujas a pagar para
superar al anuncio que se encuentra encima por encima.
A continuación vamos a explicar cómo funciona el sistema mediante dos ejemplos
proporcionados por Google AdWords (Google AdWords Support, 2014):
Subasta para un único Ad Unit
En este ejemplo existe únicamente un único lugar para posicionar el anuncio. Todos
los anunciantes disponen del mismo quality score (Tabla 12).
Anunciante Max CPC Bid Quality Score Muestra de Ad
Alice 5€ 10 SI
Bob 3€ 10 NO
Charlie 1€ 10 NO Tabla 12: Subasta para anuncio único
Bajo estas condiciones, Alice sería la única en imprimir su anuncio, debido a que en
igualdad de condiciones, su puja está por encima de la del resto de competidores.
El actual CPC es el importe a pagar para batir a su competidor (Google AdWords
Support, 2014). En este caso Bob tiene establecido una puja máxima de 3€, por lo que
Alice tendría que pagar por cada clic conseguido en esta subasta 3.01€.
Subasta para dos Ads Unit
217
En el caso de que exista más de un lugar donde posicionar los anuncios, Google
AdWords hace uso de métricas como el CTR por posición, de forma que pueda
cuantificar cuánto favorece a los anunciantes la adquisición de una posición más
visible (Google AdWords Support, 2014).
Anunciante Max CPC
Bid
Quality
Score
Muestra de
Ad
CTR por
posición
Alice 5€ 10 SI 3.0 %
Bob 3€ 10 SI 1.0 %
Charlie 1€ 10 NO NA Tabla 13: Subasta para dos anuncios
En estas subastas (Tabla 13), el actual CPC para Bob es aquel que le permite batir a
Charlie, resultando en 1.01€ por clic. El caso de Alice es diferente. En este caso se
calculará el actual CPC en función de los incremental clics conseguidos debidos a su
ventaja por posicionamiento así como en base al actual CPC de Bob. Este se aplicará
únicamente para aquellos clics que también hubiese conseguido sin disponer de una
posición privilegiada (Google AdWords Support, 2014).
Para el siguiente ejemplo vamos a suponer que Alice consigue 9 clics. Si observamos
la anterior tabla, Alice consigue tres veces más clics que Bob. Si comparamos la
primera con la segunda posición, dos tercios de los clics conseguidos por Alice son
ganados gracias a su mejor posicionamiento. Estos clics se contarán como
incrementales. El tercio restante será considerado con respecto al actual CPC de Bob,
dado que Alice habría podido conseguir ese tercio si se hubiese encontrado en la
segunda posición igualmente (Google AdWords Support, 2014).
De esta forma, los costes a pagar por Alice se calcularían de la siguiente forma:
Clics CPC Total cost
218
3 1.01€ (actual CPC de Bob) 3.03€
6 3.01€ (máximo CPC de Bob) 18.06€
Total: 9 Actual CPC: 2.34 € Tabla 14: Cálculo de costes de anuncios
Por tanto, el actual CPC que Alice paga por cada clic se calcula como la media del
CPC, que en la tabla anterior(Tabla 14) se determinó como 2.34 €.
Conocido cómo se calcula el coste de cada clic, en el siguiente apartado explicamos
cómo definir la audiencia que recibe el anuncio.
4.5.2. Definición del público objetivo
Durante la creación de campañas puede hacerse uso de filtros. Estos filtros nos
permiten dirigir las campañas hacia un público específico. Las opciones disponibles
para definir el público objetivo dependen de la campaña seleccionada.
A continuación mostramos una tabla resumen (Tabla 15) que especifica los filtros
posibles a emplear en las campañas de Google AdWords, en función de la red
seleccionada (Google AdWords, 2014):
Google Search
Basado en palabras clave
Permite mostrar los anuncios únicamente a aquellos
usuarios que introducen términos de búsqueda
relacionados con nuestras palabras clave.
Localización e idioma
Permite mostrar anuncios a los usuarios, en base a la
localidad donde se encuentran o al idioma.
Dispositivo
219
Permite centrar los anuncios a usuarios que hacen uso de
un dispositivo en concreto (móvil, tableta u ordenador),
pudiendo planificar cuando mostrarse (día y hora).
Google Display
Network
Basado en palabras clave
Permite mostrar el anuncio en sitios web relevantes para
las palabras claves que definen el producto.
Basado en temática
Permite mostrar el anuncio en sitios web relacionados
con la temática elegida.
Contextual
Permite mostrar el anuncio en sitios web relacionadas
con las palabras clave o temática elegidas.
Basado en dominio
Permite mostrar el anuncio en sitios web específicos, por
dominios o subdominios.
Tipo de audiencia
Permite mostrar anuncios en base a la audiencia en la
que estemos interesados en alcanzar. Mediante las
campañas de remarketing podemos alcanzar a los
usuarios en función de la actividad que han realizado en
el sitio web.
Dispositivo
Tal y como se definió en Google Search, este tipo de
anuncios permiten alcanzar a los usuarios en función del
dispositivo del que hacen uso.
Tabla 15: Filtros disponibles para campañas de AdWords
220
Los filtros se establecen a nivel de ad group. Google Adwords permite la aplicación
de varios a la vez. La aplicación de varios filtros limita el público que accede a estos,
aunque puede mejorar los porcentajes de conversión. En el siguiente apartado
veremos cómo configurar las pujas, permitiéndonos seleccionar un público objetivo
específico mediante la combinación de filtros.
4.5.3. Creación de Campañas
La creación de campañas en Google AdWords requiere estar registrado en Google
AdWords y haber configurado el método de pago. Una vez estamos dados de alta,
enumeraremos los pasos a seguir para la creación de campañas publicitarias en la
plataforma Google AdWords:
• Configuración de campaña: se conoce como campaña al conjunto de ad
groups que comparten un mismo tipo de campaña (Display & Search
Networks, Search Network only o Display Network only), localización, idioma,
así como presupuesto diario.
• Configuración de ad groups: Estos nos permitirán definir las keywords, la
personalización de pujas así como la creación de anuncios. Cada ad group
puede contener uno o más anuncios.
• Configuración de los anuncios o ads: Selección del formato de anuncio y
adición de textos, imágenes o videos que lo componen. Definición de
dirección web a mostrar. Cada ads o anuncio pertenece a un ad group.
• Configuración de la audiencia objetivo: Selección del tipo de usuario para el
cual se imprimirá el anuncio. Dependiendo del tipo de red seleccionado la
audiencia puede definirse para usuarios que ya visitaron la web, para aquellos
que visitan sitios web específicos o relacionados con una temática entre otras
opciones.
221
4.5.4. Campañas de remarketing
En este apartado expondremos cómo implementar campañas de remarketing en la
plataforma Google AdWords. Estas campañas se caracterizan por enfocarse en
usuarios que previamente han visitado nuestro sitio web.
Google AdWords implementa este tipo de campañas haciendo uso de listas de
remarketing. Estas listas almacenan las cookies de los visitantes. Mediante el
almacenamiento de estas cookies, Google AdWords es capaz de identificar los grupos
de usuarios que han acudido con anterioridad al sitio web (Google AdWords Support,
2014).
Etiqueta de Remarketing
Para poder centrar una campaña de Google AdWords en una audiencia que ya visitó
nuestro sitio web, es necesario añadir la etiqueta de remarketing al sitio web. La
obtención de esta etiqueta se encuentra en la sección Shared library – Audiences
(Google AdWords Support, 2014).
Una vez obtenida, esta debe de situarse en algún elemento HTML compartido por
todos los documentos web (como puede ser el footer de la web), aunque también será
posible ponerlo únicamente páginas específicas.
Una vez se ha insertado este en la web, podemos crear listas de remarketing. Estas
listas serán las que capturen las cookies de los usuarios, permitiendo a Google
AdWords determinar si los usuarios visitaron con anterioridad el sitio web.
Creación de listas
Si visitamos el panel Audiences, podemos observar cómo se ha creado una lista
denominada All visitors. Esta lista se crea por defecto con la creación de la etiqueta de
remarketing (Google AdWords Support, 2014). Desde este panel es posible comenzar
222
la creación de listas de remarketing basadas en las direcciones web (de nuestro propio
dominio) por las que el usuario navega.
Existe la posibilidad de añadir parámetros personalizables a las listas. Esto nos
permite controlar el valor de las pujas. Para ello es necesario la adición de pares key-
value que definan qué se mide y cuál es su valor (Google AdWords Support, 2014).
Un ejemplo de campaña usando la personalización de parámetros en las listas de
remarketing nos podría permitir enfocar nuestras campañas en usuarios que visitaron
artículos de más de un valor predefinido.
Restricciones para el uso de listas de remarketing
Una vez definidas las listas, será necesario recopilar un mínimo de cookies antes de
poder comenzar las campañas de remarketing. Asegurando un mínimo de cookies,
Google AdWords es capaz de proteger la privacidad y mantener el anonimato de los
usuarios (Google AdWords Support, 2014). El mínimo número de cookies depende de
la red donde vayamos a lanzar la campaña.
Si empleamos la Display Network deberá existir un mínimo de cien cookies (en los
últimos 30 días) antes de comenzar a imprimir ads (Google AdWords Support, 2014).
Si se hace uso de la red Search Network será necesario la recopilación de un mínimo
de mil cookies (Google AdWords Support, 2014).
Creación de campaña de remarketing
En este apartado mostraremos un ejemplo de cómo configurar una campaña centrada
en usuarios que visitaron nuestro sitio web, descargaron la información sobre los
servicios o la información de presentación de nuestra empresa pero no nos
proporcionaron sus datos (no generaron leads).
Para nuestro ejemplo será necesario la creación de tres tipos de listas:
- Lista para los usuarios que descargaron el archivo de presentación.
- Lista para los usuarios que descargaron la hoja de servicios.
223
- Lista para los usuarios que terminaron en leads.
Gracias al conjunto de listas definido anteriormente seremos capaces de crear una
lista de remarketing combinada. Esta lista nos permitirá alcanzar a los usuarios que se
descargaron alguno de archivos pero no nos proporcionaron su dirección web.
En la imagen siguiente (Figura 91) podemos observar el uso de operaciones OR y
NOT sobre las listas definidas anteriormente:
Figura 91: Personalización de listas
Una vez definida nuestra lista combinada, es necesario la creación de una campaña
cuya audiencia objetivo sea la lista que acabamos de definir.
En la siguiente sección veremos cómo optimizar las pujas, lo que nos permitirá
controlar la audiencia a la que exponemos nuestros anuncios.
4.5.5. Optimización de pujas
La herramienta Google Adwords permite la personalización de pujas. Con ello es
posible modificar el máximo CPC en base a las palabras clave o a la audiencia que
consideremos de mayor importancia para nuestro negocio.
224
El objetivo perseguido con la modificación del máximo CPC es incrementar las pujas.
Incrementando estas podemos mejorar las posibilidades de mostrar las campañas al
público más rentable. También es posible reducir estas para el público que es menos
rentable.
Existen diferentes métodos empleados en Google AdWords para modificar el máximo
CPC. A continuación, explicamos los diferentes tipos de pujas existentes (Google
AdWords Support, 2013):
Puja por defecto: Nos permiten fijar un precio en las pujas a nivel de ad group.
Este será el empleado por Google AdWords en caso de que no existan pujas
personalizadas.
Puja personalizada: Las pujas personalizadas son aquellas que nos permiten
modificar el máximo CPC o CPM por palabras clave, temática, interés del usuario,
etc. Estas pujas difieren entre sí en función de la red en la que nos encontremos.
Si estamos trabajando con una campaña de la Search Network, para hacer uso de
pujas personalizadas tendremos que definir la audiencia objetivo. Marcando la
opción Target and bid podremos filtrar la audiencia a la vez que personalizar las
pujas para esta (Google AdWords Support, 2013).
Si estamos trabajando con una campaña perteneciente a la Display Network,
haciendo uso de la opción Targeting podremos definir la audiencia a la que
dirigimos la campaña (Google AdWords Support, 2014). Mediante la opción
Target and bid filtramos la audiencia, pujando únicamente por aquellos que reúnan
los requisitos establecidos (Google AdWords Support, 2014).
Mostramos una imagen (Figura 92) sobre el público objetivo al que dirigimos
nuestras campañas cuando hacemos uso de la opción Target and bid para palabras
clave, intereses y edad:
225
Figura 92: Herramienta de Google AdWords para especificar el público objetivo
El público que recibe el anuncio es aquel que cumple todos los requisitos
especificados. Mientras más filtros establezcamos, menos será la audiencia a la que
optemos. El uso de Target and bid nos permite personalizar las pujas para
cualquiera de los filtros establecidos (Google AdWords Support, 2014).
En la siguiente imagen (Figura 93) podemos observar cómo se ha incrementado el
máximo CPM a 6€ para la audiencia que muestra interés en páginas relacionadas
con Business Plans & Presentations. Para los usuarios que navegan por sitios web
relacionadas con Outsourcing, Tax preparation & Planning o Consulting, las pujas
serán de 5€ por cada mil impresiones.
226
Figura 93: Personalización de puja CPM
Pujas Condicionales: Este tipo de pujas nos ayudan a aumentar el público que
recibirá los anuncios. Contraria a Target and bid, Google AdWords ofrece la
opción bid only como medio para realizar pujas condicionales. Esto nos permitirá
realizar pujas sobre la audiencia que presenta un valor extra para la empresa
(Google AdWords Support, 2014).
En la siguiente imagen (Figura 94) podemos observar un ejemplo de cómo
podemos centrar nuestra campaña en un público interesado en la temática business
services o business operations.
227
Figura 94: Puja condicional en Google AdWords
Como podemos observar en la imagen (Figura 94), hemos hecho uso de la opción
bid only para aquella audiencia que está interesada en Consulting o en usuarios que
no convirtieron en nuestro sitio web.
Si observamos el diagrama de Venn de la figura anterior (Figura 94), en azul se
representa la audiencia objetivo, es decir, la audiencia que recibirá la campaña.
Mediante el uso de la opción bid only, ahora somos capaces de incrementar o
decrementar nuestras pujas únicamente para aquellos usuarios están interesados en
Consulting o Interesados que no convirtieron (Figura 94).
Este tipo de pujas suele emplearse para incrementar las pujas para aquellos
usuarios los cuales son más propensos a comprar en nuestro sitio. Este
conocimiento se adquiere estudiando el perfil de usuario que convierte en el sitio
web.
Pujas condicionales multiscreen: En caso de que nuestro negocio disponga de una
tienda física, deberemos intentar capturar el máximo tráfico móvil posible. Esto es
debido a que las búsquedas iniciadas por los usuarios a través de móviles terminan
228
en acción (llamada a la tienda o visita) en un margen de veinticuatro horas desde la
búsqueda (Spero, 2012). Es decir, captar el tráfico móvil es captar tráfico que
busca dónde finalizar la conversión. Para gestionar pujas multiscreen, Google
AdWords dispone de la opción de ajuste de pujas (Google AdWords Support,
2013).
El ajuste de pujas indica el porcentaje a incrementar las pujas. Esto puede aplicarse
sobre diferentes opciones, siendo una de ellas sobre los dispositivos móviles. Este
incremento se realiza sobre el máximo CPC o CPM determinado (predefinido o
personalizado).
En la siguiente imagen (Figura 95) podemos observar cómo es posible realizar un
ajuste en nuestras pujas para tráfico móvil:
Figura 95: Incremento del máximo CPC para usuarios móviles
4.5.6. Conclusiones
Google AdWords es una herramienta de promoción que nos permite promocionar un
sitio web cuando los usuarios se encuentran realizando búsquedas o navegando entre
sitios web. Debido a la cantidad de sitios web afiliados a Google AdSense, Google
AdWords dispone de una amplia red de contenidos. Dispone de opciones para la
promoción de campañas, tanto enfocadas en el contexto del sitio web como aquellas
que buscan un tipo particular de visitante. El alto grado de personalización que
permiten las pujas es una de las características que pueden ayudar más a los
anunciantes, haciendo mas efectivas el CPC y el CPM.
229
Capítulo 5:
Caso práctico
En este capítulo expondremos el trabajo desarrollado para posicionar el blog
desdemiatalaya.com. El blog cuenta con mas de 400 artículos y está creado bajo la
plataforma de Blogger. El número de usuarios con los que cuenta ha crecido en los
últimos años, pero la audiencia a la que llega sigue siendo reducida. El objetivo es
incrementar las visitas al blog, incrementar la audiencia y posicionar sus artículos.
El capítulo está dividido en varias secciones donde exponemos el trabajo
desarrollado. Las secciones que encontramos son:
-‐ Optimizaciones para la indexación
En este apartado exponemos los protocolos empleados para mejorar la
indexación de contenido y evitar la duplicación de artículos.
-‐ Optimizaciones web
En este apartado se exponen los cambios realizados en el sitio web desde un
punto de vista SEO. Comprende la aplicación de técnicas mencionadas en el
capítulo dedicado a SEO.
-‐ Estrategias de posicionamiento
En este apartado exponemos las estrategias empleadas para el posicionamiento
de artículos mediante el uso de head terms y long-tail keywords.
-‐ Estrategias de Link Building
230
En este apartado exponemos las estrategias desarrolladas para la adquisición
de enlaces.
-‐ Generación de leads
En este apartado exponemos las principales estrategias desarrolladas por el
sitio web para la adquisición de leads. La adquisición de leads permitirá
incrementar la audiencia y la visibilidad del blog. Con ella, el blog dispondrá
de un medio directo para realizar campañas de marketing por e-mail.
5.1. Optimizaciones para la indexación de contenido
En el primer capítulo definíamos el indexador como el componente del motor de
búsqueda encargado de guardar información en estructuras que permitieran un rápido
acceso. También expusimos un conjunto de técnicas para controlar el contenido a
indexar.
En esta sección haremos uso de algunas de estas técnicas comentadas en el primer
capítulo. Estas técnicas nos ayudarán a evitar indexar contenido duplicado generado
por la plataforma en la cual se sustenta el blog Desdemiatalaya.
5.1.1. Duplicación de contenido en Blogger
La plataforma Blogger es una plataforma de creación de bitácoras. Los usuarios
disponen de control para crear, editar, borrar y publicar artículos. Cuando los usuarios
publican artículos, estos se hacen accesibles desde diferentes direcciones web dentro
del mismo dominio.
Disponer del mismo artículo bajo diferentes direcciones web es una de las prácticas
desaconsejadas por los principales motores de búsqueda. Cuando estos encuentran
contenido duplicado, seleccionan de entre las direcciones web la que consideran mas
relevante. Esta puede no ser la que nosotros queremos como webmasters del sitio
web.
231
La duplicación de contenidos web en la plataforma Blogger se hace presente en:
-‐ Página principal
Todo artículo publicado se sitúa en la página principal. Blogger ofrece
opciones para limitar el número de artículos a mostrar en esta página, así
como opciones para limitar el contenido de los artículos que muestra.
-‐ Páginas de Archivos
La plataforma Blogger archiva los artículos en base al mes y año en la que
fueron publicados. Cuando los usuarios acceden a la página de archivos,
encuentran todos los artículos publicados en ese mes. Además, este tipo de
páginas no permiten la personalización de título o meta descripciones que tan
importantes son para los buscadores.
-‐ Páginas de Etiquetas
Las etiquetas permiten categorizar la temática del artículo. Esto permite a los
usuarios acceder a artículos basados en una temática en concreta. Al igual que
sucedía con las páginas de archivos, este tipo de páginas no permite la
personalización de títulos o meta descripciones.
En el presente proyecto, el blog desdemiatalaya.com no disponía de control sobre el
contenido duplicado. Para las búsquedas introducidas por los usuarios, eran los
buscadores los que decidían, de entre las direcciones con el mismo contenido, cuál
mostrar en la lista de resultados.
Si bien el blog no fue penalizado por duplicación de contenido (no cuenta con
notificación por parte de Google), la duplicación afectaba a la adquisición de
232
usuarios. Los porcentajes de clics recibidos desde los buscadores para páginas
archivadas frente a páginas de artículos presentan grandes diferencias.
Cuando las páginas de archivos aparecen en la lista de resultados, adquieren el 2.69%
de los clics. Podemos ver estos datos en la siguiente imagen (Figura 96):
Figura 96: Gráfica mostrando el CTR para artículos archivados
Cuando las páginas de artículos aparecen en los motores de búsqueda, estos consiguen
un porcentaje de clics del 4.67%. En la siguiente imagen (Figura 97) podemos
observar estos resultados:
Figura 97: Gráfica mostrando el CTR para artículos no archivados
233
Ante una búsqueda, los motores de búsqueda muestran la dirección web que creen
más conveniente de entre los contenidos duplicados. Haciendo uso de la analítica
web, conocemos que los artículos publicados consiguen captar mayor número de
usuarios que las páginas archivadas.
Controlar el contenido a mostrar en la lista de resultados, en este caso particular, tiene
un impacto directo en la adquisición de tráfico desde los motores de búsqueda. La
aparición de artículos con títulos y descripciones personalizados consigue mejorar la
captación de usuarios desde los motores de búsqueda hasta en un 73.6% con respecto
a las páginas archivadas.
En el apartado siguiente exponemos cómo hemos procedido para controlar la
duplicación de contenidos en la plataforma Blogger.
5.1.2. X-Robots-tag
Para resolver el problema de duplicación de contenidos de artículos archivados y
páginas etiquetadas en la plataforma Blogger, realizamos los siguientes ajustes en el
panel de administración de Blogger. Estos pueden encontrarse bajo la sección
Configuración / Preferencias para motores de búsqueda.
Con el objetivo de evitar indexar artículos archivados, seleccionamos las siguientes
opciones en Archivo y páginas de búsqueda: noindex; noarchive; nosnippet;
noimageindex;
A continuación mostramos una imagen (Figura 98) con las opciones mencionadas
anteriormente.
234
Figura 98: Panel de configuración en la plataforma Blogger
La respuesta que ofrece Blogger cuando se realiza una petición a una de las páginas
archivadas es la siguiente (Figura 99):
Figura 99: Respuesta Http para página archivada
Cuando los crawlers o robots recuperan artículos archivados, reciben en el header de
la petición Http la etiqueta X-Robots-Tag con los valores noindex, noarchive,
nosnippet, noimageindex. Estos valores informan al indexador para que no muestre
resultados en cache, no indexe imágenes ni contenido y tampoco muestre
descripciones en la lista de resultados para estas páginas.
235
Mediante el uso de este tag y las opciones especificadas, hemos sido capaces de
controlar la presentación de contenido duplicado en la lista de resultados de los
motores de búsqueda.
5.1.3. Robots.txt
Blogger hace uso del archivo robots.txt como medio para evitar mostrar contenido
etiquetado en la lista de resultados. En la imagen siguiente (Figura 100) podemos
observar cómo el archivo robots.txt es usado para deshabilitar el escaneo de contenido
en páginas con etiquetas (páginas que contienen la dirección web /search ).
Figura 100: Robots.txt empleado en el blog desdemiatalaya.com
El problema es que el uso del protocolo robots.txt actúa sobre el crawler y no sobre el
indexador. El resultado podemos verlo en la siguiente imagen (Figura 101), donde el
contenido se muestra indexado en el motor de búsqueda de Google aunque no se
muestra descripción para este.
Figura 101: Artículo sin meta descripción bloqueado por protocolo Robots.txt
236
El uso de la cabecera X-Robots-tag comentada en el anterior apartado nos ayudará a
terminar con estos resultados. A medida que los crawlers vayan visitando las páginas
etiquetadas, la etiqueta X-Robots-tag será recuperada. Debido a que especificamos
noindex, este tipo de resultados sin descripción irá desapareciendo de la lista de
resultados de Google.
5.2. Optimización Web
En este apartado expondremos las optimizaciones SEO llevadas a cabo en el blog
desdemiatalaya.com. Para medir la efectividad de nuestras acciones se hizo uso de la
herramienta WebCEO y Google Analytics principalmente.
WebCEO es una herramienta online desarrollada para la optimización de contenidos
que buscan posicionamiento web. Dispone de herramientas para investigar las
palabras clave usadas por los usuarios, estudiar la competencia, optimizar el
contenido web o conocer el posicionamiento de nuestros documentos para un
conjunto de palabras clave especificadas.
Google Analytics, por su parte, es una herramienta online que nos proporciona
información sobre el comportamiento del usuario, la audiencia que recibe el sitio web
o la procedencia del tráfico. Permite también la posibilidad de definir objetivos web
entre otras muchas funciones.
A continuación, exponemos los cambios realizados en el sitio web con el objetivo de
posicionar los artículos en Google y aumentar el tráfico de usuarios.
5.2.1. Títulos
Los títulos de los artículos eran mostrados en los motores de búsqueda bajo el
formato:
<Título del blog> | <Título del artículo>
237
Debido a restricciones impuestas por los motores de búsqueda, los títulos con una
extensión superior a 70 caracteres no se visualizan completamente en la lista de
resultados.
El formato empleado por el blog hacía uso de 20 caracteres de forma fija (los relativos
al título del blog “Desde mi Atalaya”), dejando únicamente 50 caracteres para
representar el título del artículo.
Con el objetivo de aumentar el porcentaje de clics, se procedió a realizar cambios en
la plantilla de Blogger para otorgar mayor importancia a los títulos de los artículos
frente al título del blog.
El formato de títulos pasó a ser:
Título del artículo | Título del blog
Con este cambio el usuario recibe mayor información sobre el contenido que
encontrará desde la lista de resultados mostrada por los motores de búsqueda.
A continuación presentamos un ejemplo (Figura 102) de cómo quedan los títulos
después de haber realizado las modificaciones pertinentes:
Figura 102: Lista de artículos del blog Desdemiatalaya.com
238
5.2.2. Direcciones web
La plataforma Blogger genera una dirección web para cada artículo publicado. Por
defecto, esta dirección web emplea el título del artículo. Blogger ofrece la posibilidad
de personalizar la dirección web.
Debido al desconocimiento por parte del cliente de las prácticas SEO y de la propia
plataforma Blogger, las direcciones web no habían sido personalizadas. Tampoco se
habían introducido palabras clave en estas.
Como consecuencia, el blog dispone de artículos con direcciones web complicadas,
frases sin terminar, textos poco descriptivo o sin palabras clave.
A continuación mostramos algunos ejemplos (Figura 103):
Figura 103: Lista de artículos con direcciones web faltas de contexto
Como podemos observar, las direcciones web de los anteriores artículos pierden las
palabras clave:
www.desdemiatalaya.com/…/distribucion-‐alimentaria-‐hablemos-‐de.html
www.desdemiatalaya.com/2014/06/emprendedor-‐pasos-‐previos-‐para.html
El cliente fue informado sobre las recomendaciones y buenas prácticas promovidas
por expertos en SEO. Como vemos en la siguiente imagen (Figura 104), las
direcciones web son mas limpias, descriptivas y emplean las palabras clave
seleccionadas por el cliente.
239
Figura 104: Lista de artículos con direcciones web descriptivas
Las direcciones web de los siguientes artículos hacen uso de palabras clave como
“campaña de navidad”, “costco”, “dealz madrid”, quedando de la siguiente forma:
http://www.desdemiatalaya.com/2014/11/campana-‐de-‐navidad-‐claves.html
http://www.desdemiatalaya.com/2013/04/los-‐poderes-‐de-‐costco.html
http://www.desdemiatalaya.com/2014/10/dealz-‐abre-‐en-‐madrid.html
5.2.3. Meta descripciones
La plataforma Blogger incorpora la posibilidad de personalizar el texto que aparece
en la lista de resultados. Si no definimos ninguna descripción, Google seleccionará
automáticamente un texto que resuma el contenido existente en el artículo.
El cliente con el que hemos colaborado no hacía uso de las meta descripciones.
Google seleccionaba el texto más adecuado a mostrar en la lista de resultados en
función del texto contenido en el artículo. Esto presentaba dos problemas:
-‐ Pérdida de control sobre las descripciones
Cuando permitimos que Google seleccione los fragmentos de texto a mostrar
en la lista de resultados, perdemos control para optimizar las descripciones de
la lista de resultados.
240
Durante el presente proyecto, hemos visto como Google suele seleccionar el
comienzo del artículo como descripción en caso de no encontrar ninguna meta
descripción.
En las siguientes imágenes (Figura 105), observamos cómo este texto puede
no ser el que mejor describa el contenido del artículo.
Figura 105: Lista de artículos con meta descripción poco descriptiva
-‐ Pérdida de optimización SEO
La selección automática de texto por parte de Google reduce las posibilidades
de optimización SEO. Si recordamos de capítulos anteriores, las meta
descripciones forman parte de las localizaciones donde podemos realizar
optimizaciones SEO, promoviendo las palabras clave.
Durante el tiempo de colaboración, se ayudó al autor del blog en la re-escritura de
más de 30 artículos antiguos, además de trabajar en la creación de nuevos artículos.
5.2.4. Plantilla web
La plataforma Blogger hace uso de plantillas HTML como medio para configurar la
interfaz de usuario. Estas definen cómo aparece el contenido en el sitio web. La
plantilla empleada por defecto en la plataforma Blogger no está optimizada desde un
punto de vista SEO.
241
Si recordamos del primer capítulo, definíamos los encabezados como las estructuras
HTML encargadas de marcar las secciones que componen jerárquicamente un sitio
web.
En la siguiente imagen (Figura 106) podemos observar la estructura que compone la
plantilla de Blogger:
Figura 106: Plantilla inicial proporcionada por Blogger
Tal y como vemos en la imagen anterior, encontramos problemas de estructuración de
contenidos. Exponemos estos problemas y la solución que se adoptó:
-‐ Jerarquía de encabezados
Según la estructura web que define Blogger, el título del blog es el elemento
mas importante de todo el artículo (con encabezado H1), seguido de las fechas
y gadget laterales (con encabezados H2) y el título del propio artículo (con
encabezado H3).
242
Con el objetivo de estructurar el contenido, se realizaron modificaciones sobre
la estructura HTML. El título de los artículos dispondrán de encabezados H2
en lugar de H3, los gadgets harán uso de encabezados de nivel 3 y las fechas
dejarán de emplear encabezados HTML (Herrera, 2014).
Vemos el resultado final en la siguiente imagen (Figura 107):
Figura 107: Plantilla de Blogger modificada para página principal
-‐ Localización de encabezados
Los encabezados definen la jerarquía del documento. Para representar los
documentos del blog, se adoptó la jerarquización ofrecida por Fran Herrera
en su blog bloggerayuda (Herrera, 2014). La plantilla fue modificada para
tener en cuenta si nos encontramos en la página principal del blog o bien en un
artículo específico.
Si nos encontramos en la página principal del blog, haremos uso del marcador
H1 para otorgar mayor importancia al título del blog frente al título de los
artículos (los cuales harán uso de H2).
243
Si nos encontramos en un artículo específico, marcaremos el título del artículo
con la etiqueta H1 y el título del blog con la etiqueta H2.
Podemos observar como queda la plantilla tras realizar los cambios
anunciados cuando nos encontramos en un artículo específico del blog (Figura
108):
Figura 108: Plantilla de Blogger modificada para páginas de artículos
5.2.5. Imágenes
Con el objetivo de optimizar el contenido del blog, se procedió a revisar el título y el
atributo ALT de las imágenes presentes en los artículos. La mayoría de las imágenes
carecían del atributo ALT, así como de palabras clave relevantes para el
posicionamiento.
Se procedió a informar al cliente sobre el funcionamiento de los motores de búsqueda
y la importancia de usar palabras clave en el pie de foto, atributos ALT y nombres de
fichero.
244
5.2.6. Palabras clave
Como ya expresamos en capítulos anteriores, la disposición de palabras clave en un
sitio web es necesaria para aparecer en la lista de resultados cuando los usuarios
introducen estas.
La disposición de palabras clave en el contenido del blog desdemiatalaya era
prácticamente nula. La mayoría de los artículos no se encontraban optimizados para
ninguna palabra clave en particular.
Se examinó el contenido de los artículos más importantes (determinados por el autor
del blog), procediéndose a usar palabras clave en meta descripciones, contenido y
encabezados. Se asesoró al autor del blog sobre la importancia del uso de palabras
clave en las diferentes estructuras tenidas en cuenta por los motores de búsqueda.
Durante el periodo de optimización, observamos cómo ciertos artículos recibían mas
visitas que otros. Para conocer qué artículos recibían mas visitas hicimos uso de la
herramienta Analytics > Adquisición > Palabras Clave > Orgánica.
A continuación vemos los resultados mostrados por esta herramienta (Figura 109):
Figura 109: Páginas mas visitadas desde el canal de tráfico orgánico
245
Un estudio sobre el uso de palabras clave empleadas por los usuarios para llegar a
estas páginas nos permitió encontrar patrones de búsqueda empleadas por los
usuarios.
Para analizar las palabras de búsqueda empleadas para alcanzar el artículo Supeco, el
cash de la familia abrió en Chiclana se hizo uso de Google Analytics > Adquisición
> Palabras Clave > Orgánica. Las palabras clave de búsquedas empleadas por los
usuarios:
supeco, supermercados supeco, supeco cash, supeco el cash de la familia, el
cash de la familia, supeco Carrefour, supeco Chiclana, supeco Chiclana de
la Frontera, supeco los palacios
Si analizamos ahora las palabras de búsqueda empleadas para el segundo artículo (Los
nuevos cash para la familia experimentan en Sevilla) encontramos las siguientes
búsquedas:
cash mas, supermercado cash, supermercados cash mas, cash carry, cash
Ayala, cash mas Sevilla, tienda don cash en Sevilla, cash mas pino montano
Como vemos, ambos artículos son alcanzados desde los motores de búsqueda con
palabras clave las cuales siguen los siguientes patrones:
-‐ [palabra clave]
-‐ [palabra clave] + [localización]
-‐ [palabra clave] + [localización] + supermercado
En los siguientes apartados exponemos los resultados que obtuvimos al aplicar estos
patrones para los artículos de las aperturas de los supermercados Dealz en Madrid y
Málaga.
Localización de contenidos
246
Después de haber analizado los artículos con más búsquedas, procedimos a optimizar
los artículos relacionados con la inauguración de supermercados (“Dealz abre en
Madrid y continua su plan de expansión” y “Dealz en la Avda Velázquez de Málaga”)
con los patrones mencionados en la sección anterior.
Además de la aplicación de los patrones anteriores, se fueron analizando las palabras
de búsqueda introducidas por los usuarios para encontrar noticias sobre la
inauguración de estos supermercados.
En la siguiente imagen (Figura 110) observamos cómo los usuarios realizaron cerca
de 500 búsquedas empleando términos muy específicos sobre la localización de la
apertura de estos:
Figura 110: Lista de palabras clave proporcionadas por GWT
Este estudio nos proporcionó nuevas palabras clave para las que optimizar el
contenido web de los artículos. Conocido el nivel de detalle de búsqueda de los
usuarios, el segundo artículo fue optimizado teniendo en cuenta la granularidad de las
247
búsquedas de los usuarios, incluyendo término clave, ciudad y localización (“Dealz en
la Avda Velázquez de Málaga”)
Mostramos a continuación algunos de los términos de búsqueda para los que fueron
optimizados los artículos, las veces que apareció nuestro resultado en la lista de
resultados (extraído de la herramienta Google Webmaster Tools) y el posicionamiento
que adquirimos en Google para estos términos (extraído de WebCEO):
Términos de búsqueda Impresiones Posicionamiento
dealz malaga 279 8
dealz madrid 2667 13
dealz bravo murillo 415 6
dealz avenida velazquez 18 5
A continuación mostramos una imagen (Figura 111) donde se muestra la posición que
adquirieron los artículos y los términos clave para los cuales lo hicieron:
Figura 111: Palabras clave empleadas para posicionar artículos Dealz
El tráfico que aportaron estos dos artículos al sitio web se ha cuantificado en 416
visitas, representando el 19% del tráfico adquirido desde los motores de búsqueda y el
13.11% del tráfico total para el mes de Noviembre.
El uso de palabras clave junto con términos localizados será explotado por el blog
desdemiatalaya para artículos de aperturas e inauguraciones de supermercados.
248
Palabras clave relacionadas
Si los usuarios quieren obtener información sobre la apertura de Dealz en Málaga o
Madrid, las búsquedas con la palabras clave Dealz ofrece los siguientes resultados
(Figura 112):
Figura 112: Lista de resultados para la búsqueda "Dealz"
De los nueve resultados (siendo cuatro de ellos imágenes), solo dos de ellos
pertenecen a noticias relacionadas con Dealz (resultados 4 y 5). Los usuarios se ven
frente a la necesidad de realizar búsquedas más especificas como medio para obtener
mejores resultados.
En la siguiente imagen (Figura 113) podemos observar algunos de los términos
empleados por los usuarios (y registrados en Google Webmaster Tools) para alcanzar
información relacionada con dealz y sus aperturas:
249
Figura 113: Lista de palabras clave proporcionada por GWT
Con el objetivo de ampliar el número de palabras relevantes relacionadas con las
aperturas de Dealz, se optimizaron los artículos del blog desdemiatalaya para incluir
términos relacionados con este tipo de búsquedas:
-‐ Ciudad o área: Málaga, Málaga capital, Alcalá, Madrid
-‐ Calle: Avenida Velázquez, Calle Bravo Murillo
-‐ Palabras de búsqueda: tienda, supermercado
-‐ Personalidades relacionadas: Álvaro Villamizar (director general de la
compañía en España)
-‐ Términos de negocio/emprendimiento: franquicia
-‐ Sinónimos: poundland, dealz
El documento sufrió varias optimizaciones a medida que íbamos recibiendo
información sobre las palabras de búsqueda empleadas por los usuarios. Las
optimizaciones realizadas sobre los artículos dedicados a Dealz consiguieron el 19%
del tráfico de búsqueda y el 13.11% del tráfico total para el mes de noviembre.
250
Long-tail keywords
En el sector del posicionamiento en motores de búsqueda, se conoce como long-tail
keyword al conjunto de palabras, específicas en contexto y con un bajo volumen de
búsquedas. Optimizamos contenidos para este tipo de términos cuando buscamos un
tráfico cualificado.
El blog desdemiatalaya no disponía de métodos para capturar leads o información de
usuario más que mediante el uso de FeedBurner. Con el objetivo de incrementar el
número de leads y abrir una vía de comunicación directa con los posibles clientes, se
procedió a analizar los artículos que disponían de material para la captura de leads.
Se seleccionó el artículo “escandallos de carnicería” como el artículo a optimizar.
Este artículo está centrado en un público con un perfil muy concreto. Para alcanzar a
este público, se procedió a estudiar las palabras clave mediante Google Keyword Tool
y Google AdWords. El documento fue optimizado para las siguientes long-tail
keywords:
escandallos de carnicería, escandallos de pollo,
escandallos de ternera, escandallos de cerdo
Se optimizó el documento, posicionando las palabras clave en las siguientes
localizaciones:
-‐ Título
-‐ Encabezados
-‐ Meta descripción
-‐ Contenido del texto
-‐ Dirección web
-‐ Atributo ALT de imágenes
-‐ Enlaces internos que enlazan el documento a posicionar
El uso de long-tail keywords nos ayudó a incrementar la visibilidad del artículo,
alcanzando un buen posicionamiento en los motores de búsqueda (Figura 114).
251
Debido a que para los términos seleccionados existía una menor competencia, el
artículo pudo situarse en la primera posición de Google.
Figura 114: Long tail keywords empleadas para posicionar artículo específico
Esto nos permitió adquirir un mayor volumen de usuarios, el cual podemos observar
en la siguiente imagen (Figura 115). Tras las optimizaciones realizadas sobre el
artículo, se produce un incremento de tráfico:
Figura 115: Evolución del tráfico para el artículo de escandallos
252
Tras la consecución de un buen posicionamiento, se procedió a optimizar el contenido
para la adquisición de leads. Las optimizaciones realizadas para la captura de leads
pueden consultarse en el apartado Captación de leads.
5.3. Estrategia de link building
En este apartado presentamos los medios empleados para la adquisición de enlaces
desde sitios externos. Expondremos cómo de efectivas han resultado las técnicas para
adquirir enlaces.
5.3.1. Directorios
Como medio para aumentar el número de enlaces, se dio de alta el blog en directorios
web. Presentamos los directorios investigados, el estado del directorio tras dar de alta
el blog, el tipo de enlace e información sobre si el directorio es de pago.
Indexados
Directorios Promoción Status Enlace Pago
LaBlogoteca RSS Indexado Follow NO
Webwiki.es Web Indexado No
Follow
NO
Bitacoras.com RSS Indexado Follow NO
Zonadeblogs.com Web Indexado Follow NO
Mktfan.com Artículos Indexado No Follow NO
MejoresBlogs.com Web Indexado No follow NO
Paperblog.es RSS Indexado Follow
No Follow
NO
Tabla 16: Lista de directorios que indexaron el blog
Esperando indexación
253
Directorios Promoción Status Enlace Pago
Dmoz.com Web Esperando Follow NO
Globeofblogs.com Web Esperando Follow NO
Blogesfera.com RSS Esperando Follow NO
Blogorama.com Web
RSS
Esperando: 90 días
Link Back
Premium:$ 4.90
No Follow NO
NO
SI
Tabla 17: Lista de directorios a la espera de que indexen el blog
Rechazados
Directorios Promoción Status Enlace Pago
AllTop.com - Rechazado
(inglés)
-
Tabla 18: Lista de directorios que rechazaron la indexación del blog
Otros directorios no usados
Directorios Promoción Status Enlace Pago
DivoBlogger Promoción
Artículos
Sin incluir - NO
Menéame Promoción
Artículos
Sin incluir - NO
GoogleDirectorio Web Sin incluir
Requiere enlace
- NO
Boosterlog.es Web Sin incluir
Requiere enlace
- NO
Directorios.org.es Web Sin incluir
Requiere enlace
- SI
254
25€ - 1 año
15€ - 1 año
10 € - 1 año
SitioEspana.com Web Sin incluir
Premium 9.99 €
- SI
Tabla 19: Lista de directorios o agregadores de noticias no usados
5.3.2. Menciones web
Con el objetivo de incrementar el perfil de enlaces del que dispone el sitio web, se
procedió a investigar menciones hacia el autor del blog y sus artículos. Para ello se
empleó el propio motor de búsqueda de Google, así como la plantilla Google
Spreadsheet ofrecida por RankTank.
La plantilla ofrecida por RankTank simula la realización de búsquedas en Google,
siendo capaz de comprobar si existen enlaces hacia una web especificada en los
resultados de búsqueda. Explota las características de la función ImportXML
disponible en Google Spreadsheet, a través de la cual es posible extraer contenido
XML, HTML, CSV o RSS.
La plantilla funciona mediante la configuración de tres parámetros:
-‐ Check links to
Especificación de la dirección web hacia donde deberían de enlazar los sitios
que aparecen en la lista de resultados.
-‐ Google query
Especificación de la búsqueda a introducir en Google.
-‐ Results page
Página de resultados de provenientes de Google. Cada página alberga 100
resultados de Google, es decir, las 10 primeras páginas de la lista que
proporciona Google Search.
255
Mostramos a continuación una imagen (Figura 116) sobre los resultados que ofrece
esta herramienta como medio para analizar menciones web:
Figura 116: Plantilla RankTank para analizar menciones web.
La plantilla también ofrece información para conocer qué resultados enlazan al sitio
web definido en el parámetro check links to. Como podemos observar, genera una
lista de resultados con información sobre las páginas que contienen la búsqueda:
”Francisco Fernandez Reguero” –site:desdemiatalaya-paco.blogspot.com –
site:www.desdemiatalaya.com
Esta plantilla nos ha permitido asesorar al sitio web desdemiatalaya.com sobre
perfiles sociales que no mencionaban el blog desdemiatalaya.com. Algunas de las
redes sociales desde las cuales se consiguieron enlaces fueron:
Sitio Web Autoridad del sitio web
(autoridad de la página)
Slideshare.net 96 (44) – No Follow
WordPress Blog 100 (1) – No Follow
About.me 92(58) – Follow
Google+ 100 (1) – Follow
Pinterest.com 100 (1) – No Follow
Klout.com 87 (1) – No follow
256
GranConsumo.com 30 (28) – Follow Tabla 20: Lista de perfiles de redes sociales que enlazan al blog desdemiatalaya
Detectamos también un conjunto de sitios web los cuales mencionaban artículos
publicados en el blog desdemiatalaya.com, pero no disponían de enlaces hacia este.
Se procedió a agradecerles la mención, invitándoles a enlazar los artículos a los que
hacían referencia.
La siguiente tabla muestra los sitios web mas destacados a los que se notificó:
Sitio Web Autoridad del sitio web
(medida por WebCEO)
ABC.es 89
Elcorreogallego.es 65
Finanzas.com 73
Es.finance.yahoo.com 100
GestionPyme.com 38 Tabla 21: Lista de páginas web que mencionan al autor del blog
5.4. Generación de leads
En este apartado expondremos estrategias implementadas en el blog desdemiatalaya
para la generación de leads (adquisición de información de usuarios). Mediante la
adquisición de información de usuario, el blog podrá desarrollar campañas de e-mail
donde notificar el nuevo material disponible en el blog, así como educar a los
visitantes y promocionar los servicios propios de una consultoría.
En este apartado exponemos cómo se ha explotado la suscripción a artículos del blog
como medio para generar leads. Veremos también cómo el uso de landing page ha
contribuido a la adquisición de leads.
257
5.4.1. Suscripción RSS
RSS denota las siglas Really Simple Syndication, formato XML empleado para
compartir contenidos en la web. La suscripción mediante la fuente web RSS es una
herramienta muy utilizada por bloggers como medio para distribuir artículos hacia los
suscriptores. Los suscriptores reciben estos en el e-mail.
FeedBurner es una herramienta gestora de fuentes web. En 2007 fue adquirido por
Google y obtuvo gran popularidad. Actualmente es un servicio al que Google no da
soporte.
El autor del blog trabaja haciendo uso de FeedBurner como servicio gestor de fuentes
web. Existen problemas asociados con su uso, especialmente en lo que se refiere a su
integración con Google Analytics. Como resultado, las visitas son categorizadas como
tráfico directo en lugar de tráfico proveniente del feed.
Otro de los problemas documentados en multitud de sitios web, corresponde con la
fiabilidad del servicio FeedBurner. Multitud de bloggers se han quejado de la
fiabilidad del servicio tanto en el envío de e-mails como en las estadísticas que
proporciona FeedBurner. Esto hace difícil conocer cual es la cobertura o visibilidad
que adquieren los artículos.
Por último, el blog desdemiatalaya.com hacía uso del servicio de FeedBurner como
medio para informar a los suscriptores de la existencia de nuevos artículos en el blog.
Junto con la notificación se enviaba el artículo completo a los suscriptores. El envío
del artículo completo a e-mails y readers presenta varios inconvenientes:
-‐ Imposibilidad de analizar el comportamiento del usuario
-‐ Evita que el usuario interactúe con el sitio web
Como medida para solventar los problemas comentados anteriormente, se asesoró al
autor del blog en el uso de nuevos gestores de fuentes web. Al no acceder
completamente al cambio hacia otro gestor de fuentes, como medida intermedia, se
limitó el contenido de los artículos enviados por RSS.
258
Los usuarios actualmente reciben los artículo con contenido limitado a un número fijo
de caracteres. Deben de acceder al sitio web para poder leer las noticias completas.
Limitando el contenido RSS en los e-mails se ha incrementado el número de visitas al
blog en un 5.09% (significando 553 visitas durante los meses de colaboración).
Estos usuarios han demostrado ser los que mejor responden a los objetivos marcados
para el sitio web con respecto al resto de canales. Al no enviar el artículo completo a
los suscriptores, estos tienen que acudir al sitio web para leer el artículo completo. En
su visita al sitio web mediante e-mail, el 32.55% de los usuarios consumen más de un
artículo, empleado una media de 4 minutos por sesión (Figura 117).
Figura 117: Métricas para visitas provenientes de FeedBurner
En base a estas estadísticas, el autor del blog accedió a desarrollar estrategias mas
agresivas para la captura de leads, así como a suplir el servicio RSS-to-email ofrecido
por FeedBurner hacia un servicio mas robusto y fiable como MailChimp.
5.4.2. Landing pages
Definimos en capítulos anteriores las landing page como páginas especializadas en la
consecución de un objetivo, pudiendo ser este la obtención de e-mails o ventas.
Durante el proyecto final de carrera, se asesoró al blog “Desde mi atalaya” en la
creación de landing pages como medio para capturar leads. De entre los artículos con
259
los que cuenta el blog, se procedió a optimizar el artículo “escandallos de carnicería”
como artículo para la captura de leads.
El artículo estaba formado por un texto corto (150 palabras), una imagen y un enlace
para la descarga de un libro Excel. Enfatizaba la descarga del libro Excel pero no
implementaba ningún tipo de captura de leads. Ofrecía el material gratuitamente, sin
previo registro del usuario.
Con el objetivo de capturar leads, se procedió a optimizar el documento web para su
posicionamiento en buscadores mediante long-tail keywords. Los resultados obtenidos
tras la optimización realizada durante Septiembre ya fueron comentadas en el
apartado “Long-tail keywords” y pueden verse a continuación (Figura 118):
Figura 118: Evolución del tráfico web para el artículo de escandallos
Como podemos observar, en el mes de Septiembre el número de usuarios se ve
incrementado, aumentado progresivamente durante Octubre y Noviembre.
Como medio para comenzar la captura de leads, se integró un formulario de registro
hacia una lista de e-mail disponible en el servicio de MailChimp. El formulario puede
verse a continuación (Figura 119):
260
Figura 119: Formulario de suscripción integrado con la plataforma MailChimp
El formulario de registro conecta con la plataforma de e-mail MailChimp. Cuando los
usuarios confirman su e-mail se inicia la descarga del libro Excel con los escandallos
mas comunes.
Desde la implantación para la captura de e-mails, el artículo “escandallos de
carnicería” ha recibido un total de 305 visitas en 20 días, disponiendo de un
porcentaje de leads del 7.8%.
La adquisición de leads permitirá al autor del blog abrir un nuevo canal de
comunicación con los usuarios interesados en la gestión de carnicería.
261
Capítulo 6:
Conclusiones
En esta sección exponemos las conclusiones extraídas durante la realización del
proyecto final de carrera desarrollado, en colaboración con el blog “Desde mi
atalaya”, blog centrado en el sector del gran consumo y la distribución alimentaria.
6.1. Visibilidad web en motores de búsqueda
Como medio para adquirir e incrementar el número de impresiones en los buscadores,
se optimizaron los documentos para palabras clave generales (distribución
alimentaria o gran consumo entre otras) así como para palabras clave específicas para
cada artículo (escandallos de carnicería o dealz Madrid).
Para medir la evolución de las impresiones de nuestro sitio web desde los motores de
búsqueda se integró la herramienta Google Webmaster Tools con Google Analytics.
Datos anteriores a la fecha de integración no se encuentran disponibles en Google
Analytics.
En la siguiente gráfica mostramos la evolución del número de impresiones web del
blog desdemiatalaya.com durante el periodo de asesoramiento:
262
Podemos observar la evolución del sitio web para los meses de Septiembre, Octubre y
Noviembre. Vemos cómo el sitio web ha evolucionado positivamente, incrementando
el volumen de impresiones mes a mes.
Para la construcción de la gráfica anterior se ha hecho uso de la herramienta Google
Analytics panel Adquisición > Optimización en buscadores > Consultas cuyos datos
son los siguientes.
Mes Septiembre Octubre Noviembre Optimización
Impresiones en
buscador
11609
13537
17318
32.96 %
Tabla 22: Evolución del número de impresiones por meses
La optimización del sitio web para palabras clave específicas, localizadas y con
contenido relacionado a los términos clave permitió mejorar la visibilidad de los
artículos, consiguiendo un 32.96 % más de impresiones.
6.2. Adquisición de tráfico desde motores de búsqueda
La personalización de títulos, meta descripciones y direcciones web son las
principales herramientas con las que trabajar para captar usuarios desde los motores
0
5000
10000
15000
20000
Septiembre Octubre Noviembre
Impresiones en buscador
Impresiones en buscador
263
de búsqueda una vez la web aparece impresa. El mensaje que transmiten debe estar en
sintonía con la intención de la búsqueda realizada por el usuario.
Las optimizaciones anteriormente mencionadas fueron aplicadas a artículos del blog
“Desde mi atalaya”. Según las mediciones ofrecidas por la herramienta Google
Webmaster Tools (GWT), estas optimizaciones incrementaron en un 23.9% el ratio de
clics adquiridos desde los motores de búsqueda.
Mes Septiembre Octubre Noviembre Optimización
CTR
3.89 %
4.65 %
4.82 %
23.9 % Tabla 23: Evolución del CTR desde la lista de resultados por meses
Haciendo uso de la herramienta Google Analytics panel Canales > Orgánico (la cual
mide el número de sesiones provenientes de los motores de búsqueda), hemos
obtenido datos muy cercanos a los facilitados por la herramienta GWT.
Las visitas provenientes de búsquedas realizadas en Google quedan representadas en
la siguiente gráfica:
0
500
1000
1500
2000
2500
Septiembre Octubre Noviembre
Visitas de Google
Visitas de Google
264
Mes Septiembre Octubre Noviembre Optimización
Visitas desde
buscador
1780
2087
2140
20.22 %
Tabla 24: Evolución del número de visitas provenientes de Google
Como podemos observar, el número de visitas provenientes desde los motores de
búsqueda se vio incrementado en un 20.22% según la herramienta Google Analytics.
6.3. Posicionamiento en motores de búsqueda
Posicionar un sitio web en los motores de búsqueda conlleva realizar mejoras a nivel
de crawler e indexador (robots.txt y robots meta tag), plantilla (encabezados,
direcciones web, canonicalización de documentos, … ), artículos (palabras clave,
atributos alt, meta descripciones, títulos, …), así como la consecución de enlaces
hacia el sitio web.
El principal problema encontrado a la hora de posicionar contenido en los motores de
búsqueda, es la falta de herramientas que nos ayuden a conocer la evolución y el
progreso del sitio web.
El sitio web desdemiatalaya.com es el medio principal de comunicación de la
consultoría de negocios Mavafer Consultores. Debido a ello, las prácticas SEO
empleadas han sido llevadas a cabo paulatinamente y evitando riesgos de
penalización.
A continuación mostraremos una tabla con algunas de las palabras clave para las
cuales hemos posicionado artículos del blog desdemiatalaya. Estas tablas disponen de
tres columnas:
-‐ Ranking inicial.
En esta columna encontramos la posición en la cual se encontraba el artículo
antes de realizar cambios en el blog. Valores numéricos son indicativos de la
265
posición que ocupaban. Se ha hecho uso del símbolo ‘-‘ para identificar que el
artículo era nuevo o se situaba por detrás de la tercera página de Google.
-‐ Ranking optimizado
Esta columna muestra el posicionamiento alcanzado después de las
optimizaciones realizadas en el blog.
-‐ Optimización
Columna que indica el número de posiciones mejoradas. Se ha hecho uso del
símbolo ‘+’ para indicar que es un nuevo artículo, y por tanto, no disponía de
posicionamiento.
Las tablas han sido separadas por temática, teniendo cada una de ellas un objetivo
diferente. La primera de las tablas busca atraer a usuarios interesados en recibir
asesoramiento, tanto para iniciarse en una franquicia como para ya franquiciados.
FRANQUICIA
Palabra Clave Ranking
Inicial
Ranking
Optimizado
Optimización
asesoramiento
franquiciados
5 4 +1
asesoramiento franquicia 10 3 +7
franquicia contratos de
adhesión
8 2 +6
franquicia día 24 22 +2 Tabla 25: Palabras clave para atraer público que busca asesoramiento
La siguiente tabla está etiquetada bajo el área de ‘gestión de negocios’. En ella
mostramos las palabras clave que nos permitieron posicionar artículos web en el
motor de búsqueda de Google.
GESTIÓN DE NEGOCIOS
Palabra Clave Ranking Ranking Optimización
266
Inicial Optimizado
Escandallos
Escandallos de carnicería
Escandallos de pollo
Escandallos de cerdo
Escandallos de ternera
15
-
-
-
-
15
1
1
7
1
0
+
+
+
+ Tabla 26: Palabras clave para atraer público interesado en gestión de negocios
Debido al posicionamiento adquirido y al interés de los usuarios, el sitio web
desdemiatalaya abrirá un nuevo canal de negocio basado en cursos de formación
dedicados a la gestión de carnicerías.
En esta última tabla, encontramos algunas de las palabras clave empleadas como
medio para adquirir visibilidad. El uso de estas palabras clave permitió al blog
alcanzar a un mayor número de usuarios desde los motores de búsqueda. La
localización de los artículos es una de las tácticas explotadas por el blog, tanto para el
posicionamiento como para la atracción de un público ya informado.
LÍNEAS DE NEGOCIO Y OPERADORES
Palabra Clave Ranking
Inicial
Ranking
Optimizado
Optimización
al lado supermercados 6 2 +4
cash and carry 27 8 +19
dealz Málaga
dealz Madrid
dealz bravo murillo
dealz avenida velazquez
-
-
-
-
6
15
6
4
+
+
+
+ Tabla 27: Palabras clave empleadas para incrementar la visibilidad del blog
6.4. Dificultades
Las principales dificultades encontradas durante la realización de este proyecto se
centran en la falta de datos que nos ayuden a medir el progreso SEO. La oscilación de
267
posiciones de los documentos web en la lista de resultados hace difícil conocer si las
optimizaciones han tenido algún efecto.
La falta de comunicación por parte de Google también ha representado una dificultad.
El dominio con el que hemos trabajado ha distribuido durante años el mismo material
a diferentes sitios web. Cuenta con más de cien artículos duplicados en diferentes
dominios. A pesar de ello, Google no ha comunicado al dueño del sitio web si existe
algún tipo de penalización por estas prácticas llevadas a cabo en años anteriores.
Para el presente proyecto final de carrera, se trabajó inicialmente en la optimización
del sitio web Karaokegame.com. Debido a un contrato de privacidad, el trabajo
realizado para el anterior dominio no fue autorizado a ser publicado.
Se procedió a buscar un nuevo proyecto de posicionamiento, encontrando la empresa
Verkkoasema, experta en SEO y SEM e interesada en colaborar con el presente
proyecto final de carrera. El proyecto a posicionar consistía en un sitio web de casas
rurales llamado mokkilappi.fi empleando el idioma finés. Se comprometieron a
ayudarme con la búsqueda de palabras clave y la escritura de textos en finés. Tras la
realización de una auditoria web técnica de 8 páginas, no hubo respuesta por parte de
ellos. Debido a la falta de implicación, se abortó el proyecto.
6.5. Futuras ampliaciones
Futuras ampliaciones de este proyecto pueden estar enfocadas en la búsqueda del
posicionamiento de documentos web empleando técnicas Blackhat, como medio para
conocer los límites que los motores de búsqueda tienen previa penalización del sitio
web.
269
Bibliografía Vryniotis, V. (2013). Web SEO Analytics. From The robots.txt, META-robots &
rel=nofollow and their impact on SEO:
http://www.webseoanalytics.com/blog/robotstxt-metarobots-relnofollow-the-impact-
on-seo/
W3C - Document Content, Structure and Presentation. (n.d.). Document Content,
Structure and Presentation. From W3C: http://www.w3.org/TR/WCAG10/#content-
structure
W3C - Html. (n.d.). Html. From Word Wide Web Consortium:
http://www.w3.org/community/webed/wiki/HTML
W3C - Html structural elements. (n.d.). Html structural elements. From W3C:
http://www.w3.org/wiki/HTML_structural_elements
W3C. (n.d.). W3. From The global structure of an HTML document:
http://www.w3.org/TR/html401/struct/global.html#h-7.5.5
Warnier, Y. (2012). BeezNest Open-Source Specialists. From BeezNest Open-Source
Specialists: http://beeznest.wordpress.com/2012/07/01/spider-a-website-with-wget/
WebHostingReports.com. (2009). The History Of DMOZ. From Web Hosting
Reports: http://www.webhostingreport.com/learn/dmoz.html
Weitz, David, S., Gounares, George, A., Kinsel, & A., P. (2011). Patent No.
20110246456.
World Wide Web Consortium. (2005). Status Code Definitions. From World Wide
Web Consortium: http://www.w3.org/Protocols/rfc2616/rfc2616-sec10.html
270
World Wide Web Consortium. (n.d.). The global structure of an HTML document.
From World Wide Web Consortium:
http://www.w3.org/TR/html401/struct/global.html
Zhicheng Dou, R. S.-Y.-R. (2009). Using Anchor Texts with Their Hyperlink
Structure for Web Search. Association for Computing Machinery, Inc.
Agate, J. (2014). The New Link Building Survey 2014. From Moz.com:
http://moz.com/blog/link-building-survey-2014-results
Arnold, J., Lurie, I., Dickinson, M., Marsten, E., & Becker, M. (2009). Web
Marketing All-in-One Desk Reference For Dummies. For Dummies.
Ash, T., Ginty, M., & Page, R. (2012). Landing Page Optimization: The Definitive
Guide to Testing and Tuning for Conversions. Wiley Publishing.
Baymard Institute. (2013). Cart Abandonment Rate Statistics. From Baymard
Institute: http://baymard.com/lists/cart-abandonment-rate
Baeza-Yates, R. (2004). Effective Web Crawling. Effective Web Crawling . From
http://www.chato.cl/papers/crawling_thesis/effective_web_crawling.pdf
Battelle, J. (2005). The birth of Google. From Wired:
http://www.wired.com/wired/archive/13.08/battelle.html
Berners-Lee, T. (1992). W3 servers. From World Web Wide Consortium:
http://www.w3.org/History/19921103-
hypertext/hypertext/DataSources/WWW/Servers.html
Berners-Lee, T. (1989). World Wide Web Consortium. From Berners-Lee's original
purposal to CERN: http://www.w3.org/History/1989/proposal.html
Bharat, K., & Mihaila, G. A. (2003). Hilltop: A Search Engine based on Expert
Documents.
271
BlueLithium's BL Labs. (2006). Study: Behavioral Ads Convert Better Out of Context
. From Clickz.com: http://www.clickz.com/clickz/news/1712836/study-behavioral-
ads-convert-better-out-context
Bodnar, K. (2010). 12 Amazing SEO Infographics. From HubSpot - Inbound Hub:
http://blog.hubspot.com/blog/tabid/6307/bid/6442/12-Amazing-SEO-
Infographics.aspx
Brutlag, J. (2009). Speed Matters for Google Web Search.
Brin, S., & Page, L. (1998). The Anatomy of a Large-Scale Hypertextual Web Search
Engine.
Cuuts, M. (2009). PageRank Sculping. From Matt Cutts: Gadgets, Google, and SEO:
http://www.mattcutts.com/blog/pagerank-sculpting/
Cutler, M., Shih, Y., & Meng, W. (1997). Using the structure of html documents to
improve retrieval.
Cutt, M. (2011). Cloaking. From YouTube - Google Webmaster Tools Channel:
https://www.youtube.com/watch?v=QHtnfOgp65Q
Cutts, M. (2011). Youtube - Google Webmasters . From How important is it to have
keywords in a domain name?: https://www.youtube.com/watch?v=rAWFv43qubI
Cutts, M. (2013). Will Google be evaluating the use of rel="author" moving forward?
From YouTube.com: http://www.youtube.com/watch?v=3QlY8ba0jYI
Cutts, M. (2013). Why does Google show multiple results from the same domain?
From YouTube.com:
http://www.youtube.com/watch?feature=player_embedded&v=sxv-AvNPoh8
272
Cutts, M. (2011). What role does being in DMOZ play in rankings? From YouTube -
Google Webmasters Channel: http://www.youtube.com/watch?v=KCY5pbAuYpk
Cutts, M. (2007). Using ALT attributes smartly. From Google Webmaster Central:
http://googlewebmastercentral.blogspot.fi/2007/12/using-alt-attributes-smartly.html
Cutts, M. (2013). A reminder about selling links that pass PageRank. From
Webmaster Central Blog: http://googlewebmastercentral.blogspot.fi/2013/02/a-
reminder-about-selling-links.html
Cutts, M. (2012). Another step to reward high-quality sites . From Google Webmaster
Central Blog: http://googlewebmastercentral.blogspot.fi/2012/04/another-step-to-
reward-high-quality.html
Cutts, M. (2009). Can the geographic location of a web server affect SEO? YouTube.
Cutts, M. (2011). Cloaking. From Google Webmaster Tools:
https://support.google.com/webmasters/answer/66355?hl=en&ref_topic=6001971
Cutts, M. (2012). How much time should I spend on meta tags, and which ones
matter? . How much time should I spend on meta tags, and which ones matter? .
Cutts, M. (2011). Lightning Round! From YouTube - Matt Cutts channel:
https://www.youtube.com/watch?v=0EE163OGjfo
Cutts, M. (2014). Matt Cutts: Gadget, Google, and SEO. From The decay and fall of
guest blogging for SEO: http://www.mattcutts.com/blog/guest-blogging/
Cutts, M. (2009). More about generic TLDs in (say) UK results . From Matt Cutts
personal page: http://www.mattcutts.com/blog/more-about-generic-tlds-in-say-uk-
results/
273
Cutts, M. (2012). Page Layout algorithm improvement. From
GoogleWebmasterCentral: googlewebmastercentral.blogspot.fi/2012/01/page-layout-
algorithm-improvement.html
Cutts, M. (2006). SEO advice: discussing 302 redirects. From Matt Cutts: Gadgets,
Google, and SEO: http://www.mattcutts.com/blog/seo-advice-discussing-302-
redirects/
Cutts, M. (2012). SEO tricks from patio11. From Hacker News:
https://news.ycombinator.com/item?id=3214397
Cutts, Matt. (2013). Penguin 2.0 rolled out today. From Matt Cutts Blog:
http://www.mattcutts.com/blog/penguin-2-0-rolled-out-today/
Catalyst Team. (2012). How Rich Snippets Can Improve your CTR. From Catalyst
Search Marketing: http://www.catalystsearchmarketing.com/how-rich-snippets-can-
improve-your-ctr/
Chitika. (06 de 2013). The Value of Google Result Positioning. From Chitika - Online
Advertising Network: http://chitika.com/google-positioning-value
Cho, J., Garcia-Molina, H., & Page, L. (1995). Efficient Crawling Through URL
Ordering.
Chopra, P. (2010). A/B test case study: how two magical words increased conversion
rate by 28%. From Visual Website Optimizer: visualwebsiteoptimizer.com/split-
testing-blog/case-study-how-two-magical-words-increased-conversion-rate-by-28
Chrome. (2014). Google Chrome Privacy Notice. From Google:
https://www.google.com/intl/en/chrome/browser/privacy/
Collier, M. (2012). From http://www.theopenalgorithm.com/correlation-data/domain-
name-seo/
274
comScore. (2014). Search Engine Rankings. From comScore:
http://www.comscore.com/Insights/Press-Releases/2014/1/comScore-Releases-
December-2013-US-Search-Engine-Rankings
Craven, P. (n.d.). From http://www.webworkshop.net
Experian. (2009). Benchmark data and analysis on connecting web behavior to email
marketing.
experts, M. t. (2013). Moz.com. From http://moz.com/search-ranking-factors#metrics-
2
Elkington, D., & Oldroyd, J. (2007). How Much Time Do You Have Before Web-
Generated Leads Go Cold? From Marketing Sherpa:
http://www.marketingsherpa.com/DG07SFSlides/LeadResponseManagementReport.p
df
Enge, E., Spencer, S., Fishkin, R., & Stricchiola, J. (2009). The Art of SEO:
Mastering Search Engine Optimization. O'Reilly Media.
Enquiro. (n.d.). Business to business survey. From Enquiro:
http://web.archive.org/web/20120131103323/http:/www.enquiroresearch.com/campai
gns/Business%20to%20Business%20Survey%202007.pdf
Dumais, T. S., Weitz, S. D., Gounares, A. G., Gemmell, D. J., & Yiu, P. (2012).
Patent No. US8260789 B2.
Dumais, T. S., Weitz, S. D., Gounares, A. G., Gemmell, D. J., & Yiu, P. (2010).
Patent No. 20110246484.
Davison, B. D. (n.d.). Recognizing Nepotistic Links on the Web.
Dean, J. A., Anderson, C., & Battle, A. (2010). Patent No. US 7716225 B1 .
275
Deswal, S. (2012). How changing a single word increased click through rate by
161%. From Visual Website Optimizer: visualwebsiteoptimizer.com/split-testing-
blog/increase-click-through-rate
Digital Analytics Association. (2013). What is Digital Analytics? From Digital
Analytics Association: http://www.digitalanalyticsassociation.org/about
Dimock, M. (2013). The Keyword Cannibalization Survival Guide . From iMarket
Solutions: http://www.imarketsolutions.com/blog/content-strategy/keyword-
cannibalization-survival-guide
Dover, D., & Dafforn, E. Search Engine Optimization (SEO) Secrets. Wiley.
Dou, Z., Chen, J., Song, R., & Wen, J.-R. (2013). Patent No. US 8380722 B2.
Fetterly, D., Manasse, M., & Najork, M. (2004). Spam, Damn Spam, and Statistics:
Using statistical analysis to locate spam web pages.
Fishkin, R. (2010). From http://moz.com/blog/smx-london-ranking-factors-in-2010
Fishkin, R. (08 de 06 de 2010). From http://moz.com/blog/google-vs-bing-
correlation-analysis-of-ranking-elements
Fishkin, R. (22 de 04 de 2010). From http://moz.com/blog/the-science-of-ranking-
correlations
Fishkin, R. (27 de 05 de 2010). From http://moz.com/blog/10-illustrations-on-search-
engines-valuation-of-links
Fishkin, R. (2011). From http://moz.com/search-ranking-factors/2011
Fleischner, M. M. (2011). SEO Made Simple (Second Edition): Strategies For
Dominating The World's Largest Search Engine. CreateSpace Independent Publishing
Platform.
276
Forrester Consulting. (2012). The direct and indirect value that affiliates deliver to
advertisers. From Internet Advertising Bureau:
http://www.iab.net/media/file/ForresterRakutenLinkShareFinal.pdf
Forrester Research. (2012). Affiliate Marketing - The direct and indirect value that
affiliates deliver to advertisers. From Interactive Advertising Bureau:
http://www.iab.net/media/file/ForresterRakutenLinkShareFinal.pdf
Forrester Research, I. (2011). The Impact Of Online Cuopons And Promotion Codes.
Friedman, D. (2011). 5 simple ways to improve your AdWords. From Google Inside
AdWords: adwords.blogspot.fi/2011/04/5-simple-ways-to-improve-your-
adwords.html
Gyöngyi, Z., Garcia-Molina, H., & Pedersen, J. (2004). Combating Web Spam with
TrustRank.
Google Webmaster tool - Como bloquear o eliminar páginas con un archivo
robots.txt. (n.d.). Cómo bloquear o eliminar páginas con un archivo robots.txt. From
Herramienta para Webmasters de Google:
https://support.google.com/webmasters/answer/156449?hl=es&ref_topic=2370588
Google Webmaster Tool. (2013). Google Webmaster Tool - rel=nofollow. From
rel="nofollow": https://support.google.com/webmasters/answer/96569
Google Webmaster Tool. (2013). Google Webmaster Tools. From Meta Tags:
https://support.google.com/webmasters/answer/79812?hl=en
Google Webmaster Tool. (2014). Sitemap index file. From Sitemap index file:
https://support.google.com/webmasters/answer/71453?hl=en
277
Google Webmaster Tools - User-genereted spam. (n.d.). User-genereted spam. From
Google Webmaster Tools:
https://support.google.com/webmasters/answer/81749?hl=en
Google Webmaster Tools - Doorway pages. (n.d.). Doorway pages. From Google
Webmaster Tools:
https://support.google.com/webmasters/answer/2721311?hl=en&ref_topic=6001971
Google Webmaster Tools. (2013). Author information in search results. From Google
Webmaster Tools: https://support.google.com/webmasters/answer/1408986?hl=en
Google Webmaster Tools. (2014). About Structured Data Markup Helper. From
Google Webmaster Tools - Structure Data Markup Helper:
https://support.google.com/webmasters/answer/3069489
Google Webmaster Tools. (2014). Affiliate programs. From Google Webmaster
Tools:
https://support.google.com/webmasters/answer/76465?hl=en&ref_topic=6001971
Google Webmaster Tools. (2014). Change page URLs with 301 redirects. From
Google Webmaster Tools:
https://support.google.com/webmasters/answer/93633?hl=en
Google Webmaster Tools. (2013). Duplicate Content. From Google Webmaster
Tools: https://support.google.com/webmasters/answer/66359?hl=en
Google Webmaster Tools. (2014). Doorway pages. From Google Webmaster Tools:
https://support.google.com/webmasters/answer/2721311?hl=en&ref_topic=6001971
Google Webmaster Tools. (2013). Guide to AJAX crawling for webmasters and
developers. From Google Webmaster Tools:
https://support.google.com/webmasters/answer/174992?hl=en
278
Google Webmaster Tools. (n.d.). Google Webmaster Tools. From Using meta tags to
block access to your site: https://support.google.com/webmasters/answer/93710?rd=1
Google Webmaster Tools. (2013). Google Webmaster Tools. From Rich snippets
guidelines: https://support.google.com/webmasters/answer/2722261?hl=en
Google Webmaster Tools. (2013). Google Webmaster Tools. From Blocking Google:
https://support.google.com/webmasters/answer/93708?hl=en
Google Webmaster Tools. (2014). Googlebot. From Google Webmaster Tools:
https://support.google.com/webmasters/answer/182072?hl=en
Google Webmaster Tools. (2013). Irrelevant keywords. From Google Webmaster
Tools: https://support.google.com/webmasters/answer/66358?hl=en
Google Webmaster Tools. (2013). Link schemes. From Google Webmaster Tools:
https://support.google.com/webmasters/answer/66356?hl=en
Google Webmaster Tools. (2014). Link to your Google+ profile using rel="author".
From Google Webmaster Tools:
https://support.google.com/webmasters/answer/2539557?hl=en&ref_topic=6003069
Google Webmaster Tools. (2014). Review your page titles and snippets. From
Webmaster Tools Help: https://support.google.com/webmasters/answer/35624?hl=en
Google Webmaster Tools. (2013). Sitelinks. From Google Webmaster Tools:
https://support.google.com/webmasters/answer/47334?hl=en
Google Webmaster Tools. (n.d.). Structure Data Testing Tool. From Webmaster
Tools: http://www.google.com/webmasters/tools/richsnippets
Google Webmasters. (2012). Making AJAX Applications Crawlable. From Google
Developers: https://developers.google.com/webmasters/ajax-crawling/
279
Google. (2012). ZMOT Ways to Win Shoppers at the Zero Moment Of Truth. From
Google Think Insights: www.google.com/think/research-studies/2012-zmot-
handbook.html
Google AdWords. (2014). Ad Groups. From Google AdWords:
https://support.google.com/adwords/answer/6298?hl=en
Google AdWords. (2013). Choosing the campaign type that's right for you. From
Google AdWords Help:
https://support.google.com/adwords/answer/2567043?hl=en&ref_topic=3121941
Google AdWords. (2013). Google Network. From Google AdWords:
https://support.google.com/adwords/answer/1752334?hl=en
Google AdWords. (2014). How ad groups work. From Google AdWords:
https://support.google.com/adwords/answer/2375404
Google AdWords. (2013). How AdWords works. From Google AdWords:
https://support.google.com/adwords/answer/2497976?hl=en
Google AdWords. (2014). How costs are calculated in AdWords. From Google
AdWords:
https://support.google.com/adwords/answer/1704424?hl=en&ref_topic=3121763
Google AdWords Program. (2013). Create a remarketing list. From Google
AdWords: https://support.google.com/adwords/answer/2454064?hl=en
Google Adwords. (n.d.). Remarketing. From Google Adwords:
https://support.google.com/adwords/answer/1752338?hl=en&ref_topic=24937
Google AdWords Support. (2014). Ad Targeting. From Google AdWords Support:
https://support.google.com/adsense/answer/160525?hl=en
280
Google AdWords Support. (2013). Bidding features on the Display Network . From
Google AdWords Support:
https://support.google.com/adwords/answer/2947304?hl=en
Google AdWords Support. (2014). Choose the campaign type that's right for you.
From Google Website Support:
https://support.google.com/adwords/answer/2567043?hl=en
Google AdWords Support. (2014). Create a remarketing list. From Google AdWords
Support: https://support.google.com/adwords/answer/2454064?hl=en
Google AdWords Support. (2014). Reach people interested in your products or
services. From Google AdWords Support:
https://support.google.com/adwords/answer/2497941?hl=en-GB
Google AdWords Support. (2013). Setting bid adjustments. From Google AdWords
Support: https://support.google.com/adwords/answer/2732132?hl=en
Google AdWords Support. (2014). Targeting the Display Network. From Google
AdWords Support: https://support.google.com/adwords/answer/6056342?hl=en&rd=1
Google AdWords. (2014). Targeting your ads. From Google AdWords - Help:
https://support.google.com/adwords/answer/1704368
Google Analytics. (n.d.). Bounce Rate. From Google Analytics:
https://support.google.com/analytics/answer/1009409?hl=en
Google Analytics. (2013). Cómo se calculan las visitas en Analytics. From Google
Analytics: https://support.google.com/analytics/answer/2731565?hl=es
Google Analytics. (2014). Diferencia entre clics y sesiones de AdWords, usuarios,
entradas, páginas vistas y páginas vistas únicas en Analytics. From Google Analytics:
https://support.google.com/analytics/answer/1257084?hl=es#pageviews_vs_unique_v
iews
281
Google Corporation . (2011). Software Application. From schema.org:
http://schema.org/SoftwareApplication
Google Corporation. (2011). Product. From Schema.org: http://schema.org/Product
Google Corporation. (2012). The Anatomy of a HyperLink. From SEO Education:
https://sites.google.com/site/freeseolinkexchange/the-anatomy-of-a-hyperlink
Google. (2010). Search Engine Optimization Starter Guide.
Google. (04 de 2011). The Zero Moment of Truth for Consumer Electronics Study.
From Google Think Insights: www.google.com/think/research-studies/zmot-
consumer-electronics.html
Google. (2011). The Zero Moment of Truth Macro Study. From Google Think
Insights: www.google.com/think/research-studies/the-zero-moment-of-truth-macro-
study.html
Google+ Platform. (2014). Google Platform. From Google Developers:
https://developers.google.com/+/web/+1button/?rd=1
IAB. (2010). Guía de Marketing de Afiliación.
ICANN. (n.d.). Internet Corporation for Assigned Names and Numbers. From IDN
Glossary - Domain Name: http://www.icann.org/en/resources/idn/glossary
ICANN. (2014). Internet Corporation for Assigned Names and Numbers. From
Glossary: http://www.icann.org/en/about/learning/glossary
Internet World Stats. (2014). Usage and population statistics. From Internet World
Stats: http://www.internetworldstats.com/list2.htm#a-c
282
Internet World Stats. (2014). History and Growth of the Internet from 1995 till Today.
From Internet World Stats: http://www.internetworldstats.com/emarketing.htm
Internet Live Stats. (2013). Google Search Statistics. From Internet Live Stats:
http://www.internetlivestats.com/google-search-statistics/#trend
Halligan, B., & Shah, D. (2009). Inbound Marketing: Get found using Google, Social
Media and Blogs.
Halligan, B., Shah, D., & Meerman Scott, D. Inbound Marketing: Get Found Using
Google, Social Media, and Blogs. Wiley.
Herrera, F. (2014). Como optimizar los encabezados. From Blogger y SEO:
http://www.bloggerayuda.com/2014/05/blogger-seo-optimizar-encabezado-h1.html
JupiterResearch. (2006). Retail Web Site Performance: Consumer Reaction to a Poor
Online Shopping Experience.
Jansen, J. (2010). Online Product Research. Pew Research Center.
Jennifer Grappone, G. C. (2011). Search Engine Optimization (SEO): An Hour a Day.
Sybex.
Kumar, G., Sareen, G., Gupta, N., Clark, C. L., & Wang, J. (2013). Patent No. US
8458207 B2.
Kupke, J. (2009). Specify your Canonical. From
http://googlewebmastercentral.blogspot.fi/:
http://googlewebmastercentral.blogspot.fi/2009/02/specify-your-canonical.html
Kaushik, A. (2010). Web Analytics 2.0: The Art of Online Accountability and Science
of Customer Centricity. Sybex.
283
Keith, J. (2006). Hijax: Progressive enhacement with Ajax. From domscripting.com:
http://domscripting.com/presentations/xtech2006/
Laerd Statistics. (2013). Laerd Statistics. From Spearman's Rank-Order Correlation:
https://statistics.laerd.com/statistical-guides/spearmans-rank-order-correlation-
statistical-guide.php
Leary, B. (2012). Inbound Marketing: The customer finds you. From Small Business
Trends.
Lecinski, J. (2011). Winning the Zero Moment of Truth eBook. From Google Think
Insights: www.google.com/think/research-studies/2011-winning-zmot-ebook.html
Li, B., & Kupke, J. (2011). Pagination with rel=“next” and rel=“prev”. From
Google Webmaster Central:
http://googlewebmastercentral.blogspot.fi/2011/09/pagination-with-relnext-and-
relprev.html
Nielsen. (2012). Nielsen Global Survey of New Product Purchase Sentiment.
Nielsen, L. (2004). Engaging Personas and Narrative Scenarios. Copenague.
Munoz Vera, G. (2008). Era cuestion de tiempo... From Dónde está Avinash cuando
se le necesita?: dondeestaavinashcuandoselenecesita.blogspot.fi/2008/03/era-cuestin-
de-tiempo.html
Munoz Vera, G., & Elosegui Figueroa, T. (2011). El arte de medir. Profit Editorial.
Musella, D. (1995). The META Tag of HTML. From http://tools.ietf.org/html/draft-
musella-html-metatag-01
Madison Logic. (2014). 10 Email Best Practices. From Madison Logic:
http://www.madisonlogic.com/10-email-best-practices/
284
MailChimp. (n.d.). Email Marketing Benchmarks. From MailChimp:
http://mailchimp.com/resources/research/email-marketing-benchmarks/
Maile Ohye. (2012). Pagination and SEO. From YouTube - Google Webmasters
Channel: http://www.youtube.com/watch?v=njn8uXTWiGg
Marketing Sherpa. (2009). Email’s ROI Makes Tactic Key for Marketers in 2009.
From Marketing Sherpa: http://www.marketingsherpa.com/article/emails-roi-makes-
tactic-key#
Marketo Blog. (2012). Lead Nurturing. From Marketo Blog:
http://www.marketo.com/_assets/uploads/LeadNurturing-cheatsheet2-10.pdf
Marshall, P., & Todd, B. (2012). Ultima Guide to Google AdWords.
Marshall, P., & Tood, B. (2012). Ultimate Guide to Google AdWords. Entrepreneur
Press.
Martijn, Koster. (1994). The Web Robots Pages. From Robots Exclusion Protocol:
http://www.robotstxt.org/
Matt Cutts. (2011). What is the ideal keyword density of a page? From Youtube:
https://www.youtube.com/watch?v=Rk4qgQdp2UA
Matt Cutts. (2013). What percentage of PageRank is lost through a 301 redirect?
From YouTube: http://www.youtube.com/watch?v=Filv4pP-1nw
Matt Cutts. (2009). More than one H1 on a page: good or bad? From YouTube:
http://www.youtube.com/watch?v=GIn5qJKU8VM
Matthew Gray. (1996). Growth and Usage of the Web and the Internet . From Internet
Statistics: http://www.mit.edu/~mkgray/net/
285
McDonald, L. (2013). Transactional Emails: Make Your First Impression Count.
From MediaPost: http://www.mediapost.com/publications/article/104687/
Meyer, M. (2006). Google Marissa Meyer speed research. From YouTube.com:
www.youtube.com/watch?=BQwAKsFmK_8
METRO. (2009). Why we nearly McGoogled it . From METRO:
http://metro.co.uk/2009/03/15/why-we-nearly-mcgoogled-it-545208/
Microsoft Corporation. (2008). Sitemap.org. From Using Sitemap index files:
http://www.sitemaps.org/protocol.html#index
Microsoft Corporation. (2008). sitemaps.org. From sitemaps.org:
http://www.sitemaps.org/protocol.html
Miller, J. (2010). What is a lead? From Marketo Blog:
http://blog.marketo.com/2010/11/what-is-a-lead.html
Minogue, D., & Tucker, P. (2007). Patent No. US 20070033168 A1.
Moz. (2014). Redirection. From Moz.com: http://moz.com/learn/seo/redirection
Moz Team. (2014). Moz. From Google Algorithm Change History:
http://moz.com/google-algorithm-change
Page, L. (1997). Patent No. US6285999 B1.
Peng, D., & Dabek, F. (2010). Large-scale Incremental Processing Using Distributed
Transactions and Notifications. From Research at Google:
http://research.google.com/pubs/pub36726.html
Peter Linsley, Matt Cutts. (n.d.). Image Publishing Guidelines. From Google
Webmaster Tools: https://support.google.com/webmasters/answer/114016?hl=en
286
Peters, M., & Isham, M. (2013). How Website Speed Actually Impacts Search
Ranking. From Moz.com: http://moz.com/blog/how-website-speed-actually-impacts-
search-ranking
Petrescu, P. (2014). Google Organic Click-Through Rates in 2014. From The moz
blog: http://moz.com/blog/google-organic-click-through-rates-in-2014
Petrovic, D. (2012). Google Does Take Action Against Content Scrapers. From
DejanSEO: http://dejanseo.com.au/google-against-content-scrapers/
Petrovic, D. (2012). How I Hijacked Rand Fishkin’s Blog. From Dejan SEO:
http://dejanseo.com.au/hijack/
Procopio, M. J. (2013). Patent No. US 8458192 B1 .
Procopio, M. J. (2013). Patent No. US 8458193 B1 .
Procopio, M. J. (2013). Patent No. US 8458194 B1 .
Procopio, M. J. (2013). Patent No. US 8458195 B1 .
Procopio, M. J. (2013). Patent No. US 8458196 B1 .
Procopio, M. J. (2013). Patent No. US 8458197 B1 .
OWASP. (2014). Cross-site Scripting (XSS). From OWASP:
https://www.owasp.org/index.php/Cross-site_Scripting_(XSS)
Ouellet, M. (2013). Fith annual shopping cart recovery tactics of the Internet retailer
1000. Listrak.
Ouellet, M. (2012). Shopping Carts Abandonment Review and lookbook.
287
Oullet, M. (2013). Shopping cart recovery tactics of the internet retailers 1000. From
Listrak: http://www.listrak.com/assets/resources/whitepapers/2013-shopping-cart-
abandonment.pdf
Odom, S. (2010). SEO For 2010: Search Engine Optimization Secrets. Media Works
publishing.
Odom, S., & Habermann, C. (2013). SEO for 2013: Search Engine Optimization
Made Easy. MediaWorks Publishing.
Oldroyd, J. B., McElheran, K., & Elkington, D. (2011). The Short Life of Online Sales
Leads. From Harvard Business Review: http://hbr.org/2011/03/the-short-life-of-
online-sales-leads/ar/1
Optify. (2011). Optify Organic Click Through Rate Webinar Slides. From Search
Marketing Now: http://www.slideshare.net/optify/optify-organic-click-through-rate-
webinar-slides
Ruderman, J. (2014). Same-origin policy. From Mozilla Developer Network:
https://developer.mozilla.org/en-
US/docs/Web/JavaScript/Same_origin_policy_for_JavaScript
Rand Fishkin. (2007). How to Solve Keyword Cannibalization. From Moz:
http://moz.com/blog/how-to-solve-keyword-cannibalization
Rand Fishkin. (2013). Moz.com. From What is Robots.txt?:
http://moz.com/learn/seo/robotstxt
Rogers, I. (n.d.). From http://www.sirgroane.net/google-page-rank/
Sullivan, D. (2014). Yahoo Directory. From Search Engine Land:
http://searchengineland.com/yahoo-directory-close-204370
Sciences, G. (2011). The Zero Moment of Truth. Google/Shopper Sciences.
288
Schwartz, B. (2013). Google: Site Speed Penalty Coming To Mobile Web Sites. From
Search Engine Land: http://searchengineland.com/google-mobile-site-speed-162977
Schwartz, B. (2012). Search Engine Rountable. From Google EMD Update: EMD no
longer rank as well: http://www.seroundtable.com/google-emd-update-15776.html
Schema. (n.d.). Recipes. From Schema.org: http://schema.org/Recipe
Schmidt, C. (2005). Page Hijack: The 302 Exploit, Redirects and Google . From
clsc.net: http://clsc.net/articles/google-302-page-hijack.php
Scott, D. M. (n.d.). About David. From David Meerman Scott:
http://www.davidmeermanscott.com/about-david/
Scott, D. M. (2011). The New Rules of Marketing & PR: How to Use Social Media,
Online Video, Mobile Applications, Blogs, News Releases, and Viral Marketing to
Reach Buyers Directly. Wiley.
Search Engine Land. (2013). Google: PageRank Dilution Through A 301 Redirect Is
A Myth . From Search Engine Land: http://searchengineland.com/google-pagerank-
dilution-through-a-301-redirect-is-a-myth-149656
Search, G. I. (2013). Google Inside - Crawling & Indexing. From Google Inside
Search: https://www.google.com/intl/en/insidesearch/howsearchworks/crawling-
indexing.html
SeeWhy. (2011). The science of shopping cart abandonment. From SeeWhy:
http://seewhy.com/wp-
content/uploads/SeeWhy_eBook_The_Science_of_Shopping_Cart_Abandonment.pdf
SEMPO. (2011). SEMPO. From SEMPO: http://www.sempo.org/?page=glossary
289
Siddiqi, A. (2012). Optify reports Click Through Rates (CTR) are outdated. From
MediaBuzz: http://www.mediabuzz.com.sg/asian-emarketing/search-mkting-n-
analytics/1630-optify-reports-click-through-rates-ctr-are-outdated-new
Silverpop. (2012). Silverpop Email Marketing Metrics Benchmark Study. From
Silverpop: http://www.silverpop.com/downloads/white-
papers/WP_2012_Benchmark.pdf
Singhal, A., & Cutts, M. (2010). Using site speed in web search ranking. From
Google Webmaster Central Blog:
http://googlewebmastercentral.blogspot.fi/2010/04/using-site-speed-in-web-search-
ranking.html
Singhal, A., Cutts, M., & Wu, J. W. (2011). Patent No. US 8046350 B1.
Singhal, Amit; Cutts, Matt. (2011). Google Blog. From Finding more high-quality
sites in search: http://googleblog.blogspot.fi/2011/02/finding-more-high-quality-sites-
in.html
Sherpa, M. (2008). Search Marketing Benchmark guide 2008. From
http://www.marketingsherpa.com/exs/Search08Excerpt.pdf
Shontell, A. (2012). Business Insider. From The 25 most expensive domain name of
all time: http://www.businessinsider.com/the-20-most-expensive-domain-names-
2012-12?op=1
Spero, J. (2012). The Mobile Playbook. From The Mobile Playbook:
www.themobileplaybook.com
Stevens, N. Zero to $1,000 with PPC: A Proven Blueprint to Making $1,000 a Month
with Pay Per Click Advertising in 30 Days or Less.
Turner, D., Entwisie, S., Johnson, E., Fossi, M., Blackbird, J., McKinney, D., et al.
(09 de 2007). Symantec Internet Security Threat Report. XII .
290
Tagman. (2012). Tagman case study: Glasses Direct. From Tagman.com:
www.tagman.com/wp-content/uploads/2013/08/tagman_casestudy_glasses_direct.pdf
291
Glosario
A
A/B testing
Término empleado en el área de marketing
online para describir la realización de
experimentos con dos variables: variable de
control; variable dependiente.
accelerators
Extensión que permite mejorar el
rendimiento en sistemas con lenguajes
compilados. Generalmente hacen uso de
caches donde guardan el bytecode/opcode
generado por el compilador, evitando
compilar el código en cada ejecución.
actual CPC
Término empleado en la plataforma de
anuncios Google AdWords para definir la
cantidad mínima a pagar por clic.
ad group
Elemento básico de trabajo en la plataforma
de anuncios Google AdWords. Facilitan la
organización y gestión de palabras clave,
pujas y anuncios.
Ad Rank
Métrica empleada por la plataforma Google
AdWords para determinar el orden de
impresión de los anuncios.
AdWords
Plataforma de anuncios online de Google.
afiliados
En el marketing de afiliación, se conoce a la
figura de afiliado como aquellos sitios web
especializados en conseguir tráfico y dirigirlo
hacia otros sitios web.
Agent Rank
Algoritmo empleado por Google como medio
para medir la calidad de los agentes que
crean, editan y producen contenido web.
Ajax
Acrónimo de Asynchronous JavaScript And
Xml. Técnica empleada en el desarrollo de
aplicaciones web. Ejecutada en el navegador,
permite establecer comunicación con el
servidor asíncronamente.
alt
Atributo perteneciente a la etiqueta Html img.
Permite añadir una descripción textual. Esta
descripción será visible únicamente cuando la
imagen no pueda ser recuperada del servidor.
analítica web
Herramienta empleada para medir la
evolución de un sitio web mediante la
recopilación, medición, evaluación y emisión
de informes de datos.
ancla de texto
Palabra o texto asociado a enlaces.
anuncios contextuales
Anuncios cuyo mensaje está relacionado con
el contenido del documento web donde
aparecen.
292
anuncios patrocinados
Anuncios donde el anunciante paga por cada
clic que el usuario realiza en el anuncio.
Autoresponders
Programa que responde automáticamente a la
recepción de e-‐mails. MailChimp permite
configurar autoresponders como respuesta a
acciones de registro o alta de usuarios en el
sistema.
autoridad de dominio
Métrica definida por el equipo de Moz.
Indicador del prestigio o crédito de un sitio
web.
B
benchmark
Técnica utilizada para medir o comparar los
resultados de un sistema frente a otro.
bid only
Tipo de puja disponible en Google AdWords
que permite modificar el precio de las pujas
en función del perfil del usuario. Este tipo de
pujas no limitan la impresión de anuncios al
perfil de usuario especificado. Otorga un
mayor control sobre las pujas.
Blackhat SEO
Técnica de optimización de documentos web
cuyo objetivo es confundir a los motores de
búsqueda como medio para mejorar el
posicionamiento web. Estas técnicas son
penalizadas por los motores de búsqueda,
bots
Sinónimo de crawler.
bounce rate
Término empleado en analítica web para
definir al porcentaje de usuarios que
abandonan el sitio web después de haber
consumido una sola página.
Buscador
Componente de un motor de búsqueda que
recibe las palabras introducidas por los
usuarios, interacciona con componentes del
motor de búsqueda y ofrece un listado
ordenado de resultados.
C
caches
Memoria de rápido acceso que permite
guardar temporalmente información. Este
tipo de memorias se emplea como medio para
mejorar el rendimiento de los sistemas,
reduciendo el tiempo de búsqueda de datos.
campañas de e-‐mail
Herramienta de marketing online para
establecer contacto con usuarios, difundir
mensajes y adquirir nuevos clientes
empleando el e-‐mail como canal de
comunicación.
canibalización de palabras clave
Documentos web optimizados para los
mismos términos compiten entre si por
aparecer en la lista de resultados para las
mismas palabras clave. Esto se produce como
consecuencia de la limitación que los motores
de búsqueda establecen para no mostrar más
de tres documentos web provenientes del
mismo dominio en la misma página de la lista
de resultados.
canonical
Valor aceptado por el atributo rel para la
etiqueta link. Junto con el atributo href
permite especificar la dirección web canónica.
CDN
293
Acrónimo de Content Delivery Network.
Sistema de servidores interconectados que
determina el servidor que responde a las
peticiones web en base a la localización
geográfica. Permite mejorar los tiempos de
respuesta debido a que el servidor que
responde es el que se encuentra más cercano
al usuario.
click-‐through-‐rate
Métrica empleada en el área de marketing
online para medir la eficacia de una campaña
de anuncios online. Representa el ratio de clics
que recibe un anuncio online.
cloaking
Técnica Blackhat SEO que presenta diferente
contenido a los crawlers y a los visitantes.
conditional merge tags
Etiquetas disponibles en la plataforma
MailChimp para implementar sentencias
condicional. Permiten personalizar e-‐mails en
base a estas condiciones.
Content Network
Sinónimo del término Display Network, red de
Google AdWords que agrupa al conjunto de
sitios web donde pueden disponerse anuncios
online.
conversión
Se conoce como conversión web a aquella
acción web identificada como objetivo web.
coste por impresión
Modelo de publicidad online por el cual el
anunciante paga por cada impresión.
cost-‐per-‐acquisition
Define el coste a pagar a un afiliado por cada
venta que inicia.
cost-‐per-‐click
Define el coste a pagar a un afiliado por cada
clic de anuncio que inicia.
cost-‐per-‐double-‐click
Define el coste a pagar a un afiliado por cada
clic de anuncio que consiguen, seguido de un
segundo clic en el sitio que anuncian o web
intermedia.
cost-‐per-‐impression
Término anglosajón que hace referencia al
modelo de publicidad conocido como coste
por impresión.
cost-‐per-‐lead
Define el coste que paga un anunciante por la
adquisición de datos personales de usuarios
(ej. adquisición de e-‐mail).
cost-‐per-‐thousand-‐impressions
Define el coste que paga un anunciante por
cada 1000 impresiones su anuncio.
CPA
Acrónimo de cost-‐per-‐acquisition.
CPC
Acrónimo de cost-‐per-‐click.
CPDC
Acrónimo de cost-‐per-‐double-‐click.
CPL
Acrónimo de cost-‐per-‐lead.
CPM
Acrónimo de cost-‐per-‐thousand-‐impressions.
crawlers
Componente de un motor de búsqueda
encargado de rastrear y descargar
documentos web.
crawling
294
Actividad de rastreo o descarga de
documentos realizada por crawlers.
CSS
Acrónimo de Cascading Style Sheet, es un
lenguaje empleado para definir la
presentación de contenidos web.
CSSOM
Acrónimo de Cascading Style Sheet Object
Model. Estructura creada por el navegador
para determinar el estilo que debe aplicar al
documento web.
CTR
Acrónimo del término click-‐through-‐rate.
D
Data Highlighter
Herramienta perteneciente a la plataforma
Google Webmaster Tools que nos permite
indicar a Google sobre patrones de datos
estructurados disponibles en nuestro sitio
web.
datos estructurados
Marcado que permite a Google entender el
contenido web, pudiendo este ser
representado como rich snippets en la lista de
resultados.
dirección canónica
Sinónimo del término dirección web canónica.
dirección web canónica
Se conoce como dirección web canónica a
aquella dirección web que aparecerá en los
motores de búsqueda de entre un conjunto de
direcciones web con contenido duplicado.
directorios web
Sitio web cuyo objetivo es categorizar los
documentos web presentes en Internet.
Directorio organizado de enlaces por
categorías y subcategorías.
Display Network
Red de Google AdWords que agrupa al
conjunto de sitios web donde pueden
disponerse anuncios online.
DMOZ
Conocido directorio web empleado por
motores de búsqueda para extraer
información. Google dejó de emplearlo en
2011.
DOM
Acrónimo de Document Object Model. Interfaz
de programación para documentos HTML,
XML y SVG. Proporciona una estructura para
definir documentos y manipularlos.
E
e-‐mail outreach
Práctica de link building por la que se
establece contacto con sitios web y se
promociona el contenido publicado. El
objetivo es la adquisición de enlaces de los
sitios contactados.
e-‐mail transaccionales
E-‐mails enviados como respuesta a una acción
realizada por el usuario.
EMD
Acrónimo del término Exact Match Domain.
encabezamientos
Estructuras HTML que permiten organizar
documentos marcando secciones y
subsecciones.
enlaces salientes
295
Dado un documento web, los enlaces salientes
son aquellos que apuntan hacia un nuevo
dominio.
Exact Match Domain
Nombres de dominio que se ajusta a palabras
de búsqueda introducidas por los usuarios.
F
follow/nofollow
Valores que puede adquirir el atributo content
de la meta etiqueta robots como medio para
controlar el comportamiento de los crawlers.
friendly-‐url
Práctica SEO consistente en optimizar el texto
asociado a las direcciones web.
G
Google AdSense
Programa de Google para permite a editores
monetizar sitios web mediante la impresión
de anuncios.
Google AdWords
Plataforma de anuncios online de Google que
permite a anunciantes realizar promociones
online.
Google Analytics
Herramienta analítica de Google que ofrece
datos sobre: la audiencia que accede al sitio
web; la procedencia del tráfico; el
comportamiento de los usuarios; las
conversiones que llevaron a cabo.
Google bomb
Conjunto de prácticas que provocan que un
sitio web adquiera un alto posicionamiento en
Google para búsquedas no relacionadas con la
temática del sitio web.
Google Keyword Planner
Herramienta de Google que permite obtener
datos relacionados con el número de
búsquedas, competencia o precio del clic de
un conjunto de términos especificados.
Google Network
Red de recursos donde Google AdWords
puede mostrar anuncios. Esta red está
formada por sitios web, Google Search así
como otros servicios proporcionados por
Google como Gmail, YouTube o grupos de
Google entre otros.
Google PageSpeed
Herramienta de Google que permite analizar
el tiempo que tarda en cargar un sitio web.
Ofrece información práctica para mejorar el
tiempo de carga de un sitio web.
Google Webmaster Tools
Plataforma de Google para administradores
de sitios web. Ofrece herramientas para
investigar problemas de escaneo, indexación
o penalizaciones. También dispone de
herramientas para estudiar la procedencia de
los usuarios: enlaces y palabras clave
empleadas.
googlebot
Robot de Google que rastrea y escanea sitios
web.
granjas de enlaces
Conjunto de webs que intercambian
menciones recíprocamente con el objetivo de
afectar el posicionamiento web.
H
head terms
296
Conjunto de palabras clave caracterizados por
disponer de un alto volumen de búsquedas en
los motores de búsqueda.
Hijax scheme
Metodología de mejora progresiva de una
web que termina con la implantación de la
tecnología Ajax.
Hilltop
Algoritmo empleado por Google para
identificar sitios web expertos en un temática
concreta.
hiperenlaces entrantes
Dado un documento web, los hiperenlaces
entrantes son aquellos enlaces externos que
apuntan hacia el documento web.
hiperenlaces salientes
Dado un documento web, los hiperenlaces
salientes son aquellos que apuntan hacia un
nuevo dominio.
Honey pots
Sitios web creados con la finalidad de captar
usuarios y direccionarlos hacia otros
documentos web.
Hyphen domains
Dominios formados por un conjunto de
palabras separadas mediante el uso de
guiones.
I
incremental clics
Término definido en la plataforma Google
AdWords para denotar la diferencia en el
número clics que consigue un anuncio por el
mero hecho de aparecer en una mejor
posición.
indexador
Entidad de un motor de búsqueda encargada
de extraer, descomprimir y procesar la
información que obtiene del crawlers.
infografía
Representación visual empleada para
presentar información compleja de forma
sencilla.
J
JavaScript
Lenguaje de programación interpretado
empleado por navegadores para interactuar
con el usuario.
K
KEI
Acrónimo de Keyword Effectiveness Index.
Key Performance Indicators
Métricas web empleadas para conocer la
evolución de un sitio web hacia los objetivos
que tiene establecidos.
Keyword Effectiveness Index
Métrica empleada para determinar la eficacia
de usar un conjunto de palabras claves
específicas.
keywords
Términos introducidos por los usuarios para
realizar búsquedas web
KPI
Acrónimo de Keyword Performance Indicator
L
landing page
297
Página a la que llega una usuario tras pulsar
un banner o un anuncio web. Este tipo de
páginas se caracterizan estar optimizadas
para la conversión.
landing pages
Conjunto de landing pages.
lead
Término empleado en el área de marketing
online para denotar la captura de datos de un
usuario.
leads
Término empleado en el área de marketing
online para denotar la captura de datos de un
usuario.
link building
Conjunto de prácticas cuyo objetivo es el de
adquirir enlaces o referencias web desde
sitios web externos.
link juice
Cantidad de PageRank que fluye desde unos
documentos webs hacia otros debido a los
enlaces que disponen.
listas de remarketing
Listas existentes en Google AdWords que
permiten identificar unívocamente a los
usuarios. Estas listas permiten crear
campañas de publicidad enfocadas en los
usuarios pertenecientes a estas listas.
llamadas a la acción
En el área de marketing online se conoce
como llamada a la acción al uso de un
lenguaje directo que incite al usuario a
realizar alguna acción, generalmente la
realización de clic sobre algún elemento web.
long tail keywords
Palabras clave caracterizadas por ser
específicas en contexto y con un bajo volumen
de búsquedas.
M
macro-‐goals
Conjunto de objetivos que definen la
existencia de un sitio web. Este tipo de
objetivos conectan con los objetivos del
negocio.
MailChimp
Herramienta de e-‐mail marketing.
marketing contextual
Marketing online en el que los anuncios son
automáticamente seleccionados en base al
contexto del sitio web.
marketing de afiliación
Marketing online en el cual un proveedor de
servicios ofrece un porcentaje sobre aquellas
ganancias que son iniciadas por acciones
promovidas por los afiliados.
marketing por comportamiento
Marketing online que permite segmentar
usuarios y realizar campañas publicitarias en
función del comportamiento de los usuarios.
meta etiqueta
Etiquetas HTML situadas en la cabecera del
documento. Proporcionar metadatos a los
navegadores.
meta etiqueta robots
Etiqueta HTML que permite controlar si el
indexador puede rastrear los enlaces del
documento web o escanear el contenido.
micro-‐goals
Conjunto de objetivos que nos permiten
conocer como se está educando al usuario.
298
N
navegación multiscreen
En el área de marketing online, se conoce
como navegación multiscreen a la navegación
que puede realizar un usuario empleando
múltiples dispositivos.
nofollow
Valor que puede adquirir el atributo content
de la meta etiqueta robots para evitar que los
indexadores rastreen enlaces en una página
web.
noindex
Valor que puede adquirir el atributo content
de la meta etiqueta robots como medio para
evitar que el indexador termine indexando el
contenido en el motor de búsqueda.
nombre de dominio
Identificador unívoco que emplean los
documentos web como forma de ser
representados alfanuméricamente.
O
objetivo web
Acciones web concretas empleadas por
analistas web como herramienta para medir
el progreso del sitio web.
objetivos de negocio
Acciones a alcanzar por un negocio que
reportan beneficio.
ontologías
Sistema empleado para representar el
conocimiento de un dominio o ámbito de
conocimiento.
optimizaciones off-‐page
Optimizaciones externas aplicadas a un sitio
web para mejorar el posicionamiento
orgánico de este. Este tipo de optimizaciones
están relacionadas con la adquisición de
enlaces.
optimizaciones on-‐page
Optimizaciones realizadas sobre un
documento web para mejorar el
posicionamiento orgánico de este.
Opt-‐in email
En el área de e-‐mail marketing, se conoce
como opt-‐in e-‐mail a aquellos e-‐mails
promocionales que pueden ser enviados a
usuarios han previamente dado su
consentimiento.
outreach link building
Estrategia de link building consistente en el
envío de e-‐mails informativos (no
automatizados) a sitios web externos. El
objetivo es la promoción del contenido web y
la adquisición de enlaces.
P
Page Layout
Algoritmo empleado por Google para
penalizar páginas con un alto contenido
publicitario, dóde resulta difícil distinguir la
publicidad del contenido.
PageRank
Algoritmo empleado por Google para analizar
la popularidad de un sitio web.
página de recursos
Página que contiene enlaces hacia artículos de
calidad de una temática específico.
paginación web
299
División de un documento web extenso en
múltiples documentos.
Páginas Vista Únicas
Métrica que mide el número total de
documentos web (distintos) visitados por un
usuario durante una sesión.
páginas vistas
Métrica que mide el número total de páginas
vistas por un usuario durante una sesión
palabra clave
Términos introducidos por los usuarios para
realizar búsquedas web.
palabras clave
Conjunto de palabras clave introducidas por
usuarios para iniciar búsquedas web.
Partial Match Domain
Dominios web que contienen palabras de
búsqueda en la raíz del dominio o sub-‐
dominio.
pay-‐per-‐click
Modelo de promoción online por el cual el
anunciante paga únicamente por los clics que
recibe el anuncio.
plataforma de afiliación
Plataforma que permite que los afiliados y
anunciantes contacten entre si. Ofrece
además servicios para medir el resultado de
las campañas.
PMD
Acrónimo de partial match domain.
programa de afiliados
Práctica de marketing online en la que un
proveedor de servicios o productos ofrece un
porcentaje a los afiliados sobre aquellas
ganancias iniciadas por acciones de estos.
protocolo de exclusión
También conocido como protocolo de
exclusión robots, informa a los crawlers
sobre las carpetas y documentos para los
cuales disponen de autorización para
rastrear/escanear.
pujas condicionales
Tipo de puja existente en la plataforma
Google AdWords que permite refinar el precio
de las pujas en base a criterios específicos.
Otorgan mayor control a los anunciantes,
permitiéndoles incrementar o decrementar el
precio de las pujas en base al perfil de los
usuarios.
Q
quality score
Métrica empleada en Google AdWords para
medir la calidad de una campaña publicitaria
en base a las keywords seleccionadas, la
calidad del anuncio y la landing page.
R
ratio de conversión
Porcentaje de visitantes web que realizan
una determinada acción en el sitio web.
redes de afiliación
Sitio web que anunciantes y afiliados
emplean para establecer contacto y colaborar
entre ellos.
redireccionamiento
Método utilizado para informar a los
navegadores sobre la reubicación de recursos
web.
rel = “nofollow”
300
Atributo empleado en enlaces como medio
para informar a Google de que no pase link
juice ni rastree estos enlaces
remarketing
Técnica de marketing online centrada en
alcanzar a usuarios que interactuaron
previamente con nuestro sitio web.
robots
Término sinónimo a crawler. Dependiendo
del contexto puede ser empleado para
denotar: crawler; el protocolo de exclusión
robots.txt; meta etiqueta robots.
robots.txt
Fichero que define el protocolo de exclusión
robots. Define los documentos que pueden
ser rastreados por los crawlers.
RSS
Acrónimo de Really Simple Syndication,
formato XML para sindicar contenidos web.
S
Search Engine Optimization
Conjunto de prácticas dedicadas a optimizar
documentos web, siendo su objetivo el de
mejorar el posicionamiento de estos en los
motores de busqueda.
Search Engine Results Page
Término usado para referenciar la página de
resultados de un buscador.
Search Network
Grupo de buscadores donde pueden
mostrarse anuncios pertenecientes a Google
AdWords.
SEO
Acrónimo de Search Engine Optimization.
SERP
Acrónimo de Search Engine Results Page.
servidor de direcciones
Componente perteneciente a motores de
búsqueda, se encarga de almacenar listas de
direcciones web y servirlas al crawler.
servidores web
Proceso o sistema encargado de recibir, procesar
y responder peticiones web.
Sesión
Conjunto de acciones que tienen lugar desde que
el usuario accede a un sitio web hasta que se
marcha o transcurran más de 30 minutos de
inactividad. En Google Analytics, sesión es
sinónimo de visita.
Sitelinks
Conjunto de enlaces adicional que Google
muestra en la lista de resultados.
sitemap
Protocolo empleado para informar a los
crawlers sobre las direcciones existentes en
un sitio web.
snapshot
Código HTML que se obtiene tras la ejecución
del código JavaScript.
spamming link building
Creación y distribución de enlaces de forma
masiva, sin la realización de méritos propios
para la adquisición de estos
spiders
Sinónimo de crawler.
squeeze pages
301
Documentos web especializados en la
captación de datos del usuario.
T
Target and bid
Opción que encontramos en la plataforma Google
AdWords para filtrar la audiencia que recibe la
campaña, pujando únicamente por aquellos que
reúnan los requisitos establecidos.
template
Elemento HTML que no presenta refresco visual
en sitios web que cargan contenido mediante la
tecnología Ajax.
términos de búsqueda
Conjunto de palabras empleadas por los
usuarios para realizar búsquedas web.
Tiempo en Página
Métrica de Google Analytics que mide el
tiempo que un visitante está en una página
web.
Tiempo medio en el site
Métrica de Google Analytics que mide el
tiempo medio que emplean los usuarios en el
sitio web, contabilizando en los cálculos
aquellas visitas cuyo tiempo en el sitio web es
cero.
Tiempo medio en Página
Métrica de Google Analytics que mide el
tiempo medio empleado por los usuarios en
un documento web, excluyendo visitas con
tiempo cero.
title
Etiqueta situada en la cabecera del documento
HTML, proporciona información concisa a
usuarios y motores de búsqueda.
TLD
Acrónimo de Top-‐Level Domain.
top-‐level domain
Mayor nivel jerárquico alcanzable al que
pertenece un documento.
TrustRank
Algoritmo empleado por Google para
determinar la reputación de un sitio web.
TTFB
Acrónimo de Time-‐To-‐First-‐Byte. Referencia al
tiempo que tarda el navegador en recibir el
primer byte cuando descarga un sitio web.
U
User-‐agent
Directiva empleada en el protocolo de exclusión
de robots, identifica qué crawlers deben
obedecer el protocolo.
V
versión de control
En experimentos de A/B testing se conoce como
versión de control a la versión contra la que se
comparan los resultados. Versión original sin
modificaciones.
versión variante
En experimentos de A/B testing se conoce como
versión variante a la versión sobre la que se
aplican cambios. Versión que sufre
modificaciones.
Visitante Único
Número de visitantes diferentes que realizaron
algún tipo de petición al servidor durante un
periodo de tiempo específico.
Visitantes Recurrentes
302
Visitantes identificados con anterioridad que
inician sesión más de una vez.
volumen de búsquedas
Cantidad de búsquedas realizadas empleando
palabras clave específicas.
volumen de tráfico
Cantidad de usuarios a los que se puede tener
acceso.
W
web spam
Páginas creadas y optimizadas para adquirir
un buen posicionamiento mediante el uso de
técnicas penalizadas por los motores de
búsqueda.
WebCEO
Plataforma online para realizar actividades de
optimización de contenidos y social media.
webmasters
Administrador de un dominio web.
X
XSS
Acrónimo de Cross-‐site scripting. Vulnerabilidad
encontrada en aplicaciones web.
Top Related