Cómo diseñar una perfecta estrategia SEO - Lakil Essady en Congreso Web Zaragoza 2016
Lakil Essady ha planteado la charla como una introducción al proceso de establecer una estrategia real cuando pensamos en SEO de cara a un proyecto web.
Como primer punto Lakil recomienda alejarnos de las noticias que recibimos a bombo y platillo, bombardeados por los blogs especializados y comenzar a trabajar con sentido común y siguiendo con la estrategia de nuestro proyecto.
¿Qué es una estrategia en SEO? Tenemos unas ideas:
- La estrategia no es táctica. Táctica son acciones a desarrollar. Estrategia es siempre a largo plazo
- Auditoría no es consultoría. La auditoría te dice que está bien o mal, el consultor es el que transforma esa información en acciones de valor.
- La estrategia debe cimentarse en 4 fases: Producto -> Tecnología -> Usabilidad -> Marketing. Sin esta base la estrategia no va a funcionar
Define como clave de tu estrategia el producto. Si no tienes un producto mejor es muy complicado luchar por ejemplo con amazon.
No debes pensar en tu estrategia de SEO sólo en linkbuilding. Estás falseando la autoridad de la web y si detrás no hay producto no funcionará siquiera a corto plazo.
Contenidos. Diferénciate y hazte algunas preguntas: ¿Mis contenidos son exclusivos? ¿Tienes capacidad de profundizar en el tema con autores relevantes? ¿Eres el más rápido?
Si no puedes responder si a alguna de estas preguntas replantea tu estrategia de contenidos.
- Debes crear contenidos que la gente busca o demuestra interés, si no hay búsquedas es difícil captar tráfico. Recuerda que hablamos de SEO
- Publica regularmente. Si no captas el interés del usuario de forma regular la estrategia no va a funcionar
- Trata de crear contenidos muy potentes. Seguramente no podrás generar más de 1 o 2 al año, pero son los que te darán notoriedad de verdad y te diferenciarán de la competencia
¿Debemos hacer linkbuilding para nuestro SEO? Si, pero es mejor crear notoriedad
¿Estructura? Clasifica, clasifica y clasifica. Pon orden y que sea fácil de localizar lo que se busca
¿Ser relevante? Por su puesto. Si no eres relevante en nada... Vamos por mal camino, trabaja para ser relevante al menos en algo. Recuerda que la estrategia es a largo plazo. ¡Sé relevante el producto y el contenidos!
¿Long tail? Las keywords premium tienen tanta competencia -incluso en PPC- que lograr primeras posiciones es muy complicado. El long tail no tiene competencia PPC y el orgánico es mucho menos reducida. Aprovecha las oportunidades.
¿Trabajamos el rebote? Ataca este aspecto. La experiencia de usuario es vital y nos dirá si estamos haciendo las cosas bien
Aquí tenéis la ponencia de Lakil para que la podáis consultar Ponencia sobre estrategia SEO de Lakil Essady en Congreso Web Zaragoza 2016
Penalizaciones de algoritmo Panda - César Aparicio en Congreso Web Zaragoza 2016
Cesar Aparicio ha comenzado su charla haciendo una introducción sobre algunos avances tecnológicos a lo largo de la historia, los cambios que supusieron en cada época. Contexto. Un gran contextualizador Cesar Aparicio, aparte un profesional del linkbuilding al que siempre hay que dejar hablar. Cuando los mayores hablan lo niños se callan.
Toda esa evolución tecnológica a la que ha hecho referencia Cesar Aparicio nos sirve como introducción al uso de la tecnología que hacemos hoy en día y el procesamiento de la información que eso está generando: Estandares de procesamiento de fuentes de información (Big Data), frameworks, Inteligencia Artificial... Esto se pone interesante.
Así que Inteligencia Artificial ¿eh? Pues hablando de IA ya estamos hablando de algoritmos y cómo no, de Google, rankings y factores de posicionamiento. Oh si, ¡Ya estamos hablando de SEO!
¡¡¡¡PANDA!!!! Cesar nos explica que es realmente Panda: No es más que un algoritmo que analiza patrones en base a datos muy complejos y que es más que capaz de detectar contenido de baja calidad, contenidos duplicados, y que afecta a:
- URLs de un sitio web, no solo a 1 URL si no a todas las que considera que están agrupadas
- Panda funciona con umbral absoluto asignado al dominio.
- Tiene un umbral diferente para cada dominio, no es lo mismo un gran diario digital que un blog.
Después de poner varios ejemplos de penalizaciones y aspectos de Panda, Cesar resume: Si compites contra una máquina que aprende y funciona casi por si sóla, debes conocer cómo funciona y a su vez utilizar herramientas capaces de manejar el volumen de información que nos permita competir contra ella. Si, ha presentado algunas funcionalidades del software que presentará en breve y que nos permitirá evaluar ciertos aspectos del contenido de los sitios web y luchar en cierto modo contra Panda: SafeCont.
Definir una arquitectura web - Fernando Muñoz en Congreso Web Zaragoza 2016
Fernando Muñoz ha presentado una ponencia sobre estrategia o mejor dicho táctica, un área del SEO que no se trata demasiado en eventos del estilo del Congreso Web Zaragoza: Cómo plantear la organización del sitio web cuando tienes cientos de contenidos que además tienen vinculación local no sólo a unas cuantas provincias sino a miles de ciudades... ¿Cuantas URLs a posicionar? Pues en torno a 500.000
¿Que solución propuso Señor Muñoz en este caso?
Relevancia. Decide que es lo importante y enfoca el esfuerzo donde de verdad es necesario.
¿Como se decide esto? Con datos. En el proyecto en el que se basa la ponencia el 75% del tráfico provenía de 5 ciudades, así que parece que al menos el comienzo estaba claro.
Indexación. Otro de los mayores retos del proyecto. Optimizar el crawl rate y crawl budget (recuerda, 500.000 URLs).
Usuarios. Lo más duro del proyecto fue conocer los hábitos de búsqueda de los usuarios para definir además la estructura de las propias URL. Una vez más, los datos mandan, así que a analizar toca.
Contenidos. Determinar cuales son las URLs que el buscador debe mostrar y potenciar la relevancia con enlazado interno y con el uso de canonicals. Recuerda de nuevo, 500.000 URLs
On Page. Te imaginas trabajar con 500.000 metatitles y otras tantas metadescription... En Señor Muñoz establecieron unos modelos estandar que se modificaban en base a ubicación y número de resultados de eventos por cada ubicación. Fue la mejor forma de hacer manejable tal volumen de trabajo.
Un viaje interesante sobre como tomar las decisiones y plantear un proyecto SEO de forma práctica que visto sobre el papel resulta evidente, pero en el que encontrar la senda adecuada en una estructura de semejante envergadura no es nada sencillo, y también un ejercicio de penitencia por parte de Fernando Muñoz, tratando también los errores cometidos, algo de lo que casi nunca se habla sin haber cerveza de por medio...
AMP o como mejorar la velocidad de carga web - Pedro Martinez en Congreso Web Zaragoza 2016
La charla de Pedro Martinez nos adentra en algunos aspectos técnicos del desarrollo web relacionado con el SEO, tiempos de carga y la experiencia de los usuarios con relación al rendimiento, vamos WPO en toda regla.
El 40% de los usuarios móviles abandonan la web si ésta tarda más de 3 segundos en cargar.
Con esta premisa no hace falta añadir más contexto para justificar la necesidad de optimizar los desarrollos web y tratar de implementar aquellas tecnologías que nos ayudan a mejorar, y con esta base Pedro Martinez nos ha explicado el porqué y con qué objetivos Google lanza AMP
Hemos visto toda una serie de procesos que nos ayudarán a mejorar el rendimiento de la web y algunos fragmentos de código y sus funciones bajo esta nueva tecnología, que deberemos tener muy en cuenta.
Ventajas de AMP: Velocidad de carga y experiencia de usuario
Desventajas de AMP: Varias versiones diferentes (escritorio, desktop...), No válido para Foros o eCommerce, tecnología en pañales
Recuerda que esta tecnología está impulsada por Google y que cuando hablamos de SEO (al menos en España) hablamos básicamente de Google. ¿Debemos tenerlo en cuenta? Yo creo que si.
Una visión general sobre esta nueva tecnología que seguro dará mucho que hablar desde el punto de vista de un SEO de uno de los grandes medios en España
Hackear Personas: SEO y Content Marketing - Arturo Marimón en Congreso Web Zaragoza 2016
Una forma genial de comenzar el Congreso Web Zaragoza de 2016. Personalmente Arturo Marimón es uno de los SEOs nacionales que más que gustan por su enfoque y por su perspectiva tanto de los proyectos como del sector en si.
De eso ha ido la ponencia de Arturo de este año, perspectiva. Replanteamiento del proceso SEO y de llegar a los límites de esta estretagia de marketing y del propio perfil profesional del SEO yendo mucho más allá de los enlaces, las palabras clave o la velocidad de carga.
La charla ha sido casi más una masterclass de UX que de SEO en si mismo, aunque pensándolo bien... Si, os lo he dicho, la perspectiva cambia cuando hablas con Arturo.
Un montón de ideas y sugerencias a tener muy en cuenta a la hora de plantear una estrategia pero básicamente 1: Usuario, usuario y más usuario. ¿El SEO es usuario? Ahí lo dejo.
En resumen:
- Segmenta por motivación: Conoce a tu usuario y enfoca tu estrategia para satisfacer sus necesidades
- Diseñar no es colorear: El diseño y la experiencia del usuario en un sitio web es capital. Una web no es tecnologia, son emociones.
- La clave: micromomentos. Trabaja para conocer el estadío en el que está cada usuario. Es la clave para conseguir los resultados
Una charla muy potente y reflexiva, más allá de técnicas o estratégias.
Bloquear la indexación de archivos PDF
El uso del fichero robots.txt para el control de rastreo e indexación de un sitio web es muy conocido y utilizado para evitar la indexación de páginas o directorios, aunque menos de lo que sería deseable, pero si hay algo a lo que muchos responsables de un sitio web no prestan atención sobre la indexación son los archivos que contienen las páginas bloqueadas desde el robots.txt
Me he encontrado muchos casos en los que me dicen que tienen bloqueado un directorio desde el fichero robots.txt y sin embargo los archivos PDF o las imágenes enlazadas desde ese directorio si que están indexados e incluso con buenas posiciones en búsquedas relevantes.
Google es un devorador de información y si localiza un fichero PDF en tu sitio web por otros medios, como puede ser un enlace desde otro sitio web, lo indexará y mostrará en los resultados de búsqueda.
Como evitar que Google indexe ficheros PDF
Para solucionar este problema podemos hacerlo de 2 maneras:
- Bloqueándolo desde el fichero robots.txt
- Bloqueándolo desde el fichero .htaccess con la etiqueta
X-Robots-Tag
Para evitar la indexación de todos los ficheros PDF de tu sitio web a través del fichero robots.txt bastará con añadir esta instrucción:
Disallow: *.pdf$
Si prefieres hacerlo desde el fichero .htaccess la instrucción a añadir sería esta:
<Files ~ "\.pdf$">
Header set X-Robots-Tag "noindex, nofollow"
</Files>
Debes saber que los robots responsables del rastreo de tu sitio web comprobarán antes el fichero robots.txt y sólo si éste autoriza el rastreo se aplicaría la instrucción desde el fichero .htaccess
¿Cómo elimino un PDF de los resultados de Google?
Si el fichero PDF que quieres bloquear ya está indexado por Google debes añadir la instrucción de bloqueo bien a través de robots.txt o de .htaccess y después acceder a tu cuenta de Search Console y solicitar la eliminación de esa URL en el apartado Índice de Google
Te mucho cuidado con el uso de estas instrucciones en el fichero robots.txt o en .htaccess. Una mala implementación puede causar estragos en la indexación de tu sitio web
Si quieres más información sobre este asunto, puedes visitar la documentación de Google a este respecto