Posicionamiento y Optimización del WEB – SEO/ProfesionalNet

Un Blog gratuito sobre artículos, recortes de prensa, blogs, teoría y herramientas del posicionamiento web

Archive for the ‘Artículos Posicionamiento’ Category

Google actualiza sus algoritmos.

Posted by diseño web madrid en marzo 13, 2008

Google algoritmos 

Leemos en DosBit, vía Search Engine Land:

Google empieza a dar por avisados a propios y extraños que las cosas en internet están cambiando. No sabemos si es por la competencia, por mejorar o por poner las cosas más difíciles aún, pero dentro de poco tiempo el servicio AdWords añadirá un parámetro más en el puntaje de las páginas.

Desde su cuartel informan que uno de los nuevos obstáculos para mejorar o mantener nuestra posición (ranking) pasa por gestionar correctamente el tiempo de carga de las páginas. Para entender como funcionará el sistema, Google comprobará el tiempo de carga de las páginas por grupos que compartan situación geográfica. así, después de varias mediciones se tomará el valor de las más rápidas como valor estándar,  mientras las demás llevará el sello de “lentitas”. Desde Google animan a los Webmasters o gestores de páginas de cualquier tipo que vayan poniéndose al día en cuanto a optimización de recursos, imágenes y tiempos de carga para evitar ser “etiquetados”. Quien nos iba a decir que llegaríamos a ser indexados por Meta Etiquetas (MetaTags), que triste.

Posted in Artículos Posicionamiento, google adwords, Noticias Google, Noticias SEO | Etiquetado: , , , , | 1 Comment »

Yahoo! ofrece mejores resultados en sus consultas.

Posted by diseño web madrid en marzo 10, 2008

yahoo! 

En Compete Inc. encontramos un interesante informe que refleja que claramente Google lidera el mercado de los buscadores en cantidad de búsquedas recibidias, pero paradójicamente es Yahoo! quien más clicks recibe.

Refiriédonos extrictamente a los porcentajes, podemos asegurar que el buscador Yahoo! es el buscador que ofrece los resultados más adecuados a la búsqueda del usuario, situándose esta alta calidad de respuesta en que 3 de cada 4 usuarios encuentran lo que buscan ya en el Top10 de los resultados ofrecidos.

A modo de ejemplo, en el pasado mes de agosto cerca del 75% de los resultados consiguieron al menos un click en la primera página de Yahoo!, por su parte Google acumula un 65% y MSN/Live el 59%.

Posted in Artículos Posicionamiento, Hábitos Internet, Noticias Yahoo! | Etiquetado: , , , , , | 1 Comment »

Los secretos SEO de once posicionadores.

Posted by diseño web madrid en marzo 7, 2008

Secretos SEO 

Secretos SEO:

Leemos en PabloGeo, un artículo recogido sobre los secretos SEO de once reconocidos profesionales del posicionamiento web, dice así:

“Hoy he visto un artículo donde once profesionales SEO nos cuentan algunos secretos (inglés) que ellos utilizan para conseguir enlaces o sacarle más jugo a los que puedan conseguir. Si bien no todos se mojan, hay algunos que son realmente interesantes.

Yo personalmente me quedo con la experiencia de Peter Van Der Graaf, utilizando una técnica interesante para conseguir enlaces con el “anchor text” bukakke hacía una página temporal que luego sería redireccionada a una pornográfica para posicionar esa palabra.

También me interesa mucho lo que dice Patrick Altoft, vosotros sabéis como emplear esa técnica?”

🙂 Un saludo. ProfesionalNet.

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

Long Tail: El número de palabras por búsqueda ha pasado de 3 a 4.

Posted by diseño web madrid en febrero 28, 2008

long tail 

Según comentan en SEW, Avinash Kaushik de Google Analitycs comentó el fin de semana pasado que por primera vez el número de palabras por búsqueda ha pasado de 3 a 4.

Es decir, que la gente cada vez realiza búsquedas más precisas y concretas, con 4 palabras por búsqueda. Esto son buenas noticias para los que optimizan sus webs para el long tail, y para aquellos que ven imposible competir para determinadas palabras genéricas.

Yo soy de los que creo que es un error posicionar pensando en el long tail, principalmente porque si consigues posicionar una palabras genérica, es mucho más sencillo posicionar términos relacionados con dicha palabra. Sin embargo, hay blogs, especialmente blogs, que reciben miles de visitas diarias únicamente del long tail, lo que abre el juego a más webs, y parece que la tendencia es a ampliarse todavía más.

Esto son buenas noticias, especialmente para las webs más nuevas.

Fuente: AdSeok

Posted in Artículos Posicionamiento, Hábitos Internet, Noticias SEO, Posicionamiento web | Etiquetado: , , , , , , , , | Leave a Comment »

SoySpam, una red social …

Posted by diseño web madrid en febrero 20, 2008

soyspam 

SoySPAM.es es una web social donde puedes dar a conocer tus productos, servicios, blogs o webs que consideres interesantes.

También puedes criticar u opinar sobre las webs publicadas por otros usuarios. Aqui SI se permite el spam y la autopromoción. ¿Tienes una web sobre alargadores de pene suecos? Publícala. ¿No te funcinó la pastillita que compraste? Criticalos. ¿Quieres coseguir que alguien lea tu blog?

Curiosa iniciativa, no quiero pensar si aparacen más “webspam”: www.soyspam.es

Posted in Artículos Posicionamiento | Etiquetado: , , , | Leave a Comment »

Optimización web para empezar…, ¿Qué es?

Posted by diseño web madrid en febrero 12, 2008

Optimización web, ¿Qué es?

Somos principiantes y deseamos mejorar las posiciones de nuestra web, alguien nos ha hablado de la optimización web, todo un mundo de acciones, ya pero, en que consiste de forma breve? Consiste de optimizar el código de la página web (limpiando y optimizando el HTML, por ejemplo) para lograr mejorar el posicionamiento en buscadores de sitios en Internet como Google. El objetivo: cuando un potencial cliente escriba o busque nuestros productos o servicios por Internet, nuestra página web debe aparecer entre los primeros resultados ofrecidos por el buscador.

optimizacion-web 

Bien si, pero, por donde empezamos?, los términos de búsqueda:
Primero analicemos nuestros términos de búsqueda y establezcamos cuáles son nuestros potenciales clientes y como buscarán nuestros productos o servicios. También deberemos analizar los sitios web de nuestra competencia para dibujar una idea clara de cuáles son los términos que están utilizando para lograr buenas posiciones en los buscadores.

El contenido, la base del posicionamiento:
Crear  contenido rico, original y descriptivo es un factor bastante importante para lograr que nuestros clientes encuentren nuestro website utilizando las palabras que aparezcan en el contenido de nuestra web. El contenido debe incluir las palabras de búsqueda elegidas además de información útil para el visitante. Los buscadores (entre otros análisis) miden el porcentaje de densidad de nuestro contenido en texto y código, cuantos enlaces tiene nuestra página web, el texto de los hipervínculos (Anchor text) en sus enlaces, la temática y semántica de nuestra web y los sitios que enlazan con el nuestro, el título de nuestra página web, la descripción, etc. Existen más de 200 factores que forman parte del algoritmo de Google y cada uno debe ser considerado para obtener una buena posición, no olvidemos que Google, por ejemplo, utiliza un sistema similar al software antispam, puntuando nuestra web en negativo, sumando puntos positivos según el resultado del cálculo de sus algoritmos, estos cada vez son más “inteligentes” y sensibles a la sobreptimización.

Una vez que hayas analizado y modificado tu web, debes indexarla en  los buscadores (Alta en Buscadores) para que les incluyan en sus índices. Esto puede llevar un tiempo debido a que existen a veces miles o millones de resultados que los buscadores tienen que revisar para su inclusión o actualización en los buscadores. Sin embargo, hay varias formas de lograr que nuestra página aparezca más rápido en los buscadores y con un buen posicionamiento también.

Backlinks:
Conseguir enlaces de otras páginas web es una buena manera de comenzar tu proceso de  optimización. Ten en cuenta que Google le da mayor prioridad a ciertos enlaces. Enlaces que incluyen sus palabras de búsqueda o con una semántica similar a nuestra página, la antigüedad del enlace, el PR que transmite, por ejemplo. Si el contenido es similar pero no duplicado, Google valoriza más estos enlaces. También es bueno conseguir enlaces de otras páginas que incluyen sus palabras de búsqueda en su URL (dirección de la web en Internet) y su titulo de la página. No se trata solo de cuantos enlaces que tienes, sino la calidad ( características referidas) de los enlaces también.

optimizacion web

Existen factores internos y externos a optimizar en nuestra web. La optimización de páginas web se trata más del contenido y factores internos como de:

  • Su contenido
  • Enlaces Internos
  • Título
  • Descripción
  • Densidad de Palabras, etc.

Cada factor es importante optimizar para posicionar nuestra página web. El primer contenido a tener en cuenta en nuestra página web debe incluir una breve descripción de la página. Cada página debe contener un contenido distinto y original. El título y descripción de cada página debe ser distinto también, existen ya  muchos filtros para el contenido duplicado y nuestra página puede ser penalizada o Google puede esconder algunos de nuestras resultados en el índice suplemental debido al contenido duplicado, este contenido no debe sobrepasar el 20% de semejanza.

La inteligencia AntiSpam ha ganado:
No intentes engañar los buscadores con textos escondidos, repetidos o cloaking. Estos métodos de prohibidos pueden terminar perjudicando nuestra página siendo esta penalizada y borrada completamente de la caché de  los buscadores. No es necesario realizar Spam para obtener buenas posiciones si existe un buen contenido, enlaces y optimización, de forma natural conseguiremos posición y por lo tanto tráfico interesante e interesado.

optimizacion web3

Visibilidad de tus páginas:
Asegúrate que los buscadores pueden navegar fácilmente por nuestra web. Esto sirve para que cada página sea incluida en el índice-caché de los buscadores. Si existen muchos directorios es más difícil y por lo general tarda más antes que todas las páginas sean incluidas en el buscador Lo más importante es que incluyas enlaces internos a cada página de la web para que los buscadores puedan encontrar cada página siguiendo los enlaces internos o externos dirigidos interiormente. Esto también lo puedes lograr utilizando un Sitemap.xml y utilizando, por ejemplo, las herramientas para webmasters de Google. También puedes analizar tus visitas y palabras de búsqueda más utilizadas con la herramienta de análisis de Google.

No olvides, regularmente analizar e incluir nuevos términos de búsqueda para conseguir más tráfico para tu sitio web. Mantener nuestra página actualizada, agregando nueva información periódicamente, logra que los buscadores visiten nuestra página web con mayor frecuencia y como resultado las páginas web aparecen en el índice más rápido cuando se realizan nuevos cambios.

Lo más importante:
Una de las acciones a realizar más difícil y entretenida, por lo tanto cuidadosa por importante, es conseguir suficientes enlaces de importancia hacia nuestra página web porque esto requiere tiempo y análisis de nuestros términos de búsqueda elegidos, las páginas donde debes conseguir los enlaces, el texto de los enlaces, el contenido de las páginas con una temática similar a nuestra página, etc. Una buena forma de crear enlaces con contenido similar a nuestra página es escribir artículos, páginas públicas de favoritos, directorios web, intercambio de enlaces (enlaces recíprocos), etc.

Finalmente, “detalles” que ayudan:
Puedes aumentar su densidad y prioridad de las palabras de búsqueda de varias maneras. Utiliza descripciones con sus palabras de búsqueda para describir sus imágenes (Alt Image Text), utilizar descripciones en los enlaces (título de enlaces), utilizar tus términos de búsqueda en la URL de tu página, utilizar sus palabras de búsqueda en el título y descripción de cada página, escribir contenido con sus palabras de búsqueda, etc…

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , , | Leave a Comment »

Enlaces Recíprocos.

Posted by diseño web madrid en enero 22, 2008

Enlaces Recíprocos

Uno de los temas más comentados en cualquier foro en los últimos meses es el papel que juegan los enlaces recíprocos en Google. Un tema de consideración ya que el carácter recíproco de los enlaces es algo muy común en muchos intercambios de enlaces. Desde la conocida actualización Florida, que Google llevo a cabo hace un año, han surgido diversos rumores sobre los intercambios de enlaces y las posibilidades de que los enlaces recíprocos estén devaluados o hayan perdido todo su valor.

Los enlaces recíprocos no están devaluados, ni penalizados, ni han perdido valor. Los intercambios de enlaces (recíprocos o no) siguen jugando un papel fundamental en la metodología SEO.
¿Páginas o Webs?
Debemos distinguir entre web y página (o página web). Web es un conjunto de páginas alojadas bajo un mismo dominio. Página es cada uno de los documentos individuales -normalmente con URL propia- de un dominio (de la web). Google, a la hora de proporcionar los resultados de una búsqueda, nos devuelve páginas concretas, no dominios (webs). Google posiciona las páginas de las webs individualmente. El papel de otras páginas del mismo dominio puede jugar a nuestro favor, pero a la hora de que una página sea listada en Google, el resto de páginas del dominio son vistas como factores externos. Nosotros, en nuestras webs, podemos verlas como factores on the page, porque están bajo nuestro control, y podemos jugar con la estructura de la web, con el anchor text que apunte a una página determinada, con el número de enlaces que reciba a nivel interno del propio dominio, etc. Pero Google, ve una página, y en sus resultados la posiciona individualmente, independientemente del resto de los contenidos del dominio. Si todo el dominio habla del mismo tema que esa página, sólo jugará a su favor, si tiene enlaces hacia esa página desde otras páginas (si están relacionadas mejor) del dominio. A efectos de posicionar una sola página de una web, tener 1000 páginas en el mismo dominio que hablen de lo mismo, pero que no estén enlazadas entre ellas, sería como tener 1000 páginas diferentes en dominios diferentes sin enlazarlas.

Hay un caso en el que Google favorece a las páginas del mismo dominio. Cuando hay dos páginas de un misma web dentro de la página de resultados de búsqueda, Google agrupa la que ocupa el peor lugar justo después de la primera. Me explico: si tenemos configurado Google para mostrar 10 resultados por página, y yo tengo una página en la segunda posición de una búsqueda, si otra página de ese dominio alcanza la décima posición, automáticamente pasa al tercer puesto, es agrupada de forma consecutiva con la otra página del dominio. Si tenemos Google configurado para mostrar 100 resultados por página y tenemos la quinta posición y la nonagésimo novena, ésta última saldrá listada en la sexta posición. Podemos establecer como regla general:

Cuando en la misma página de resultados de Google salen listadas dos páginas del mismo dominio en posiciones no consecutivas, Google agrupa las dos páginas, de forma que la que ocupa el peor puesto de las dos, es listada a continuación de la que ocupa el mejor puesto de ambas.
¿Qué es un Enlace Recíproco?
Ahora que hemos explicado que Google valora páginas individuales en sus resultados y no dominios, podemos establecer que un enlace recíproco es aquel que tiene sentido bidirecciónal entre dos páginas. Dicho de otra forma: La página “A” apunta a “B”, y la página “B” enlaza a “A”.

A veces se habla de enlaces recíprocos cuando hay enlaces bidireccionales entre dos dominios, pero no entre las mismas páginas. Explicado: Tenemos un dominio “D1” y un dominio “D2. “D1” tiene una página “A” que apunta a una página “C” del dominio “D2”. “D2” tiene una página “B” que enlaza a la página “A” de “D1”. Sean “D1” y “D2” dominios difentes, “A” una página del dominio “D1”, “B” y “C” páginas diferentes del dominio “D2”, y “z -> x” representa un enlace de “z” a “x”.

Tenemos: D1.A -> D2.C y D2.B -> D1.A

¿Podemos considerarlos enlaces recíprocos?
 Si bien son enlaces entre dominios, no deben considerarse enlaces recíprocos, ya que hay infinitas posibilidades de que se dé este caso, y es prácticamente imposible de controlar. No representa ningún riesto este tipo de intercambios. Pensemos en el mundo de los blogs, prácticamente todos los enlaces serían recíprocos, la mayoría hemos enlazado a casi todos los blogs que nos han enlazado en algún que otro post.
¿Qué se ha devaluado?
Hace una año eran muy comunes los intercambios de enlaces desde todas las páginas de una web hacia la página principal de otra web, y desde todas las páginas de esta segunda web también se enlazaba a la página principal de la primera web, con esto se conseguía un importante aumento del PageRank, así como un buen número de enlaces con el mismo texto. Era una forma rápida y efectiva de lograr miles de enlaces intercambiando con una sola web. Google ha devaluado los enlaces que provienen desde las IPs que tienen en común los tres primeros bytes. Así que ese método de intercambio ha perdido mucho valor, ya que se lograban sólo enlaces desde una misma IP por cada web con la que intercambiábamos. Ahora es mucho más interesante la idea de conseguir sólo 5 enlaces desde 5 IPs (variando los tres primeros octetos) diferentes, que 1000 enlaces desde una misma IP.

Éste fue uno de los motivos que impulsó la creencia de que los enlaces recíprocos estaban devaluados. Era fácil comprobar que esos enlaces no funcionaban para mejorar posiciones como lo hacían antes, pero lo devaluado no era el enlace en sí por el hecho de ser recíproco, era la procedencia de enlaces masivos desde la misma IP.
Recíprocos vs. No Recíprocos.
Es muy frecuente leer que es mejor un enlace unidireccional que bidireccional, que es mejor un enlace no recíproco que uno no recíproco. Esto es falso, y lo que debe imperar es el sentido común. Lo mejor son los enlaces que se ponen de forma natural, sin realizar intercambios, los enlaces entre páginas relacionadas, y que aportan algo al usuario que está leyendo los contenidos de la página donde va el enlace. Está comprobado que estos enlaces son siempre los que más visitas proporcionan a otras páginas web. Son los enlaces donde más fácil nos resulta hacer un click de ratón. El carácter recíproco del enlace no tiene nada que ver con su valor, hay muchos más factores: la posición del enlace, el texto que lo rodea, el tener más enlaces desde esa misma IP, etc.

Los enlaces entre páginas relacionados son la mejor forma de subir posiciones en Google, ya sean recíprocos o no. Simplemente porque el que sean recíprocos no perjudica en nada. Se pueden observar grandes beneficios con intercambios de enlaces entre páginas que compiten por la misma búsqueda. Estos enlaces son de gran valor para el usuario, y Google sabe valorarlos en su justa medida. Si lo que se valora son los enlaces naturales, lo adecuado es hacer intercambios de enlaces naturales. Tal vez no enlacemos a otra web por el simple hecho de que sea de la competencia, pero los usuarios, y por tanto los buscadores, saben valorar ese tipo de enlaces positivamente. Porque están relacionados, porque ofrecen una continuación a ese página, porque es una aportación de contenido útil, y si el enlace se hace recíproco… ¿Qué importa?
Peligros.
No representa ningún peligro utilizar enlaces recíprocos en intercambios de enlaces. Lo peligroso son los grandes anillos que a veces se forman. Las webs que intercambian enlaces suelen hacerlo siempre con las mismas, de forma que es una rueda que crece. Primero empiezan 10, luego 20, 30, etc, y más tarde Google detecta que hay una red de páginas con un número de enlaces entre ellas nada natural, y decide que pierdan valor. No llega a banear, o a realizar una penalización, detecta esas páginas como afiliadas, y todo el peso de los enlaces, todo lo positivo que nos aportaban en temas de posicionamiento, se pierde. Es algo normal, porque es poco natural que 50 páginas se enlacen todas entre sí, y no digamos si enlazan entre todas las páginas que contiene cada web, pero en su justa medida sigue siendo un arma muy efectiva en temas de posicionamiento en buscadores.

Las penalizaciones a grandes anillos de enlaces en los que participan un número muy elevado de páginas… ¿tienen algo que ver con los enlaces recíprocos?  No.

Autor: Fran Fernández
http://www.xeoweb.com/google/enlaces-reciprocos.php

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

Puntos importantes a tener en cuenta para conseguir enlaces.

Posted by diseño web madrid en enero 21, 2008

Puntos importantes a tener en cuenta para conseguir enlaces.
Jim Westergren publica una excelente guía sobre link building.
Escribo los puntos principales sobre los que se hablan a la hora de conseguir enlaces.1.- En los enlaces que consigamos debemos tener una variedad de anchor text. Variedad, naturalidad.

2.- Los enlaces hacia nuestra web deberían tener un buen porcentaje de ellos que provengan de páginas relacionadas. Cómo se señala en el enlace, esto es especialmente importante en páginas en idioma inglés dada su gran competitividad.

3.- No sólo es importante conseguir enlaces en cualquier lugar de una página. Mejor que sean variados. ¿Conseguir enlaces sólo desde el pie de páginas de las webs? También desde cabeceras, el texto, columnas de enlaces. Variedad, naturalidad.

4.- La colocación de enlaces que sea gradual en el tiempo. Con una progresión. Si podemos conseguirle 1000 enlaces a una página nueva, mejor empezar por 10 el primer mes, 50 el segundo, 200 el tercero, etc. Naturalidad en el tiempo.

5.- Enlaces en páginas con variedad de pagerank. En este punto no coincido tanto. Me inclino claramente por enlaces en páginas con variedad en la antigüedad de su dominio, y a esto le añadiría, los primeros enlaces siempre desde páginas más antiguas.

6.- Enlaces desde buenas comunidades. Evitar enlaces que provengan siempre desde páginas de dudoso valor.

7.- Variedad en las IPs y su clase C en los enlaces que consigamos hacia nuestra web.

8.- Enlaces desde webs de valor, tanto nuevas como antiguas. Páginas “de confianza” con buenos resultados en buscadores.

9.- Enlaces recíprocos entre sectores relacionados.

10.- No sólo enlaces a la página principal. Si las interiores tienen contenido, también tienen valor, y es natural que reciban enlaces.

11.- Los directorios son fruto de los primeros enlaces, de los enlaces más fáciles de solicitar, pero no deben ser nunca los únicos enlaces que tenga nuestra web.

12.- Enlaces permanentes, la antigüedad en su colocación puede darles más valor.

13.- Evitar la compra de enlaces que reflejen de forma evidente que son comprados (Anuncios, venta de enlaces, “sponsor”, ese tipo de columnas pueden ser detectadas por Google).

14.- Las páginas que nos enlacen no deben tener enlaces a malas comunidades acompañando al nuestro. A esto le añado, si el enlace a nuestra página está acompañado de enlaces a otras páginas de calidad en el sector, mejor que mejor.

15.- Un punto muy importante, que se destaca muy poco. Los enlaces que consigamos deben ser siempre desde y hacia páginas en el mismo idioma. Añado: Muy importante para los Google locales.

Este excelente artículo continúa con formas efectivas de conseguir enlaces.

1.- link baiting – ya sabemos que se ha hecho muy conocido esto en los últimos meses –

2.- Enlaces desde directorios.

3.- Intercambios, a 2 o 3 bandas.

4.- Alquiler de enlaces de alto pagerank (bueno en esto discrepo un poco, vuelvo a insistir en la antigüedad de las páginas y no comprar enlaces de forma evidente).

5.- link vault – Es una red de intercambios. La he utilizado una temporada, como todas para probarlas, en el artículo no lo señalan como “grey-hat” – peligroso – como señalan el punto anterior, pero habría que añadirlo. Es una red indetectable por Google, pero la propia página está baneada creo recordar. Sólo para aquellos que quieran jugar con ciertos riesgo, como la COOP en su día, pero está es mucho más disimulada. Google persigue estos sistemas bastante a día de hoy.

6.- La COOP – lo mismo que el punto anterior, pero con más riesgo a día de hoy. No recomendado, para webs hispanas olvidaos si no sabéis lo que hacéis.

7.- Enlaces desde otras páginas propias. Si están en el mismo sector y hay variedad de IP y clase C.

8.- Pagar a Bloggers. Esto se utiliza desde hace algún tiempo, no creo que demasiado todavía entre nosotros. La idea es pagarle a un blogger /web similar (no necesariamente blogs) porque haga un entrada posteando sobre nuestra web y nos coloque algún enlace. Es una forma muy interesante de ganar enlaces.

9.- Realizar búsquedas, encontrar páginas similares que puedan enlazarnos.

10.- Escribir testimonios, comentarios, artículos, etc. Participación generando contenidos. Envío de artículos a otras páginas, etc.

11.- Enlaces debajo de artículos. Crear artículos con enlaces a pie de página, con diferentes objetivos. Ya sea publicación en otras webs, webs propias, mejorar la indexación mediante enlaces a páginas profundas, o crear artículos por sectores para conseguir enlaces más relevantes.

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web | Leave a Comment »

Posicionamiento en buscadores: Técnicas penalizadas.

Posted by diseño web madrid en enero 20, 2008

La penalización de webs que realizan prácticas no éticas para posicionarse en los primeros resultados de búsqueda, es una estrategia que utilizan los buscadores para ofrecer resultados más interesantes a sus usuarios. Cuando se detecta que una página está realizando acciones no permitidas, se le penaliza, lo cual puede consistir en hacerla perder posiciones en las búsquedas o incluso eliminarla de los resultados y desindexarla. Entre los motivos que existen para ser penalizado, tenemos:

1. Texto oculto.
2. Webs duplicadas.
3. Enlaces artificiales.
4. Cloaking y doorways.

Texto oculto
Consiste básicamente en poner texto dirigido específicamente para los buscadores que no es visible para los usuarios con el fin de obtener un mejor posicionamiento en los buscadores. Los webmasters que realizan estas prácticas, se dedican a escribir palabras para rellenar su web y obtener así mayor densidad en ellas. Para que el usuario no las vea, es común que pongan el mismo color para el texto y para el fondo.

Webs duplicadas
Esto consiste en crear webs idénticas (con el mismo contenido y demás) para conseguir enlaces para la web que realmente se quiere posicionar. Esta técnica está bastante mal vista por los buscadores, por lo que hay que evitarla. Además, hay que tener cuidado al cambiar de dirección web de no dejar online la misma web en las dos direcciones porque podrías ser penalizado al tener contenido duplicado.

Enlaces artificiales
Consiste en aumentar de forma artificial los links entrantes a una web. Se puede hacer de varias formas y todas ellas resultarán perjudiciales para nuestra web tarde o temprano:

Realizar spam en blogs y libros de firmas, escribiendo en ellos con la única intención de dejar en enlace a la web.
FFA y granjas de enlaces: son páginas dedicadas a dar enlaces a otras páginas, ya sea pagando o gratis, pero que con el tiempo son penalizadas duramente por los buscadores, así como las páginas enlazadas por ellas, por ser simplemente páginas con miles y miles de enlaces que no aportan nada.
Cross-linking: realizar enlaces en cadena con conocidos u otras webs de forma que todas enlazan a todas formando un círculo. Si los buscadores detectan que el único motivo de esos enlaces es conseguir un mejor posicionamiento, pueden penalizarlas.

Cloaking y doorways
El cloaking consiste en hacer webs distintas en función de quién la visite. De esta forma, los webmaster realizan páginas totalmente optimizadas para los robots y páginas distintas para los usuarios con el fin de obtener un buen posicionamiento en los buscadores. Cuando un robot intenta rastrear la página se le identifica como tal y es redireccionado a la página construida específicamente para él, lo mismo ocurre con los visitantes normales.

Las doorways son un caso particular de Cloaking, en el que se realizan páginas optimizadas con el único fin de obtener un buen posicionamiento web en buscadores. Normalmente, cuando el usuario intenta acceder a ellas es redireccionado a la página “de verdad” mediante un enlace javascript (los buscadores no pueden leerlos), mientras que cuando el buscador accede a la página se le permite navegar por ella y al no poder leer el enlace javascript almacena la página optimizada para él.

Aunque éstas técnicas puedan parecer atractivas, no la uses, puesto que cada día los buscadores implementan nuevos métodos de detección para ellas, por lo que tarde o temprano tus páginas serán penalizadas.

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

Posicionamiento en buscadores: Técnicas y consejos.

Posted by diseño web madrid en enero 19, 2008

Ofrecer contenidos de calidad
Actualmente, el contenido es muy valorado por los buscadores para realizar sus resultados de búsqueda, y en especial el contenido único. Por eso, es otra de las claves del posicionamiento en los buscadores. Esto es debido a que los buscadores cuando rastrean con sus arañas tu página web añaden cada palabra que encuentran para después intentar relacionarlas con las búsquedas de los usuarios y arrojar sus resultados. Pero además, el contenido de calidad propicia que otras webs que te consideren interesante te enlacen, precisamente por tener buena información en tu sitio. Conseguir enlaces de otras webs, como veremos más adelante, es muy importante a la hora de posicionar tu página. Además de estas ventajas, podemos añadir que los contenidos de calidad son una de las más valiosas armas para fidelizar visitas, ya que ofrecerás a tus visitantes aquello que realmente les interesa, por lo que es muy probable que vuelvan.

Cuando redactes tu página no olvides incluir en el texto de forma coherente las palabras clave que elegiste con anterioridad, siempre que mantengas sentido en tu página y no se note que están puestas de forma forzada, etc. Los contenidos deberían tener una densidad del 2% al 7% para cada palabra o frase clave utilizada. No intentes escribir tus palabras clave demasiadas veces en el texto porque puede ser considerado spam y penalizar tu página (evita que la densidad de cada una sea superior al 20%). Una buena herramienta para saber la densidad de palabras clave de tu web es keyword density & prominence.

Conseguir buenos enlaces
Los enlaces que apuntan a una página son muy importantes en el posicionamiento web en buscadores, porque los interpretan como una especie de voto a esa web. Pero no todos los enlaces son útiles para este propósito, los más importantes son los enlaces naturales, es decir, aquellos que se consiguen gracias a la calidad de los contenidos de la web de forma espontánea. Sin ser sugeridos por nosotros mismos.

No obstante, los enlaces naturales no son los únicos válidos para el posicionamiento en los buscadores, los enlaces de directorios también pueden sernos útiles. Aunque estos no aumentarán demasiado el tráfico de tu web, ayudarán con el tiempo a subir posiciones, siempre y cuando sean buenos directorios (por ejemplo Dmoz) en cuanto a contenido y al tipo de enlaces que realizan. Además, debemos evitar en lo posible repetir el mismo título y descripción en cada directorio en el que demos de alta la web, ya que lo más importante son los enlaces naturales, y así no lo parecerían. Por otro lado, si tienes una web con mucho y buen contenido, puede ser interesante realizar artículos para otras páginas de tu misma temática, ya que los enlaces que se consiguen así son muy valorados por los buscadores, además de serte útil para la promoción web (normalmente en la página del artículo que proviene de otras fuentes se indica el nombre del autor y la dirección de su página web).

A la hora de recibir un enlace de otra página, fíjate bien en cómo lo hacen. Esto es, debes fijarte en el “anchor text” (el texto del enlace) y el tipo de enlace. En el anchor text debería figurar alguna palabra clave relacionada con tu página. Por ejemplo, para una web de cocina mediterránea, sería muy conveniente que precisamente fuera “cocina mediterránea” el texto del enlace y no “pincha aquí” o “enlace”. Además, presta atención al código de tu enlace, que tenga un aspecto parecido a este:

<a href=”http://www.tupagina.com” mce_href=”http://www.tupagina.com”>Palabras clave</a>

O si es una imagen:

<a href=”http://www.tupagina.com” mce_href=”http://www.tupagina.com“>
<img src=”logo.gif” mce_src=”logo.gif” alt=”Palabras clave” /></img></a>

Sobre todo, asegúrate de que tu enlace no está hecho con javascript, porque los buscadores no pueden leerlos y no te servirá de nada de cara al posicionamiento. Los enlaces javascript son más o menos así:

<a href=”javascript:http://www.tupagina.com()&#8221; mce_href=”javascript:http://www.tupagina.com()”>Link</a&gt;

También hay que tener cuidado de que no hayan incluido el atributo “nofollow” dentro de la etiqueta <a>, ya que estos enlaces no son seguidos por los buscadores.

Por último, decir que es importante no conseguir muchos enlaces de golpe, sino que ir trabajando en este aspecto calmadamente (por ejemplo, conseguir 10 enlaces el primer mes, 15 el segundo, 30 el tercero, etc.) para evitar que los buscadores interpreten este hecho como que estamos intentando manipular sus resultados y nos penalicen.

MetaTags
Es frecuente pensar que los buscadores le dan mucha importancia a los MetaTags, en particular a la meta keywords y la meta description, pero esto no es verdad. Estas metas son prácticamente ignoradas por los buscadores, puesto que se han convertido en puro spam en muchos casos. No obstante, y aunque no ayude al posicionamiento en los buscadores, puede ser interesante seguir añadiendo la de la descripción, ya que algunos de ellos lo tienen en cuenta al mostrar sus resultados. Si quieres añadir metatags a tu web, puede serte útil el generador de metatags disponible en esta página.

Título y etiquetas de encabezado
Son etiquetas que sí se toman en cuenta de cara al posicionamiento en los buscadores, ya que éstos les conceden bastante importancia. Es imprescindible añadir un título a cada página, pero procura que no exceda de 60 caractéres para dar más densidad a tus palabras clave.

Las etiquetas de encabezado (h1, h2, h3, etc.) también pueden ser útiles en el posicionamiento web eb buscadores, por lo que puedes meter en ellas algunas de tus palabras o frases clave, siempre con moderación y coherencia para evitar hacer spam y ser penalizados.

Incluir un mapa web
Son aconsejables cuando la página web es muy grande o es difícil que los buscadores puedan seguir los enlaces de los menús (por ejemplo, por la utilización de javascript o flash, ya que no pueden leerlo). En el mapa web se deben poner enlaces de texto a todas las páginas del sitio, pudiendo el buscador de este modo acceder a toda nuestra web. No obstante, no pongas más de 100 enlaces por página porque esto puede ser penalizado.

Evitar la utilización de flash, archivos PDF y javascript en la medida de lo posible
Evita la utilización de archivos flash innecesarios, a los buscadores les cuesta mucho indexarlos y en la mayoría de los casos no lo hacen. Lo mismo pasa con los archivos pdf, que aunque presentan menos problemas que los primeros, también pueden crear dificultades de indexación. Por su parte, el código javascript presenta otro problema para los buscadores ya que la mayoría no puede seguir los enlaces que contienen, por lo que si tu menú está hecho en javascript probablemente sólo conseguirán indexar tu página principal.

Ceñirse a los estándares web
Validar nuestras páginas conforme a los estándares nos ayudará de forma indirecta al posicionamiento en los buscadores, ya que al validar nuestras páginas estamos revisando posibles errores de programación que pueden causar dificultades a los robots para indexar nuestras páginas, o que éstas no se vean correctamente por el usuario. Cuanto más fácil se lo pongas a los robots para indexar tu página mejor. Para conseguir este objetivo, revisa a fondo los manuales del W3C (la organización que crea los estándares web) y utiliza su validador.

Tamaño máximo de páginas y enlaces
La cifra mágica para ambos casos es 100. No más de 100 enlaces por página (mejor no aproximarse) y no más de 100 Kb. de peso. Si pones más de 100 enlaces en una página corres el riesgo de ser penalizado en los buscadores, por lo que tus posiciones caerían drásticamente o incluso te borrarían de la base de datos. Intenta no superar los 80 enlaces para estar seguros de no estar haciendo las cosas mal. En cuanto al peso de la página, si supera los 100 Kb. muchos buscadores no te la indexarán, además, cuanto más pese más tardará en cargar, cosa que no es recomendable de cara al usuario.

Monitorizar la web, posicionamiento continuo
Monitorizar la web y sus posiciones en los principales buscadores es una estrategia útil para detectar a tiempo posibles pérdidas de posiciones. Para monitorizar posiciones hay programas y webs que facilitan la tarea, por ejemplo, el Free Monitor for Google. No obstante, a la hora de controlar el posicionamiento en los buscadores, hay que tener en cuenta que es frecuente la caída brusca de posiciones o la desaparición de nuestras páginas, sobretodo cuando la web es nueva. Esto no tiene por qué ser malo, al contrario, es algo habitual y normal. Si tras un par de días la situación no ha vuelto a la normalidad puedes empezar a preocuparte.

Además, en el tema del posicionamiento de páginas web, constantemente salen cosas nuevas y quedan obsoletas las anteriores, por lo que puede ocurrir que lo que te resultó útil en su momento, ahora no te sirva para nada o incluso te perjudique. Razón más que suficiente para mantenerse al día en este tema y renovarse continuamente.
 

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | 1 Comment »

Posicionamiento en buscadores: Conceptos básicos.

Posted by diseño web madrid en enero 18, 2008

1. Conceptos básicos:

¿Qué es el posicionamiento de páginas web?
Básicamente se trata de conseguir que tu página web salga en los primeros puestos de los resultados de búsqueda de los buscadores. Es decir, que si tu página trata sobre plantas medicinales, por ejemplo, cuando una persona teclea esas palabras en Google o cualquier otro buscador aparezcas en las primeras posiciones de las listas de resultados.

¿Por qué es importante el posicionamiento en los buscadores?
Principalmente porque así conseguirás gran cantidad de visitas (la mayor parte de las visitas de una web provienen de buscadores) y además, porque esas visitas estarán realmente interesadas en lo que les ofreces. Piensa que una persona que entra a tu página de plantas medicinales por medio de un buscador, antes se ha tenido que molestar en buscar cosas como “plantas medicinales”, “medicina natural”, “medicina alternativa”, etc. por lo que puedes pensar que está, por lo menos, moderadamente interesada en tus productos. Desde luego, lo estará más que una persona que ve un anuncio de tu web por casualidad sin haberlo deseado.

¿Qué hay que hacer para posicionar una página web?
Esta pregunta es difícil de responder, y desde luego daría para escribir un libro, pero si sigues leyendo esta página encontrarás una breve guía sobre las principales cosas que se pueden hacer para posicionar una web en los buscadores, además de aquellas que no debes hacer si no quiere ser penalizado por ellos. Obviamente hay muchas más, pero éstas son suficientes para empezar a obtener resultados a largo-medio plazo. Recuerda en todo momento que este proceso no es rápido en ningún caso, y que para conseguir resultados estables en el tiempo se necesitan meses de trabajo.

Ahora bien, antes de empezar a hablar de esas técnicas, conviene tener unos conceptos previos claros y unos objetivos realistas sobre lo que queremos conseguir al posicionar nuestra web:

Funcionamiento de un buscador
Antes de nada, puede ser útil comprender cómo funciona un buscador a la hora de indexar un sitio web, esto es, añadir un sitio a la base de datos de un buscador, por lo que ya puede salir en sus resultados de búsqueda.

Para indexar las páginas web que hay en Internet, los buscadores utilizan unas aplicaciones llamadas arañas (o spiders, robots, etc.) que visitan periódicamente los sitios que tienen ya almacenados en sus bases de datos en busca de nuevos contenidos, modificaciones, enlaces a seguir o páginas que ya no existen (en este último caso para borrarlas). Todas las páginas nuevas que visita el robot, las modificaciones que detecta, etc, las va guardando en la bases de datos, así consiguen la mayoría de ellos mantenerlas actualizadas.

Palabras clave o keywords
Son una de las cosas más importantes a tener en cuenta a la hora de hablar de posicionamiento en los buscadores. Son aquellas palabras que introducen los usuarios en los buscadores para realizar sus búsquedas. Es decir, son las palabras por las que nos van a encontrar.

Por este motivo, el análisis de palabras clave es un paso previo muy importante de cara al posicionamiento en los buscadores. Si no dirigimos nuestros esfuerzos a las palabras clave adecuadas, estaremos perdiendo el tiempo. En este sentido, es importante tener en cuenta siempre lo siguiente; las palabras únicas más generales (e incluso no tan generales), como por ejemplo, “ordenadores”, ofrecen mucha competencia, es decir, que muchas páginas intentan aparecer en los primeros puestos cuando alguien las busca. Por el contrario, los usuarios son cada vez mejores buscadores de información y utilizan con poca frecuencia palabras generales a favor de frases más precisas que les arrojen resultados de mayor relevancia para sus necesidades. Por eso, a la hora de hablar de palabras clave sería mejor referirnos a frases clave y, en consecuencia, guiar nuestros esfuerzos a posicionar frases y no palabras sueltas. Esto nos dará mejores resultados.

Por suerte, existen en el mercado diversas herramientas que nos ayudarán a decidir sobre qué palabras (frases) clave trabajar para mejorar el posicionamiento de nuestra web en los buscadores. Entre ellas, una de las más conocidas es el Wordtracker Keyword Generator (en inglés), también puedes utilizar la herramienta para palabras clave de Google. En ambas, puedes introducir las palabras clave que te interesen y el programa te devuelve una lista de palabras similares que pueden ser analizadas de diversas formas.

Un último punto a considerar en cuanto a las palabras y frases clave, es decidir cuántas utilizamos. Hay que buscar soluciones realistas, pero en general, por cada página web con bastante contenido que tengamos (se entiende como información, no imágenes, enlaces, juegos, ni publicidad), es recomendable utilizar de una a tres frases claves. Hay que resaltar aquí que es aconsejable utilizar palabras o frases distintas para cada página de la web, dependiendo del contenido específico de cada una. Además, obtendremos mejores resultados si ponemos nuestro esfuerzo en frases que, aunque menos buscadas, tengan menor competencia, que frases con mucha competencia ya que con ellas será muy difícil el posicionamiento en los buscadores, por lo que no será muy efectivo.

Centrarse en los principales buscadores
Actualmente, Google es el líder indiscutible de los buscadores (por lo menos en el mercado hispano). No hay datos exactos, pero alrededor del 70% de las búsquedas se realizan a través de él, y si incluimos en el cómputo a Yahoo y MSN, abarcan en torno al 95% del total. Por tanto, lo principal es conseguir posicionarse en estos tres buscadores, puesto que son los que nos reportarán la mayoría de las visitas. Para cada uno de ellos hay técnicas específicas, si quieres conocerlas, puedes serte útil visitar los foros como los de xeoweb.

Tener paciencia y seriedad
Cada vez más se está teniendo muy en cuenta la edad del dominio propio y la edad de los dominios que nos enlazan, de tal forma que no nos considerarán realmente importantes (por decirlo de alguna manera) hasta que no llevemos un tiempo establecidos en Internet y se vea nuestra evolución. Normalmente, a partir de 18 meses de antigüedad suele ser suficiente. Por tanto, habrá que tener paciencia y trabajar poco a poco para ir consiguiendo hacernos un hueco en Internet y que los buscadores nos tomen en serio.

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

La Ley de Pareto y el Posicionamiento en Buscadores

Posted by diseño web madrid en enero 17, 2008

¿Se ha parado alguna vez a medir la eficacia de cada una de las herramientas utilizadas en su campañas de marketing digital? ¿No se ha puesto a pensar que tal vez con menos puede hacer más? El tiempo es oro, y en ocasiones debemos enfocar los recursos para obtener mejores resultados.

Existe un Principio llamado la Ley de Pareto que es uno de los más famosos mandamientos del marketing y que tiene una aplicabilidad en muchas cuestiones relacionadas con el marketing digital y específicamente con el posicionamiento en buscadores; en este área en la que todo se puede medir, sólo hay que estar atentos a identificar el síntoma para aplicarle la receta. El Principio de Pareto establece que hay muchos problemas sin importancia frente a sólo unos graves, y que por lo general, el 80% de los resultados totales se originan en el 20% de los elementos.

A nivel empresarial se ha utilizado este principio para descubrir en muchas ocasiones, por ejemplo, que la minoría de clientes representan la mayoría de las ventas o que la minoría de productos representan la mayoría de las ganancias obtenidas.

En el marketing digital, ocurre algo parecido en cada uno de los procesos y técnicas utilizadas para llevar a cabo un buen plan de marketing digital. Entre otras, se pueden destacar las siguientes afirmaciones:

El 20% de las herramientas de marketing digital captan el 80% de las visitas.

Existen muchas herramientas en la red para generar tráfico cualificado hacia una web. Las más utilizadas son los banners publicitarios, enlaces patrocinados, posicionamiento en buscadores y el marketing viral, entre otras. En la mayoría de los casos, tan sólo con un eficiente posicionamiento en buscadores se puede obtener el 80% del tráfico cualificado a una web. Los últimos estudios indican que los internautas utilizan como herramienta de búsqueda de información los motores de búsqueda en casi un 70%, y si a eso le añadimos que es una de las herramientas con las que se obtienen mayores niveles de clics por impresión, los resultados están claramente justificados para el uso de dicha estrategia.

El 20% de los Motores de Búsqueda pueden generar el 80% de las visitas

En ocasiones un sólo motor de búsqueda puede generar el 80% de las visitas si se tiene un eficiente posicionamiento en él. Por la red nos topamos con ofertas de posicionamiento que nos ofrecen el alta en 3000 buscadores cuando realmente el grueso de las visitas lo dan 3 ó 4 buscadores. Con un posicionamiento óptimo en Google, Yahoo, MSN, Terra y AltaVista ya se podría tener casi todo el trabajo realizado en el posicionamiento web a nivel de buscadores.

El 20% de los Conceptos Clave pueden generar el 80% de las visitas.

A más conceptos clave, mayores posibilidades de mejorar el posicionamiento web, pero sólo se obtendrá el posicionamiento web óptimo en un grupo selecto de conceptos clave. La estrategia entonces es intensificarse en esos conceptos y retirarse en los demás. Descubrir ese pequeño grupo de palabras que mejoran el posicionamiento en buscadores motiva a descubrir nuevas palabras que podrán sustituir a conceptos clave anteriormente elegidos y que no han generado el número de visitas deseado.

Conclusión:

Por último, recomendaría a los que tienen tiempo de medir la eficacia de sus campaña de marketing digital que traten de identificar el 20% de herramientas, buscadores, o conceptos clave que proporcionan el 80% de las visitas y en consecuencia, reorientar los recursos a ese nicho de oportunidades.

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

Comandos adicionales, denominados “sintaxis especiales”, para nuestras búsquedas en Google.

Posted by diseño web madrid en enero 14, 2008

Comandos adicionales, denominados “sintaxis especiales”, para nuestras búsquedas en Google:

Después de varias charlas entre conocidos, familiares y amigos, a lo largo de mi experiencia profesional sobre las búsquedas a través de Internet, me doy cuenta que son pocos quines conocen estos comandos adiciones, también llamados “sintaxis especiales”.

Desde hace algún tiempo, Google ha permitido el uso de determinadas comandos que facilitaran nuestras búsquedas, restringiendo esos resultados irrelevantes y obtener aquellos que realmente nos interesan. En ese momento existían muchos comandos pero se han eliminado algunos e añadido de nuevos en sus algoritmos.
En este caso, voy a daros un resumen de las sintaxis que actualmente siguen funcionando y ser de ayuda aquellos “inexpertos” en la materia. Pero antes…

¿Cómo funciona Google?

Google, como motor de búsqueda de texto completo, incluye en su índice páginas Web completas, en lugar de incluir sólo los títulos y las descripciones. Mediante los comandos adicionales, denominados sintaxis especiales, nos permite realizar búsquedas en partes determinadas de páginas Web o tipos específicos de información. Esto resulta práctico cuando se está tratando con dos mil millones de páginas y necesitamos aprovechar cualquier oportunidad para restringir esos criterios.

Las opciones Booleanas

AND

Esta opción está establecida como predeterminada en Google, siempre que introducimos las palabras busca a lo largo de todo el contenido.
“palabras“

Si introducimos las comillas dobles, conseguimos que busque en las páginas que contengan esas palabras juntas.

OR
Puede mostrarnos páginas que contengan una palabra u otra.

-palabra / -”palabras”
Usaremos el signo de negación cuando queremos que esa palabra no aparezca en los resultados.

Fijaros que también es posible combinar estas opciones, pero hemos de tener en cuenta que Google solo reconoce un máximo de 10 palabras:

Netdebugger OR consejos
Netdebugger “consejos posicionamiento”
Netdebugger -“consejos posicionamiento”

Las sintaxis especiales

intitle:alquiler pals

Devuelve las páginas que contengan en su título ALGUNAS de las palabras especificadas.

allintitle:alquiler pals

Devuelve las páginas que contengan TODAS las palabras en el mismo título.
No se usa muy a menudo ya que no se combina muy bien con algunas de las otras sintaxis.

inurl:consejos google

Devuelve las páginas donde en su URL aparecen ALGUNAS de las palabras.
allinurl:consejos google
Devuelve las páginas donde en su URL están TODAS de las palabras.
Tampoco os aconsejo mucho su uso, igual que allintitle, no se combina muy bien con otras sintaxis.

intext:consejos netdebugger

Busca sólo en el cuerpo del texto que contenga ALGUNAS palabras, ignorando el texto de los vínculos, URL y títulos.
inanchor:casas canpericay
Busca entre los textos que describen los vínculos. Por ejemplo en nuestro caso, busca los textos que aparezcan como vínculos a “casas canpericay” y encontramos NetDebugger que tiene un enlace hacia Canpericay.

site:netdebugger.com
site:edu

Permite restringir esos resultados bien a un sitio Web bien a un dominio de nivel superior. Esta sintaxis se utiliza mucho en el posicionamiento ya que permite ver el número de páginas almacenadas en los buscadores.

link:www.netdebugger.com
link:www.netdebugger.com/Google_Condiciones_SEO.html

Devuelve una lista de las páginas que tienen vínculos al URL especificado. No hemos de olvidar las “www” pero sí podemos ahorrarnos el “http://” ya que Google parece que lo ignora.

cache:www.netdebugger.com

Encuentra una copia de la página que Google muestra en el índice incluso si esa página ya no está disponible en su URL original, o si ha cambiado su contenido completamente desde entonces. Os recuerdo que Google tiene las páginas almacenadas y cuando buscamos lo hacemos en su caché.

related:google.com

Encuentra páginas relacionadas con la página que especifiquemos, pero no todas las páginas están relacionadas con otras. En mi ejemplo, obtendríamos como resultado una variedad de motores de búsqueda.

info:netdebugger.com

Debajo los resultados nos proporciona vínculos que ofrecen más información sobre un determinado URL, como: la caché de Google, lista de páginas similares, tengan enlaces, aparezcan los términos… Hay que tener en cuenta que esta información depende de si Google tiene en su índice dicho URL o no. Si no lo tiene, la información será, obviamente, más limitada.

Si deseáis ampliar vuestras experiencias os recomiendo ver la “Ayuda para las búsquedas” de Google y a medida que las vayas usando, verás que no son tan difíciles de recordar.

Autor: Jordi Camps
http://www.netdebugger.com/Comandos_adicionales_sintaxis_especiales_b%FAsquedas_Google.html

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

Páginas hechas en Flash contra las técnicas de posicionamiento.

Posted by diseño web madrid en enero 9, 2008

Desde sus comienzos Flash ha tenido como grandes ventajas las posibilidades gráficas y de interactividad tanto con el usuario al principio, como cliente/servidor en sus últimas versiones, sin embargo siempre ha adolecido de importantes defectos que se hacen más visibles conforme crece la importancia que se da a la indexación de las páginas web en buscadores y al seguimiento y métricas sobre el tráfico y las visitas web.

Hay un dicho en internet que dice que si no sales en Google no eres nadie. Si bien esta afirmación puede resultar algo excesiva, si que es cierto que una parte fundamental para el exito de muchos proyectos web es la correcta realización de las páginas, de forma que los indexadores, sean Google, MSN, Ask Jeeves, o cualquier otro, sean capaces de indexar el mayor número de ellas y de forma correcta.

Hay diferentes técnicas que hay que tener en cuenta, como la utilización de url’s “legibles”, el uso de títulos apropiados en las páginas, el etiquetado “correcto” de enlaces e imágenes, por poner las principales. Todas estas técnicas forman parte de algo que se viene llamando SEO “Search Engine Optimization”, que no es más que un conjunto de metodologías orientadas a optimizar la visibilidad de un web en los listados de los buscadores. Sin embargo todas estas metodologías son difíciles o incluso imposibles de aplicar en los webs hechos con flash.

Las webs hechas en flash tienen su principal utilización en webs con grandes requerimientos multimedia, o en los últimos años, en webs en las que se necesitan determinadas caractarísticas de interacción con el usuario que son complicadas de conseguir con HTML, al menos hasta la llegada de mecanismos basados en XMLHttpRequest, principalmente aplicaciones en las que es necesario que la pantalla se reconfigure conforme el usuario genera eventos y si envía y recibe información al servidor en segundo plano. Sin embargo también es cierto que muchas empresas han abusado de flash para crear webs para todo tipo de empresas, al igual que se hizo al final de los 90 con la utilización masiva y desacertada de frames en todo tipo de webs.

Actualmente indexadores como Google son capaces de procesar los archivos swf y leer las cadenas de texto que contienen, de forma que permiten indexar páginas que contengan flash. El problema radica en que si todo el web está hecho en un único flash, residente en la página principal normalmente, los indexadores tienen únicamente una página para indexar, la cual contiene un flash con todos los textos del web. Esto provoca que el indexador indexe una única página y que el peso de las palabras que contiene se desvirtúe, ya que el indexador considerará que están asociados a esta página, él no es “consciente” de que el flash se divide en diferentes páginas internamente.

Hay alguna solución a este problema, aunque ninguna es tan óptima en cuanto a posicionamiento como sería disponer de un web realizado en (X)HTML puro. Una posible solución es no utilizar un único flash para todo el web, si no construir páginas html independientes que contengan cada una el flash que representa su contenido.

Otras soluciones se basan en la utilización de una versión html equivalente que sería la que el indexador utilizaría. En este caso cuando un indexador trate de indexar la página web, ésta podría detectarlo y servir la versión html en vez de la basada en flash. Esto tiene un problema relacionado con ciertos abusos que se han hecho en los indexadores orientados a trampear las posiciones. Los indexadores deben tratar de garantizar que los contenidos que indexan sean los mismos que verá el usuario cuando acceda a la página, en otro caso se estaría desvirtuando su trabajo y sería un agujero para la utilización de determinadas trampas. Es por esto que, aunque este método pueda funcionar, no se pueda considerar completamente válido.

Aparte hay que tener en cuenta una cosa más, que es el coste económico que implica preparar mínimamente una web en flash para que sea indexable. En los casos en los que se dé mucha importancia al posicionamiento en buscadores como una forma de atraer audiencia a la web, habrá que sopesar cuidadosamente la utilización de flash, en qué medida, cómo, y qué costes implica en cuanto a la optimización de la web resultante. Sin olvidarnos también de que en estos casos estaremos también interesados seguramente en realizar seguimiento de audiencias, trabajos sobre estadísticas de tráfico, etc…, puntos en los que las web hechas en flash adolecen de problemas similares.
Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web | Etiquetado: , , , | Leave a Comment »

Claves para posicionar tu web.

Posted by diseño web madrid en enero 8, 2008

1.- Lo primero que el propietario de un sitio web debe buscar con el posicionamiento es conseguir visitas de calidad que reviertan un beneficio. Conceptos como Popularidad de Enlaces, vistosidad y otros objetivos son secundarios.2.-Los buscadores cambian y evolucionan constantemente. Los algoritmos de búsqueda de los buscadores son cambiantes, con lo cual las páginas se deben adaptar a las nuevas circunstancias.

3.- Los buscadores valoran en gran medida el contenido, la originalidad y la sencillez de un sitio web. La simplicidad para el usuario y la simplicidad para el robot a menudo van de la mano.

4.- Los buscadores tienen en cuenta la antiguedad del dominio. Si hay dos sitios web de igual calidad, siempre aparecerá primero el más antiguo en los primeros puestos de las búsquedas.

5.- Debemos vigilar diariamente las estadísticas de acceso a nuestras páginas. Nos dan mucha información del tipo de visitas que recibimos y de lo que estamos haciendo bien o mal.

6.-Los metatags no son necesarios para el posicionamiento. Sólo las utilizan algunos directorios para indexarnos convenientemente.

7.-Los enlaces externos a nuestra web son realmente importantes. Sobre todo los de webs de calidad con temática parecida a la nuestra.

8.-La Popularidad de Enlaces (lo que Google llama PageRank, para entendernos…) no significa posicionarse mejor, es al revés, un buen posicionamiento suele implicar una buena Popularidad de Enlaces.

9.-Cuanta más tecnología se utilice en las páginas más dificil se lo ponemos a los buscadores. El abuso de JavaScript y Flash dificulta que un buscador nos “entienda”.

10.-Las altas automáticas sirven para muy poco. Un buen posicionamiento pasa por un trabajo manual de alta en directorios.

11.-La indexación hace que tu web pueda aparecer en los buscadores, toda página que el robot no haya rastreado ni indexado no figurará en los resultados.

12.-El código limpio es muy valorado por los buscadores. Los tag incompletos, conflictos en el código o un exceso de javascript pueden obstruir al robot a la hora de hacer su trabajo. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web | Etiquetado: , , | Leave a Comment »

Análisis de los principales factores para el posicionamiento orgánico en Google.

Posted by diseño web madrid en enero 4, 2008

Análisis de los principales factores para el posicionamiento orgánico en Google.

Colocamos un enlace a un informe en PDF muy interesante, escrito por Victor Estrugo Rottenstein, Facultad de Ingeniería, Universidad de Palermo, Buenos Aires, Argentina

Muy innteresante su y muy recomendad su lectura: http://www.abigdoor.com/Rottenstein07final.pdf

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

10 reglas para básicas la optimización de páginas para los buscadores.

Posted by diseño web madrid en diciembre 12, 2007

Existen 10 factores importantes que se deben seguir para la optimización de páginas Web que ayudarán a que nuestro sitio se ingrese en mejor en los buscadores.

La etiqueta título
Esta etiqueta es importante porque aparecen en la página de resultados de los motores de búsqueda y además es la que aparece en la parte superior de color azul que se encuentran en nuestro explorador. La etiqueta título de tu sitio debe ser fácil de leer y debe describir la temática de tú sitio de un modo general y debe ser el tema principal ya que no disponemos de mucho espacio para escribir en esta etiqueta.

La etiqueta descripción
La etiqueta descripción en un párrafo que como su nombre lo indica se encarga de describir el contenido y la temática del sitio Web en este etiqueta debemos escribir una descripción que capturen la atención del otro visitante y le incite entrar a nuestra página de igual modo que el título debe ser fácil de leer y comprender.

Palabras clave
La importancia de las palabras claves en los buscadores varía constantemente ya que en cada algoritmo de búsqueda cambia la importancia de estas para el posicionamiento del sitio Web aún así las palabras claves son consideradas como una de las más importantes cosas a tomar en cuenta para los optimización de una página Web, las palabras claves que usemos en nuestro sitio debe estar relacionadas con la temática del contenido de cada una de las páginas.

Etiquetas ALT
Éstas etiquetas son las que se muestran cuando pasamos el ratón sobre una imagen son representadas por un cuadro amarillo con letras en negro este etiqueta son utilizadas para describir la imagen que se muestran nosotros para aprovechar más esta etiqueta la utilizaremos para reforzar las palabras claves, la descripción y el título de nuestra Web.

Etiqueta Header
Éstas son utilizadas para dar formato a títulos que se encuentran dentro de la página por ejemplo para un título principal debemos usar etiquetas H1 ya que éstas representan título y los motores de búsqueda la interpretan como tal como bien sabemos esta etiqueta nos muestra el texto en un tamaño grande y en negrita pero muchas veces este etiqueta no coincide con el diseño de nuestra página en cuanto a tamaño color y tipo del letra, pero qué podemos hacer para utilizar esta etiqueta y que mantenga el diseño de nuestra página, pues bien he aquí donde en unos interesa incluir las cascadas de estilo ya que mediante estas podemos dar formato a las etiquetas que ya están definidas como lo es la H1, como hacemos esto? la mejor manera es desde un documento de estilo declaramos la etiqueta H1 y le definimos nuestros valores donde podemos decir que tamaño, color y tipo de fuente queremos usar. Con esto logramos que los motores de búsqueda lea nuestros títulos como tales y visualmente nuestros visitantes puedan creer estos títulos incluido en el diseño de nuestra Web.

Vínculos
Muchas veces utilizamos imágenes como botones en nuestro sitio ya que todos dan una mejor apariencia pero para la optimización de buscadores esto no nos viene bien ya que los motores de búsqueda no pueden seguir los vínculos de las imágenes la mejor manera es usar vínculos de texto ya que todos se pueden aprovechar para describir el contenido al que nos dirige el vincula y si usamos palabra relacionada con el contenido de la página será mejor valorado por los buscadores y recordemos siempre que estas técnicas son para optimizar nuestra página y lograr mejorar nuestra posición en los buscadores,¿por qué ? por qué si estamos mejor posicionados tendremos más visitas a nuestro sitio y esto se transforma en clientes, subscriptores o lectores.

Mapa del sitio
El mapa del sitio en un archivo el cual contiene los vínculos de todas las páginas que existen en nuestro sitio Web, la función principal de este mapa es visualmente orientar al visitante sobre la estructura y organización de la página, pero además de esto y lo más importante para este caso es que cuando damos de alta nuestro sitio Web en un buscador y el robot que ingresa las páginas a llegar a el mapa va a seguir todos los vínculos que ahí se encuentra y esto asegura que el motor conozca la existencia de todas las páginas.

Vínculos a nuestro sitio
Otro factor importante que toman en cuenta los buscadores son los sitios que vinculen hacia él nuestro, pero no cualquiera lo más importante o relevantes son aquellos en los que su contenido se relacione con el norte ya que la manera de pensar del motor de búsqueda es si un sitio que tienen contenido de un tema importante y hacen vínculo así a otra página con un contenido relacionado quiere decir que esta información es importante también, por esto debemos tener en consideración la búsqueda de vínculos relevantes hacia nuestro sitio Web ya sea mediante intercambio, colocando o artículos en otra página o haciendo comentarios en blogs.

El contenido
Pues bien hasta el momento hemos visto algunos factores a tomar en cuenta para que nuestro sitio Web se posiciona mejor en los resultados de los motores de búsqueda pero todo esto debe venir acompañado de un buen contenido en nuestro sitio, así que no debemos olvidar ofrecer a los visitantes un contenido rico en información, recursos y servicios y siempre recordando utilizar dentro del contenido palabras relacionadas con el criterio de búsqueda que queremos que nos encuentren en los motores de búsqueda. Te quiero decir con esto veámoslo con un pequeño ejemplo si yo quiero escribir un artículo sobre “mesas” de tomar en cuenta que el contenido debe incluir la palabra Mesa en varias ocasiones, también lo ideal es que la palabra mesa aparezca en esta etiqueta de palabras clave, descripción, título e imagen. Con esto estamos reforzando toda la página para ese criterio de búsqueda.

Y por último y no menos importante debemos ser honestos y evitar hacer trampa para obtener mejores posiciones, a que me refiero con esto al uso de páginas elaboradas sólo por palabras claves y que redirección al artículo conocido también como “cloacking” cual uso de cualquier estrategia para engañar a los buscadores ya que en algún momento está en estrategias fallan y los motores de búsqueda no pueden sancionar.
Autor: César Pietri
optimización optimizacion optimizar buscadores buscador google

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | 1 Comment »

Encontrar los mejores enlaces para el intercambio.

Posted by diseño web madrid en diciembre 2, 2007

Dar a conocer una página web siempre es tarea difícil y uno de los primeros pasos consiste en lograr que los buscadores indexen adecuadamente el sitio web. Para ello solemos recurrir al intercambio de enlaces con el que no siempre logramos los resultados que esperamos.

En este artículo voy a comentar algunos trucos útiles para seleccionar los enlaces más adecuados para nuestro intercambio y evitar aquellos que puedan ser negativos para nuestra página.

Para encontrar buenos enlaces analiza siempre los siguientes aspectos antes de aceptar o solicitar un intercambio de enlaces.

Busca sitios con contenidos similares a los tratados en tu página. Aunque sobre este punto hay muchas discusiones y no parece que nos pongamos de acuerdo, lo cierto es que los usuarios agradecerán poder acceder a enlaces que sean de su interés y en consecuencia valorarán mejor tu sitio.

Evita los intercambios con páginas con un número excesivo de enlaces salientes. La regla es fácil: Importancia de la página / número de enlaces = importancia del enlace. Por tanto, menos enlaces salientes mayor importancia tendrá tu enlace para el buscador.

Comprueba la cantidad de enlaces entrantes. Un elevado número de enlaces entrantes es buena señal.

Comprueba también el número de páginas que tiene indexadas. A mayor número de páginas indexadas más profundiza Google en el sitio y más alta es la calidad del enlace para agregarlo al intercambio.

Verifica el posicionamiento para las palabras clave de la página. Si el resultado es bueno quiere decir que el responsable del posicionamiento está realizando un buen trabajo y esto también es beneficioso para ti.

Evita los intercambios con páginas que enlazan a páginas penalizadas que podrían perjudicar a tu sitio en un futuro.

Comprueba el código por si incluye enlaces ocultos o etiquetas prohibidas por las que pueda ser penalizado por Google. Evita siempre los enlaces con sitios que intentan engañar a Google.

Otros datos que puedes revisar son el número de visitas y el Page Rank.

No aceptes enlaces mediante scripts o metidos en marcos, redireccionamientos o similares. Los buscadores no siguen estos enlaces por lo que no sirven para dar a conocer nuestro sitio en el buscador.

Siguiendo los trucos descritos lograrás mejores enlaces para tu intercambio. Recuerda que cantidad no es sinónimo de calidad, limita tus intercambios a un número prudencial. Veinte enlaces son más que suficientes para un intercambio optimizado.

Autor: Carlos Bouza
http://www.contenidosgratis.com

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | 1 Comment »

Las verdades y mitos sobre el buscador de Google.

Posted by diseño web madrid en noviembre 12, 2007

Aunque algunos piensan que las respuestas que Matt Cutts, jefe del equipo anti-spam de Google, ha dado en su blog no son interesantes u off-topic, yo pienso que son muy interesantes, ya mas o menos oficialmente corroboran o refutan muchas de las teorías que han estado circulando en el mundo SEO en los últimos meses.

Aquí les presento algunas de las lecturas que he podido interpretar:

Frecuencia de las visitas del googlebot – Confirmado
La frecuencia de las visitas del googlebot para escanear (crawlen) una web depende del valor del PageRank que tiene la página. Cuanto más alto sea el PR, la página será escaneada con más frecuencia.

Profundidad del escaneo de una web depende del PR – Confirmado
Cuanto mas alto sea el PR de una web, el web crawler escaneará la página mas profundamente. El uso de Google Sitemaps no garantiza que una web sea escaneada completamente.

A Google no le gustan las URLs con muchos parámetros – Confirmado
Según Matt, el numero de parámetros que Google le gustan varia ente 1 y 2.

Google no persigue enlaces que están en Flash, JavaScript o Frames – Confirmado
Todas las páginas que sean enlazadas mediante Flash, JavaScript o Frames no pueden ser indexadas. Aquí se deben usar enlaces estáticos.

La etiqueta nofollow es interpretada correctamente por Google – Confirmado
Indica al bot que no siga los enlaces marcados con esta etiqueta. Asi se puede evitar en muchos casos que Google crea que la página es una link farm.

Biggdady es una nueva infraestructura de hardware – No confirmado
Matt habla solo de una nueva infraestructura de software.

El parámetro RK ya no va a ser visible – Confirmado
Este parámetro era usado por las herramientas que mostraban el futuro PageRank. Ahora este parámetro solo va ha mostrar el valor 0.

El Mozilla googlebot es usado por Bigdaddy – Confirmado
El googlebot con el user-agent Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) es usado por Bigdaddy para escanear las páginas.

Proyectos en varios idiomas deben usar subdominios o dominios propios – Confirmado
Cuando el numero de páginas es pequeño, se pueden usar subdominios, como por ejemplo es.mi-dominio.com o en.mi-dominio.com En caso de que el número de páginas sea grande, se deben usar dominios propios como por ejemplo mi-dominio.es o mi-dominio.us

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

Los 8 factores clave para superar a tu adversario en Google.

Posted by diseño web madrid en octubre 20, 2007

Los 8 factores clave para superar a tu adversario en Google

Nadie puede afirmar conocer el algoritmo que utiliza Google para ordenar los resultados de una búsqueda, pero es relativamente fácil investigar qué factores intervienen en él y en qué medida afectan al algoritmo. Además, en la red encontrarás mucha literatura al respecto y podrás ir ampliando conocimientos si el tema te apasiona

Este artículo recoge los 8 factores clave que te ayudarán a conocer porqué otras páginas están por encima de la tuya, y cómo puedes superarlas.

1. Decide en qué palabras vas concentrar tus esfuerzos.

No puedes luchar por muchas palabras a la vez, así que concentra tus esfuerzos en unas 10 palabras o frases, que creas que pueden ser buscadas en Google por tu público objetivo.

Empieza el análisis que te llevará al éxito confeccionando una lista de las 5 primeras páginas web que aparecen en los primeros resultados, cuando buscas esas 10 palabras.

Navega por las 5 páginas que te aparezcan. Haz especial atención en descubrir en qué palabras se están focalizando ellos.

2. Descubre dónde están situadas las palabras por las que tú quieres luchar

Observa bien dónde están colocando las palabras clave.

Google da más importancia a las palabras que están situadas en ciertas partes de una página web. La parte más importante es la URL (la dirección de tu página web), la siguiente es el tag <title>, la siguiente son las cabeceras <h1>, <h2> y <h3>, luego vienen las palabras que son enlaces a otras páginas, y la importancia va disminuyendo, aunque siempre es más alta que el texto plano, si las palabras están en negrita, en cursiva, forma parte de un <alt> (texto alternativo en las imágenes), etc…

3. Descubre qué densidad tienen las palabras clave

Ten en cuenta un par de cosas:

Google (y el resto de buscadores) funcionan por densidad, no por valores absolutos. Así que si en tu URL o en tu título tienes 50 caracteres y 9 coinciden con los que el usuario busca, el valor de tu URL o de tu título es de 9/50. Así que procura no poner textos superfluos o urls con tropecientos números que corresponden a una sesión de usuario o a algo parecido.

Ten en cuenta también, que desde marzo 2004 Google funciona por caracteres, no por palabras. De ahí que en el párrafo anterior haya escrito “caracteres” en lugar de palabras. Hasta marzo 2004, si tu título era “Mesas de madera para oficina”, y el usuario buscaba “mesas de madera”, el valor de tu título era de 3/5 (en castellano no filtraba las preposiciones y las consideraba palabras). Ahora no es así. Ahora va por letras. De esta manera, si alguien busca un derivado de una palabra o un plural, o un verbo conjugado, la página que contiene algo parecido también se incluye en los resultados de búsqueda.

Cuando descubras donde tienen situadas las palabras, mira con qué densidad aparecen. En tu página web, haz que tengan mayor densidad que en las suyas. Lo puedes hacer incluyendo la palabra más veces o incluyendo menos palabras que no tengan que ver con esa búsqueda. La cuestión es elevar la densidad y superar la suya en cada una de las partes donde aparezca la palabra.

Ojo no te pases… Google penaliza las páginas con densidades sospechosamente elevadas. Puedes conseguir un 100% de densidad en el título y en la URL, sin que pase nada. Pero una página donde ponga una palabra repetida 100 veces, por todas partes, en negrita y con enlaces, y no incluya ningún otro texto, puedes tener por seguro que será expulsada de Google. Así que moderación.
Además, piensa que tu página web tiene que ser leída por tus usuarios/clientes… es fundamental que el texto esté orientado a ellos, no a su efectividad en buscadores.

4. Descubre cuántas páginas tienen sus páginas web

Cuantas más páginas tengas indexadas en Google, más posibilidades hay de que participes en la lucha por ciertas palabras. También hay indicios de que Google sitúa en mejor posición a las web que contienen un número elevado de páginas donde se incluye el término de búsqueda.

O sea, por un lado, incluye las palabras por las que quieres posicionarte en el máximo de páginas posible. Por otro lado, intenta que tu web tenga sobre unas 200 páginas como mínimo.

Pero una vez más, descubre que hacen tus competidores e inclúyelo en la tabla que empezaste a realizar al principio de este estudio.

Para saber cuantas páginas tienen indexadas en Google, basta con que escribas en la cajita buscadora:

site:www.nombredelaweb.com

(ojo no ponga un espacio entre site: y la url)

site:www.nombredelaweb.com “palabra o frase”

Esto te dará el número de páginas que contienen la frase “palabra o frase” en la página web www.nombredelaweb.com

5. Descubre el número de enlaces que apuntan a sus páginas

El algoritmo que forma el PageRank (nota cultural: PageRank significa “ranking de Larry Page”, no “ranking de páginas”), está formado por otros muchos algoritmos y es bastante complicado de entender. Pero hay unos rasgos básicos que fácilmente puedes aplicar a tu página web.

En el PageRank influyen sobre todo, el número de enlaces que apuntan a una página web, la densidad de estos enlaces en la página de origen y el PageRank de la página de origen.

Así que este punto número 5 versará sobre el primero de los factores que afectan al PageRank: el número de enlaces.

Una vez más, anota en tu listado el número de páginas que enlazan a cada una de las 5 webs competidoras que estás analizando.

Para saber el número de enlaces a una página, basta con que escribas en la cajita buscadora:

link:www.nombredelaweb.com

Desde marzo del 2004, Google da menos valor a los enlaces que provienen de páginas con la IP parecida a la tuya, así que no hace falta que hagas trampas: Google lo sabe.

Escribimos un artículo acerca del algoritmo HillTop que utiliza Google para calcular y filtrar el PageRank de las webs, hace unos meses: HillTop

6. Analiza qué tipo de web enlaza a la de tus competidores.

Con toda probabilidad no podrás incluir en tu listado el PageRank de cada una de las páginas que enlazan con las de tus competidoras, pero es importante que veas qué tipo de web son, qué PageRank tienen, a cuantas otras páginas web enlazan y qué palabras utilizan para linkear a tus competidores.

Cuanto mayor es el PageRank de una página que te enlaza, mayor es el número de puntos que recibes por este enlace. Así que busca páginas con un PR alto y consigue que te enlacen.

Por si te sirve de ayuda, aquí va un enlace a un artículo de Alex de Anta, acerca que qué páginas tienen un PageRank de 10

Para terminar con este punto, no olvides que en Google y en el resto de buscadores, todo funciona por densidades, así que si de una web salen 100 enlaces a otras webs, el valor de un enlace que vaya a ti es de 1/100. Así que olvídate de las granjas de enlaces. Consigue enlaces a tus páginas en webs con pocos enlaces y con un PageRank alto.

7. Descubre qué palabras utilizan tus competidores en los enlaces que van a sus webs

Si la palabra buscada forma parte de un enlace de un tercero a tu página web, tienes un bonus en puntos (por decirlo de alguna manera). Así que si te dedicas a la fabricación de mesas de madera para oficina, procura que las páginas que enlazan a la tuya utilicen la frase “mesas de madera” para enlazarte, en lugar de www.minombredeempresa.com

Obviamente, no siempre puedes controlar qué palabras utilizan terceras webs para enlazar a la tuya… pero por cuando puedas hacerlo, recuerda este punto número 7: Recuerda el bonus que te llevas si lo consigues!!

8. Anota qué PageRank tienen las páginas de tus competidores

No olvides incluir una columna en tu estudio, que indique qué PageRank tienen las páginas web de tus competidores. Esto te ayudará a entender porqué están en las primeras posiciones.

Recuerda que para aumentar tu PageRank, debes sobre todo, incrementar el número de páginas que enlazan a la tuya. Así que si tienes un PageRank de menos de 4, ponte manos a la obra para conseguir más enlaces. Si lo tienes de más de 4, es bastante difícil subirlo si no realizas alguna campaña específica para este fin, bien ideada, y con una buena estrategia.

Tampoco te obsesiones si no tienes PageRank asignado, o hace tiempo que no varía tu PageRank a pesar de las acciones que llevas a cabo. El PageRank no es algo que Google calcule cada día, ni siquiera cada mes. Este año, sin ir más lejos, Google ha estado sin calcular PageRanks desde junio hasta primeros de octubre. Desde entonces no los ha calculado de nuevo y además ha indexado 4.000.000.000 más de páginas web que antes no tenía… así que no sabemos cuando volverá a calcular los nuevos PageRank. Ten paciencia.

Hasta aquí, hemos descrito los 8 factores clave que te llevarán a ganar posiciones en Google. Pero cuando realizo este tipo de benchmark, suelo incluir tres columnas más en el listado. Se trata de la posición de nuestros competidores en el ranking de Alexa. No es que Alexa influya en Google, pero es bueno saber donde están situados a nivel de visitas únicas, de páginas vistas por usuario y de ranking en general. Estos tres datos los encontrarás buscando a tus competidores en Alexa.com.

Si no sabes qué es Alexa o deseas conocer un poco más acerca del ranking de Alexa, escribimos un artículo acerca de ello hace mucho, mucho tiempo:
Qué es el Ranking de Alexa 

Espero que los 8 factores te hayan sido de utilidad. Este artículo está orientado a servir de guía a personas que desean conocer la posición exacta de sus páginas web, respecto a las de sus competidores. Si eres un obseso de Google (como yo, por cierto) acepta mis disculpas por tratar por encima ciertos temas y comentar obviedades.

Si deseas ver la presentación que utilizamos cuando realizamos conferencias acerca de cómo funcionan los buscadores, puedes desacargártela aquí: Cómo funciona un buscador

Autor: Montse Peñarroya
http://www.alt64.com/noticia_alt64.php?id=22

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

Google pide línea para entrar en el mercado del telefonía móvil, a posicionar en .mob!!

Posted by diseño web madrid en octubre 15, 2007

El gigante de Internet trabaja con operadores y fabricantes en un aparato cargado con su software, asi que a partir del próximo año, ha posicionar en móviles (.mob)

Google Inc. salió en busca de crecimiento en el mercado de los celulares. La empresa, que ha generado miles de millones de dólares a través de la publicidad en Internet, se ha acercado a varios operadores celulares para que ofrezcan a sus clientes teléfonos cargados con su motor de búsqueda, servicio de email y un nuevo navegador de Internet para aparatos móviles, según fuentes al tanto de los planes. La intención de Google es conquistar una gran parte del creciente mercado de anuncios en los celulares.

Google ha invertido cientos de millones de dólares en el proyecto, según personas al tanto. Ha desarrollado prototipos, ha conversado con operadores en Estados Unidos y ha discutido especificaciones técnicas con los fabricantes. Su objetivo es que diferentes fabricantes produzcan los aparatos, basados en sus especificaciones, y que varios operadores los ofrezcan.

Para los operadores celulares los planes del gigante de Internet son una espada de doble filo. La poderosa marca de Google y sus populares servicios Web podrían ayudarlos a sumar suscriptores a sus paquetes de servicios de datos, de los que dependen cada vez más a medida que bajan los ingresos por llamadas. Pero los operadores temen perder control sobre los anuncios móviles.

Los teléfonos aún están en desarrollo y no estarán disponibles para los consumidores en EE.UU. y Europa sino hasta el próximo año, como mínimo, afirman fuentes. Un portavoz de Google no quiso hacer comentarios sobre el proyecto pero dijo que se estaban asociando “con casi todos los operadores y fabricantes para incluir el motor de búsqueda y otras aplicaciones en sus aparatos y redes”.

Los esfuerzos de la compañía para incluir su software en los celulares han activado alarmas en la industria. El presidente ejecutivo del operador estadounidense Verizon Wireless, Lowell McAdam, dice que su empresa optó por no integrar el buscador de Google en sus teléfonos debido a la exigencia de la compañía de Internet de obtener una gran parte de los ingresos por publicidad. “En el fondo es una batalla por los dólares de publicidad”, dijo McAdam en una entrevista reciente. “Quieren una participación desproporcionada de los ingresos.”

El ejecutivo no quiso comentar acerca de los teléfonos de Google.

Al mismo tiempo, Google ha indicado que podría participar en una subasta por una licencia para usar el espectro electromagnético en EE.UU. De conseguirlo, la empresa podría convertirse en un operador celular, aunque le tomaría varios años y miles de millones de dólares.

La empresa espera que sus esfuerzos sean recompensados con la posibilidad de vender anuncios que se despliegan en las pantallas celulares, complementando el gigantesco negocio publicitario que creó en la Web. Google incluso imagina un día en el que habrá un servicio celular sin cargos mensuales de suscripción, ya que se financiaría a través de publicidad.

Las especificaciones que Google ha establecido para sus teléfonos sugieren que los fabricantes deben incluir tecnología Wi-Fi en los aparatos y que estos sean diseñados para funcionar en la red 3G, la más veloz, para asegurarse que las páginas Web puedan verse con rapidez. Además, sugiere que se incluya la tecnología de posicionamiento global GPS.

La salida al mercado de un teléfono podría plantear algunas complicaciones estratégicas para Google, especialmente en su relación con Apple Inc., que hace poco lanzó su propio celular llamado iPhone. Cuatro de los ocho directores de Apple están también en la junta de Google o son asesores de Google. Si Google y Apple compiten en el mercado de celulares, podría ser más difícil para los directivos evitar conflictos de interés.

Un saludo.                                              

Posted in Artículos Posicionamiento, Noticias Buscadores | Etiquetado: , | Leave a Comment »

¿Que es y para que sirve un sitemap?

Posted by diseño web madrid en septiembre 20, 2007

¿Que es y para que sirve un sitemap?

El posicionamiento en buscadores de los sitios que diseñamos y realizamos tiene una enorme importancia en un entorno muy competitivo como la web de hoy. De este aspecto depende muchas veces el éxito o fracaso del sitio.

En el mundo del diseño web, el posicionamiento en los buscadores de los sitios que realizamos ha ganado una enorme importancia. Una medida de ello es la cantidad de tiempo y esfuerzo que dedicamos a optimizar los sitios primero y a conseguir buenos enlaces entrantes después.

Un requisito básico para que todo ese empeño rinda frutos es lograr que todas las páginas del sitio estén correctamente indexadas en los motores de búsqueda. Esto ocurrirá siempre y cuando los crawlers (arañas) de los buscadores importantes visiten e indexen esas páginas con la periodicidad adecuada y sin omitir ninguna.

Aún sin recurrir a ningún procedimiento extra, las arañas relevan las páginas de los sitios web simplemente siguiendo los enlaces (a menos que estos incluyan el atributo “no-follow”), pero hay más cosas que pueden hacerse. Una buena estrategia consiste en suministrar a los buscadores una “lista” de las páginas que nos interesa que se indexen, junto con alguna información adicional que haga la visita más eficaz. Concretamente, eso se logra mediante el uso de Sitemaps.

Un sitemap es un archivo XML que contiene una lista de las páginas del sitio junto con alguna información adicional, tal como con qué frecuencia la página cambia sus contenidos, cuándo fue su última actualización y qué tan importante es respecto al resto de las páginas del mismo sitio. La construcción del archivo XML debe seguir una serie de pautas especificadas en el protocolo de sitemaps, que describimos a continuación:

Contenidos obligatorios del sitemap
El protocolo Sitemap se construye en base a etiquetas XML (Tags) incluidas en un archivo con codificación UTF-8.

Los valores de datos (por contraposición a las etiquetas mismas) deben utilizar códigos de escape para ciertos caracteres especiales, tal como se acostumbra en HTML.

Por ejemplo, las comillas dobles (“) deben ser reemplazadas por &quot; y los signos menor (<) y mayor (>) por &lt; y &gt; respectivamente.

El archivo XML debe:
Comenzar con una etiqueta de apertura y terminar con una de cierre
Especificar el protocolo estándar al que responde dentro de la etiqueta de apertura (ver en el ejemplo)
Incluir una entrada por cada dirección URL (que corresponderá a cada una de las páginas del sitio) como nodo XML padre.
Incluir un nodo XML hijo para cada dirección URL (cada nodo XML padre ).

Resumiendo estos aspectos en un ejemplo (sitio con dos páginas):

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<url>
<loc>http://www.misitio.com/</loc&gt;
</url>
<url>
<loc>http://www.misitio.com/contacto.htm</loc&gt;
</url>
</urlset>

Contenidos opcionales del sitemap
Cada nodo <url> padre puede contener (además del nodo <loc> hijo obligatorio) cierta información adicional útil para que el proceso de indexación se realice más inteligentemente. Los nodos opcionales, aunque importantes, son:

<lastmod>Fecha</lastmod>
Se refiere a la fecha de la última modificación de la página que figura en

<changefrec>Frec</changefrec>
Se refiere a que tan a menudo cambia la página que figura en <loc> y será un dato que indicará a la araña con qué frecuencia volver a visitar el sitio. Es un valor orientativo, por lo que no quiere decir que deba cumplirse forzosamente.

Frec puede tomar alguno de los siguientes valores: always (siempre, para páginas que cambian cada vez que se muestran. Típicamente, las dinámicas), hourly (a cada hora), daily (diariamente), weekly (semanalmente), monthly (mensualmente), yearly (anualmente) o never (nunca, típicamente para páginas archivadas).

<priority>Valor</priority>
Se refiere a la importancia que tiene la página que figura en <loc> respecto de las demás que componen el sitio. Es simplemente una manera de indicar prioridades relativas dentro del sitio, sin ningún efecto hacia el exterior del mismo.

Valor puede tomar valores entre 0 y 1. El valor por defecto es 0.5

Volviendo al ejemplo anterior y agregando los atributos opcionales:

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<url>
<loc>http://www.misitio.com/</loc&gt;
<lastmod>2006-11-20</lastmod>
<changefrec>monthly</changefrec>
<priority>0.8</priority>
</url>
<url>
<loc>http://www.misitio.com/contacto.htm</loc&gt;
<lastmod>2006-08-01</lastmod>
<changefrec>yearly</changefrec>
<priority>0.3</priority>
</url>
</urlset>
El archivo XML así construido se aloja en el servidor como un archivo más del sitio, con la salvedad de que puede contener las URL contenidas en el mismo directorio en que se encuentra o en otros contenidos en él.

Por ejemplo, si ubicamos el archivo sitemap.xml en el directorio ejemplo.com/catalogo/ no podrá incluir URLs que se encuentren en ejemplo.com/ Por esta razón se recomienda enfáticamente colocar sitemap.xml directamente en el root del sitio.

A partir de este punto solo queda enviar el sitemap a los buscadores, que generalmente disponen de una página específica para aceptarlo.

Hace unas semanas, Yahoo, Google y Microsoft llegaron a un acuerdo (detalle poco común entre estas empresas) para que el formato Sitemaps 0.90 fuera el aceptado en sus motores de búsqueda.

A través de Google Webmaster Tools o de Yahoo Site explorer podemos proporcionarles la información de nuestro sitemap.
Autor: Fernando Campaña
http://www.maestrosdelweb.com/editorial/sitemap/
 

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , | Leave a Comment »

La Indexación, ¿Qué es?

Posted by diseño web madrid en septiembre 12, 2007

¿Qué es?

La indexación es el proceso por el que el buscador va rastreando el sitio y va incorporando a su base de datos esas el contenido de esas URLs.

¿Es importante?

Es MUY importante. La indexación es lo único que puede hacer que tu web, tu trabajo pueda aparecer en Google, toda página que el robot no haya rastreado ni indexado no figurará en los resultados.

Los ojos de un robot

Los buscadores poseen un robot que es una especie de programa que se dedica a rastrear las webs e incorporar lo que cree interesante a la base de datos de su buscador, tanto para indexar nuevas webs como para actualizar los contenidos de su base de datos.

Facilitar la indexación: lo básico

Los buscadores no indexan todo lo que recorren, sólo indexan lo que creen oportuno. Para mejorar nuestra indexación hay que conseguir que los robots pasen a menudo por nuestras páginas por lo que a más pasadas que de más probabilidades de que las acabe indexando. Para aumentar la frecuencia de paso de los robots por nuestra web hay que conseguir links entrantes y actualizar a menudo nuestra web.

Otras ayudas para la indexación
URLs dinámicas

Para facilitar la indexación se puede empezar por evitar o arreglar las variables en las URLs (URLs dinámicas) que por ejemplo puede generar el PHP. Estas variables hacen que el script muestre una u otra información en función de estas variables y a todos los efectos se consideran páginas diferentes. Variables en la URL serían por ejemplo esta:
http://www.davilac.net/foro/index.php?board=4.0
Generada en este caso por un script como el SMF, donde se ve que la variable se llama board y su valor es 9.0, y se aplica sobre el archivo index.php. En este caso hay sólo una variable, pero hay muchos otros casos donde aumentan más el número de variables, dificultando cada vez más la indexación, ya que si bien los buscadores pueden indexar páginas con varias variables, les es más fácil si no las tuviese. Para servidores que corran sobre Apache existe un mod llamado mod_rewrite que sirve para reescribir URLs, mediante el cuál y con un fichero .htaccess se puede convertir esa URL a ojos de los buscadores en esta:
http://www.davilac.net/foro/index.php/board,4.0.html
Más atractiva a los ojos de los buscadores. Consulta tu hosting para averiguar sobre la disponibilidad de este módulo. Ten en cuenta que muchos scripts conocidos incorporan módulos y sistemas para convertir URLs dinámicas en estáticas, por lo que te evitarás el trabajo a veces de hacerte tu propio sistema.

Google Sitemaps

Aparte de esto existe para Google un servicio llamado Google Sitemaps que está dando muy buenos resultados en cuánto a mejorar la indexación. Para aprender más ves al tema en el foro, donde también recibirás ayuda para hacerlos y podrás preguntar lo que desees.

Robots.txt

El robots.txt es un fichero destinado al uso de los buscadores. Mediante el uso de este fichero el encargado de la web le ordena a los buscadores ciertas cosas, como prohibirles el acceso a ciertas carpetas o ficheros para evitar que los buscadores los indexen o prohibirles un excewsivo acceso a la web, por ejemplo. En todo caso la existencia de este fichero en nuestro servidor no mejorará ni nuestra indexación ni posiciones.

El uso inadecuado de este fichero puede provocar desastres en nuestras posiciones en Google..

Autor: Davilac
http://www.davilac.net/web/posicionamiento/tutorial/indexacion/index.php

Posted in Artículos Posicionamiento, Preguntas SEO | Etiquetado: , , | Leave a Comment »

¿Quieres optimizar tu web? toma nota de …

Posted by diseño web madrid en agosto 25, 2007

Publicidad
var adlink_randomnumber=Math.floor(Math.random()*1000000000000); document.write(”);

1. No utilice palabras clave en el dominio. Elija un nombre de dominio fácil de asociar con la marca, pero no utilice una palabra clave en el dominio. Los dominios que utilizan la palabra clave están desfasados. Los motores de búsqueda devalúan las palabras claves cuando están situadas en un nombre de dominio.

2. Anime a Google a conocer su página. Si envía su sitio web al buscador desde la propia página de Google, utilizando el enlace “todo acerca de Google”, lo habitual es que el robot del buscador visite su página una vez al mes.

3. Tenga paciencia hasta que su página lleve tiempo operativa en Internet. Google valora el tiempo que su página ha estado almacenada en su base datos. Si el buscador lleva un año viendo su página en Internet tendrá más posibilidades de estar en los primeros puestos de los listados, cuando se trate de una página bien estructurada.

4. Seleccione sus palabras claves. Escoja una serie de palabras que identifiquen su negocio. Esas palabras deben figurar en el título de la página, en el contenido de la home y en las urls. Las palabras claves deben estar integradas en frases o en párrafos completos. La densidad de las palabras claves no debe superar entre el 5% y el 20% del total de palabras.

5. La actualidad es prioritaria. Añada una página de contenido de calidad al día. Google reconoce la calidad de los contenidos. Valora las páginas en permanente actualización.

6. La velocidad es importante. Su página debería de responder casi de forma instantánea a la petición de un usuario. Google lo valora. El sitio debería responder en un máximo de tres segundos a cualquier petición.

7. La ortografía puntúa. La comprobación de la ortografía es cada vez más importante en la medida que los motores utilizan autocorrectores durante las búsquedas.

8. No abarrote su sitio con elementos como “contadores” o “añadir a favoritos”. Las páginas deben ser sencillas y directas. Elimine toda la información superflua. Evite páginas con apariencia multitudinaria.

9. Los enlaces cruzados funcionan, pero no con todo el mundo. Haga un par de links desde cada página a terceras páginas con un pagerank alto, utilizando la palabra clave en el texto del enlace. Es un truco denominado links cruzados que consigue excelentes resultados de posicionamiento. Intercambiar vínculos con otros sitios es útil, pero tenga en cuenta que no merece la pena establecer links con páginas que carecen de interés.

Un saludo.

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | 2 Comments »

GOOGLE: objetivos del diseño.

Posted by diseño web madrid en agosto 10, 2007

Hacia 1994 se pensaba que un índice completo de un motor de búsqueda permitiría encontrar cualquier documento de forma fácil, siempre que todos los documentos se encontraran incluidos en la base de datos. Sin embargo, pocos años después, la Web puede considerarse muy diferente en tanto que cualquier persona que lleve a cabo una búsqueda puede atestiguar fácilmente que lo completo que se encuentre el índice no implica necesariamente una alta calidad en los resultados de la búsqueda, de hecho, por desgracia se encuentra mucha más “basura documental” que documentos vinculados con nuestras necesidades de información. Incluso resulta difícil encontrarlos entre los veinte primeros documentos recuperados y la mayor parte de los usuarios no suelen pasar de esos primeros veinte documentos en sus operaciones de consulta (incluso algunos motores de búsqueda sugieren que en caso de no encontrar nada en ese rango procedamos a modificar nuestra ecuación de búsqueda). Es por ello que el objetivo primordial de diseño de Google no es otro que mejorar estos índices de precisión en la recuperación de la información y, además, mejorar la presentación de los documentos recuperados de manera que, los primeros sean los más directamente relacionados con las necesidades de información planteadas por los usuarios. 

Destacan dos grandes características, en primer lugar hace uso de la conectividad de la Web para calcular un grado de calidad de cada página, esta graduación se denomina “PageRank” (coincide con el nombre del algoritmo de ranking empleado por este motor).

En segundo lugar, Google utiliza esta propia capacidad de conexión de los documentos webs para mejorar los resultados de búsqueda. Pagerank asume que el número de enlaces que una página proporciona tiene mucho que ver con la calidad de la misma, es por ello que este algoritmo se puede resumir de la siguiente manera:

“Si una página A tiene T1….Tn páginas que apuntan a ella por medio de algún enlace (es decir citas). El parámetro d es un factor que se puede fijar entre 0 y 1 (generalmente se fija en 0.85) . Sea C es número de enlaces que salen de la página A. Entonces, el PageRank de la página A vendrá dado por la expresión: PR = (1-d) + d(PR(T1)/C(T1) + ….. + PR(Tn)/C(Tn))”

Este cálculo puede realizarse por medio de un simple algortimo iterativo y corresponde al vector propio de una matriz normalizada de enlaces en la Web. PageRank puede ser pensado como un modelo del comportamiento del usuario. Si asumimos que hay un “navegante aleatorio” que pasa de una página a otra sin presionar nunca el botón de “back” y que, eventualmente él nunca se aburriera, la probabilidad de que este navegante visitara nuestra página es precisamente su PageRank. Es decir, se trata de un modelo basado en los enlaces de las páginas pero que pretende representar la forma de trabajar de los usuarios. Otra justificación intuitiva de PageRank es que una páigna puede tener un alto coeficiente de PageRank si existen muchas páginas que apuntan a ella, o si hay un número algo menor de páginas que apuntan a ella pero que posean, a su vez, un alto nivel de PageRank. De forma intuitiva, aquellas páginas muy citadas son páginas que vale la pena consultar y, en cambio, aquellas que sólo posean un enlace son páginas de poco interés para su consulta.

Hemos visto, a un nivel muy general, cómo busca información Google, vamos ahora a estudiar, también a un nivel muy general, cómo localiza la información. Para ello debemos recordar que el objetivo de la búsqueda no es otro que proporcionar una alta efectividad, y que el usuario lo primero que percibe es la precisión de los resultados de la búsqueda. El proceso de evaluación de la pregunta que lleva a cabo Google es el siguiente:

1. Descomposición (parsing) de la pregunta.
2. Conversión de las palabras a wordIDS (identificadores de palabras)
3. Localización de la posición de cada palabra en el barril de almacenamiento
4. Exploración de las listas de documentos hasta localizar un documento que contenga todos los términos de búsqueda
5. Cálculo del rango de este documento para esta pregunta
6. Una vez llegados al final del barril de almacenamiento, se vuelve al inicio repitiendo los pasos 4 y 5 para cada palabra de la ecuación de búsqueda
7. Una vez calculados todos los rangos, procede ordenarlos de mayor a menor y presentarlos al usuario.

Aunque se trata del motor de búsqueda de moda y pasa por ser el más completo de todos los que funcionan hoy en día en la Web, ya encontramos aportacines de algunos autores que critican parcialmente el diseño de Google y propugnan otros diseños más eficientes según su punto de vista. Este es el caso de Zhang y Dong (7) quienes propugnan diseñar los algoritmos de ranking a partir de la sinergia de las siguientes métricas:

Relevancia: métrica empleada por la mayor parte de los motores de búsqueda basados en el modelo del espacio vectorial. Mide la distancia entre el contenido de un recurso web (r) y una pregunta de un usuario cualquiera (q).
Autoridad: cuántos recursos webs poseen enlaces al recurso r.
Integración: mide cuántos recursos webs son enlazados por el recurso r
Novedad: en qué grado el recurso r es diferente de otros y proporciona información nueva

Por ZASQWAS.

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Optimización Web – los 4 aspectos básicos.

Posted by diseño web madrid en agosto 5, 2007

Es una estrategia de SEO, por lo que debemos controlar 4 aspectos básicos como es:

  1. El análisis de las palabras clave.

  2. Las acciones de optimización del código del sitio web.

  3. Acciones de optimización fuera del sitio web.

  4. El seguimiento de resultados y reajustes.

Análisis de palabras clave.
Este primer paso se debe llevar a cabo con mucho cuidado, ya que una mala selección de palabras o frases clave pueden provocar menos visitas. Sin embargo sí una palabra o frase está bien seleccionada va a optimizar nuestra web obteniendo un mayor tráfico hacia nuestro sitio web. Lo cual significa que nos visitarán personas que verdaderamente quieren ver el contenido que ofrece nuestra pagina web. La selección puede ser de una sola palabra, dos palabras o frases de 3 o más palabras.

Una correcta Optimización Web, consiste en generar una desindad del 3 al 5%. Así la densidad de palabras o frases dentro de la página web, es la clave prinicipal para una correcta Optimización Web, ya que un porcentaje menor implicaría bajar posiciones y un porcentaje mayor podría ser catalogado como Spam, lo que implica ser empujado a las últimas posiciones.

Acciones de optimización del código del sitio web.
Los términos (palabras clave) deben aparecer en los textos, y mejor si es en negrita o con etiquetas de titular. Las palabras clave deben ser lo más buscadas posible pero también lo más específicas, y que haya una concordancia clara entre lo que el usuario está buscando y lo que le ofrecemos. La situación ideal se optimiza así: una palabra clave, una página dedicada.

Debemos asegurarnos de que permitimos el acceso al sitio web a los robots o spiders mediante el archivo robots.txt. De esta forma conseguimos que se indexe la web completa.

También es imprescindible que la palabra que queramos posicionar esté en la etiqueta Title . Si tenemos varias páginas dentro de un sitio web, cada una deberá llevar su correspondiente Title.

Por lo general se suele decir que Google no tiene en cuenta las etiquetas . Pero lo cierto es que no es así, ya que podemos ver en ocasiones extractos de texto de estas etiquetas en las páginas de respuesta. También las etiquetas semánticas “h1” nos aportan un valor añadido.

En cuanto a la estructura del texto; éste debe contener las palabras clave a lo largo del texto sin forzarlas, y es conveniente que aparezcan en el primer párrafo.

Por todo ello, a la hora de desarrollar la estrategia de optimización debemos pensar siempre en que el usuario pueda leer lo mismo que el robot de búsqueda. Así el usuario no se va a sentir defraudado con el buscador y además encontrará nuestra página web. Por tanto, el contenido y las palabras clave que se optimicen deben estar relacionadas temáticamente.

Acciones de optimización fuera del sitio web.
Se debe tener en cuenta el PageRank , que es el cálculo basado en el número de páginas que apuntan a una página. Un enlace de una página vale más si ésta a su vez recibe muchos enlaces. Se tienen en cuenta unos 100 factores, pero los enlaces son el principal, debido a la estabilidad de los resultados a largo plazo.

Factores de PageRank que valora Google:
El formato del texto.
La densidad de la palabra de consulta en título y body.
Presencia de la consulta de URL.
Texto de los enlaces que apuntan a la página.
Número de enlaces que recibe la página.
Existen diversas técnicas conocidas para obtener enlaces de interés, como es el netweaving , se trata de la creación de redes de enlaces. Y es una de las mejores maneras de asegurarse buenas posiciones y un alto PageRank.

Seguimiento de resultados y reajustes.
Cualquier proyecto de optimización necesita un seguimiento. Por lo que hay que evaluar los progresos obtenidos, de forma que podamos saber sí estamos avanzando hacía la dirección correcta; conocer si obtenemos accesos desde palabras clave que no habíamos posicionado de forma intencionada; así como ver sí no estamos logrando los resultados previstos, de forma que todo aquello se pueda cambiar. La optimización en buscadores es un proceso lento pero seguro. Por mucho que mejoremos la página o cambiemos cosas en el código, etc., no obtendremos resultados a corto plazo. El robot nos debe visitar a nosotros, pero también a todos los demás competidores, rehacer sus cálculos y reestablecer el PageRank de cada página. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

20 Factores que influyen en la optimización web.

Posted by diseño web madrid en julio 29, 2007

Existen una serie de factores directos como la tipología de búsqueda, la popularidad de la página, el formato, el perfil de los usuarios, entre otros; y unos factores indirectos como la estructura, la accesibilidad, usabilidad y credibilidad; para ser valorados por los buscadores tanto de forma positiva como negativa.

Factores directos:

  1. Palabras clave al principio y al final de la página.
  2. IDF, medida que depende del tamaño del documento.
  3. La búsqueda booleana con OR suele beneficiar al que más palabras diferentes tiene.
  4. Clusters de conceptos asociados.
  5. Tamaño de la página, cuanto más pequeña mejor.
  6. URL con los términos de búsqueda.
  7. Posición de los términos de búsqueda al principio.
  8. Proximidad de los términos de búsqueda en el texto.
  9. Título, presencia del término de búsqueda en el título.
  10. Presencia de las frases de búsqueda en las frases del documento.
  11. Crear nuestras páginas escribiendo el código “a mano” y comprobar que el código no tenga tags abiertos o incorrectos.
  12. Factores indirectos, que bajan la popularidad:
  13. Usabilidad:
    Poner una página de bienvenida.
    Páginas con muchos colores, sin claridad, sin contrastes.
    No poner las conclusiones al principio, ni escribir de forma esquemática.
    Se valora: la facilidad de aprendizaje, de recuerdo, la eficiencia del usuario, la tasa de errores y satisfacción.
  14. Accesibilidad:
    Presentaciones flash.
    Páginas dinámicas. Actualmente sólo algunos buscadores son capaces de indexar las páginas con contenidos creados dinámicamente, por lo que se considera problemático en cuanto a la optimización en buscadores .
    Todo lo que afecta al tiempo de descarga.
    No poner barreras al público (invidentes, daltónicos,etc.)
  15. Contenido:
    Evitar palabras no específicas del contenido, texto subjetivo, metáforas, sin juegos de palabras, etc.
    Estructurado: párrafos cortos, páginas cortas, subtítulos informativos, etc.
    No dividir un mismo texto en páginas con “continuación”.
    Redacción del texto breve.
  16. Credibilidad:
    Estudia como se relaciona la credibilidad y el nivel de compromiso, enlaces recibidos-ofrecidos y diseño web.
    Depende de la mención de autoría, de la institución, de la política de confidencialidad, y de la fecha de actualización.
  17. Credibilidad positiva:
    Prestigio de la organización que avala el sitio.
    Rápida respuesta.
    Actualización reciente.
    El sitio parece diseñado por profesionales.
    La usabilidad es correcta.
    Internet invisible.
  18. Credibilidad negativa:
    Dificultad para distinguir los anuncios del texto.
    Falta de actualización.
    Enlaces erróneos u obsoletos.
    Falta de usabilidad.
  19. Legibilidad:
    Selección de colores con contraste
    Alinear a la izquierda.
    No usar tablas anidadas.
  20. Hoja de estilo:
    El formato es recomendable en hojas de estilo.
    No usar más de dos fuentes.
    La página debe ser legible aunque desaparezca la hoja de estilo. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Parameter de CleverStat – “PageRank Meter”

Posted by diseño web madrid en julio 25, 2007

PaRaMeter significa “PageRank Meter”. Le permite comprobar el sitio web de Google PageRank parámetro con sólo pulsar un botón. Por supuesto, puede hacerlo de forma manual, pero usando PaRaMeter es más rápido, más cómodo (sobre todo con una mayor carga de sitios) y no requiere de herramientas de Google para instalar en su sistema.
Para descargar esta herramienta:
Current version: 1.4, Jul 25, 2007
Operating system: Windows 98/2000/XP/Vista

http://www.cleverstat.com/parameter.exe

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento | Leave a Comment »

Conoce todos los secretos SEO con BRUCE CLAY.

Posted by diseño web madrid en julio 14, 2007

Visita la página en la dirección:

http://www.bruceclay.com/

Muy recomendada. En Inglés.

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

TÉCNICAS PARA UN BUEN POSICIONAMIENTO EN LOS BUSCADORES.

Posted by diseño web madrid en julio 12, 2007

En una columna escrita por Mike Greham, vicepresidente de desarrollo de negocio internacional de Bruce Clay inc., para Clickz, se dan algunos consejos para conseguir un buen posicionamiento en buscadores.

En primer lugar, hay que concienciarse de que Google no es el único buscador de la red. También hay que contar con Yahoo! y MSN, ya que ambos tienen planes de incorporar el sistema de posicionamiento SERP. Lo que sí es cierto, es que Google es el que hace los posicionamientos más interesantes con sistemas como por ejemplo FeedBurner.

El que los buscadores incorporen nuevas tecnologías para efectuar sus posicionamientos es una gran noticia, no sólo para los bloggers, sino también para los podcasters. Google será capaz de detectar, con una gran serie de parámetros basados en datos y analíticas, todos los blogs y podcasts de audio y vídeo. También podría integrar esos elementos en la tecnología SERP, al igual que hace con los resultados normales.

Cómo conseguir un buen posicionamiento
Un documento RSS 2.O usado para los blogs y podcast contiene un espacio de programación: ése es el lugar indicado. Lo que hay que hacer es llenarlo con palabras clave e información relativa al contenido de la página en cuestión.

Como ocurre con una página creada mediante lenguaje HTML, el podcast también tiene un title-tag. El texto que se expone en ese espacio explica con exactitud qué es lo que contiene el podcast. En ese lugar se encuentra un enlace ideal para conectar con otras páginas web. Además, existe, a la hora de subir la web, una descripción con algunas palabras clave que será la que se utilice a la hora de realizar los posicionamientos en los buscadores.

Quizá la entrada más importante al canal del posicionamiento es pubDate. Esta entrada indica la última vez que el documento fue renovado. Los contenidos frescos propios de los blog y podcast no suelen tener esta tecnología a punto. Hay que estar seguro de que el pubDate funciona correctamente para entrar en los posicionamientos.

De todos modos, si se es nuevo a la hora de publicar un podcast o un blog que se quiere que tenga repercusión, lo ideal es comenzar con un tutorial de inicio adecuado sin reparar en gastos. No es bueno tener un blog si luego nadie va a entrar en él.

Posted in Artículos Posicionamiento, Marketing en Internet, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Google Analytics inicia su fase II (nueva versión)

Posted by diseño web madrid en julio 4, 2007

Con el anuncio de la nueva versión de Google Analytics (el pasado día 8 de mayo en el EMetrics San Francisco) se marca un punto de inflexión para este software, añadiendo funcionalidades, optimizando las existentes y preparándolo para nuevas mejoras…

Múltiples mejoras y nueva versión en menos de 1 año y medio

Tras el lanzamiento de esta herramienta han sido constantes las mejoras introducidas en este software, culminando con una nueva versión en abierto para todo el mundo desde el pasado día 17 de mayo.

Si la fase 1 consistió en adaptar el Urchin On Demand a la infraestructura Google, integrándolo a Adwords, escalándolo para soportar un tráfico casi ilimitado, traduciéndolo a 16 idiomas, etc. se inicia una nueva generación de Google Analytics con la fase 2.

Si bien requiere algo de esfuerzo adaptarse al nuevo interface, en muy poco tiempo uno se da cuenta de que los cambios no solo residen en mejoras en la usabilidad de Google Analytics v1. Con el nuevo Analytics se enriquece el análisis y se aportan nuevas funcionalidades.

¿Qué ofrece el nuevo Google Analytics?

Podríamos clasificar los cambios en 3 grandes grupos, ordenados en orden de importancia:

1. Mejoras en su rendimiento: Se ha cambiado completamente la forma de almacenar y acceder a los datos. Como consecuencia el software en mucho más eficiente y rápido en todos estos aspectos y sobretodo al realizar segmentaciones. Sites con un alto volumen de tráfico son los más beneficiados.

2. Nuevas funcionalidades: e incluso mejora de las existentes. A continuación listamos algunas de ellas.

Nuevo selector de tiempo
Cuadro de mando personalizable
Informes por email
Exportación en PDF
Nueva super posición del sitio
Nuevo segmentación geográfica
Nuevo embudo de conversión
3. Rediseño del interface: se ha simplificado la visualización de la información para facilitar la búsqueda de claves de entre todo el volumen de datos.

¿Qué no ha cambiado en el nuevo Google Analytics?

Las configuraciones y la administración dentro de esta herramienta siguen siendo las mismas (activación de perfiles, creación de filtros, inclusión de usuarios).

Y ahora ¿qué cambios podemos esperar?

El más próximo será el día 18 de Julio que será cuando deje de aparecer el antiguo interface de todas las cuentas.

Por otro lado y relacionado con el punto anterior, es evidente que Google Analytics seguirá con las mejoras pero en este caso a nivel configuraciones. Además, gracias a la nueva estructura interna del software, cualquier cambio podrá ser integrado en tiempo record. Pero todo esto lo dejaremos para tratarlo en una futura Fase 3.

Posted in Artículos Posicionamiento, Noticias Buscadores, Posicionamiento web | Etiquetado: , | Leave a Comment »

PPC o SEO ¿cuál es el equilibrio correcto?

Posted by diseño web madrid en julio 3, 2007

Hasta ahora las campañas de pago por clic habían sido las estrellas en los departamentos de marketing. Con la entrada del SEO todo el mundo se ha embarcado en intentar optimizar la web en ese sentido pero ¿dejo de usar el PPC? ¿qué cosas buenas tiene cada método? ¿son métodos compatibles?

…………………………………………………
Ventajas del PPC (Pago por Clic)

Más rápido. Los listados de PPC aparecen mucho más deprisa, habitualmente en pocas horas (o días si se requiere la revisión de un editor)
Más flexible. Las creatividades y las pujas son fácilmente modificables o desactivables en cualquier periodo de tiempo. Los resultados generados por SEO pueden tardar semanas o meses en ser conseguidos
Más predecible. Tráfico, ranking, retorno y costes tienden a ser más estables y predecibles que en SEO. Es inmediatamente contabilizable, en términos de ROI, mientras que la evaluación del SEO puede llevar mucho más tiempo.
Más directo para conseguir posiciones altas. Solo se tiene que pujar más que el competidor (aunque Google además tiene en cuenta la calidad del anuncio).
Más automático. Los sistemas de puja pueden ayudar a predecir los costes/beneficios relacionados, al usar filtros para controlar las pujas en los ratios de conversión para conseguir un apropiado coste por venta.
Efecto Branding. Parece existir un efecto Branding con el sistema de PPC, incluso sin que los usuarios lleguen a hacer clic en el anuncio.

…………………………………………………
Desventajas del PPC

Muy competitivo. A medida que el PPC ha incrementado su popularidad como sistema efectivo de publicidad online, y dado que se basa en un sistema de pujas, se está haciendo cada día más caro al fomentar la competición entre anunciantes. Tan caro que ciertas palabras clave son objeto de guerra de pujas, llegando a un coste por clic solo apto para grandes anunciantes.

Complejidad en la gestión de grandes campañas. PPC requiere conocimientos de configuración, de las opciones y del control de las pujas en los sistemas de anuncios. Gestionar una cuenta de PPC puede requerir, para ser competitivo, un control de las pujas diario o incluso por horas.

Ventajas para los grandes actores. Empresas con un bajo presupuesto o con pocos productos les es imposible competir con los grandes. Además los grandes actores pueden llegar a mejores acuerdos mediante sus agencias.

Clic Fraud. Sigue siendo visto por muchos como un problema.

…………………………………………………
Ventajas del SEO (Search Engine Optimization)

Los costes son fijos. Independientemente del volumen de tráfico que se atraiga. Además estos costes tienden a descender una vez se realiza la optimización inicial para acometer una fase más de mantenimiento
Bajo coste. Si el SEO es efectivo casi siempre dará un bajo coste por clic a largo plazo.

Más atracción. Los estudios revelan que los usuarios hacen clic muchísimo más en los listados naturales que en los de pago, siendo una proporción habitual que el 60% de las búsquedas provengan de los listados orgánicos.

No se le paga al buscador. Solo se paga el esfuerzo en SEO, se evita la puja con otras empresas competidoras.

…………………………………………………
Desventajas del SEO

Más esfuerzo inicial. SEO requiere trabajo técnico complejo a largo plazo en la página a optimizar, reestructuración del site y gestión de enlaces (link-building), que puede tardar meses en ser implantado y en obtener resultados.
Técnicas fraudulentas. Es posible que muchos de los competidores utilicen estas técnicas para situarse por encima del resto, a riesgo de ser penalizados pero perjudicando a la competencia.

Competitividad. Aunque no se puja por palabras clave como con el PPC si que es verdad que se compite por las mismas palabras, ganando el que mejor técnicas aplique para “gustar” al buscador. En ese sentido cuanto más competitivo sea el sector más difícil será conseguirlo.

Falta de control. Se depende de los algoritmos de los buscadores. Estos al estar siendo continuamente modificados requiere un trabajo de SEO constante, además de saber responder a estos cambios.

Falta de predicción de resultados, posición en los buscadores, volumen de tráfico adquirido y retorno de la inversión ya que no se puede saber como cambiarán los algoritmos de los buscadores.

Alto nivel de conocimiento tanto a nivel técnico (para realizar ingeniería inversa sobre los algoritmos sin caer en técnicas fraudulentas) como a nivel contenidos (para encontrar el equilibrio entre el contenido hecho para los usuarios y para el buscador)

…………………………………………………
¿Cuál es el equilibrio entre PPC y SEO?

Una de las estrategias seguidas para sacar el máximo de ambas disciplinas es:

Aplicar SEO para palabras clave muy buscadas o populares, con muchas impresiones pero poca conversión y por tanto normalmente muy caras.

Aplicar PPC para el resto de palabras cuya puja tiende a ser baja y su número muy alto (impracticable para SEO llegar a tantas palabras).

Posted in Artículos Posicionamiento, Preguntas SEO | Etiquetado: , , , , , | Leave a Comment »

Eliminar contenidos de la caché de Google

Posted by diseño web madrid en mayo 14, 2007

Desde hace mucho tiempo, Google dispone de un formulario que permite que podamos eliminar del índice del buscador web cualquiera de nuestras páginas web para que nadie las encuentre. Es más mucho más rápido que utilizar ‘robots.txt’, puesto que con éste se depende de la frecuencia de rastreo del robot de Google, pero el formulario mencionado tiene el riesgo de cometer graves errores si no lo hemos utilizado previamente.

En otras ocasiones, queremos que algunas páginas sí que aparezcan en el índice del buscador web, pero por ejemplo hemos descubierto que sus contenidos han sido rastreados justo en el momento en que mostraban una información inoportuna (errores del sistema, datos confidenciales, etc.). Cuando pasa el robot de Google, automáticamente estos contenidos pasan a formar parte de la copia caché del buscador, y pueden ser leídos por cualquier persona.

Si no queremos esperar a que vuelva a pasar el robot de Google por nuestras páginas (puede llevar horas, días o semanas, en función de la relevancia de nuestro sitio), podemos visitar este formulario para que los contenidos sean eliminados de la caché. Cuando Googlebot vuelva a visitarnos, estos datos se actualizarán.

Posted in Artículos Posicionamiento | 1 Comment »

Buscadores: El fin del viaje gratis.

Posted by diseño web madrid en abril 22, 2007

Cuando el Nasdaq manda y los accionistas presionan para conseguir llegar al umbral de la rentabilidad y generar los “números negros” en las empresas punto com, los modelos de negocio se replantean.

Los buscadores que están en constante cambio no son ajenos a esta dinámica. Si ha gestionado el alta en los principales buscadores recientemente, habrá observado que muchos de los más importantes directorios y motores de búsqueda están en este momento cobrando por el alta de los sitios web. Lo que antes era totalmente gratis, puede costarnos en la actualidad 199 dólares, y este precio no supone una clasificación en los primeros puestos de estas herramientas de búsqueda, sino simplemente ser indexado en el buscador. Lo crea o no alguno de ellos le pedirá este dinero garantizándole sólo que su sitio será revisado, pero no asegurándole la inclusión en el directorio. Veamos cuales han sido los pasos que han seguido los principales actores de este mercado:

  1. Excite. Al gestionar las altas, estas se incorporan también a la red de LookSmart, que contiene buscadores asociados como Altavista, MSN, WebCrawler y Magellan.
    Ofrece tres niveles de registro de altas. El registro express, que garantiza la revisión de nuestro sitio en dos días laborables al precio de 199 dólares. El registro básico, con un coste de 99 dólares pero con un retraso en la revisión de nuestro sitio de aproximadamente ocho semanas. Excite continúa ofreciendo un servicio gratuito, pero sin garantizar los resultados.
  2. Altavista. Tal y como a uno de los socios de la red LookSmart corresponde, mantiene los mismos precios que Excite. Coste de 199 o 99 dólares y la posibilidad de la inclusión gratuita sin garantía.
  3. Hotbot. El alta en este buscador incorporará nuestro site a la base de datos de Inktomi, con la que está asociado. Otra forma de aparecer en este buscador es enviar nuestro sitio al “Open Directory Project”. Las altas siguen siendo gratuitas.
  4. Open Directory Project. Una buena razón para aparecer en este directorio es el gran número de buscadores que se alimentan de sus contenidos, como AOL o Hotbot. Recordemos que es un directorio y por lo tanto las altas son revisadas por personas. Cuando realicemos el alta necesitaremos encontrar la categoría apropiada, y nuestro registro será revisado por personal especializado en la misma. Las altas siguen siendo gratuitas.
  5. Northern Light. Este veterano de la Red, continúa igual después de tantos años; no exige un pago por las altas pero mantiene el enlace para realizarla muy escondido.
  6. Lycos. Alta gratuita, pero puede tardar dos o tres semanas hasta que nuestro sitio sea incorporado.
  7. Yahoo.com. El rey de los directorios no acepta más altas gratuitas de sitios comerciales. El alta Business Express nos costará 199 dólares y si nuestro sitio tiene una orientación para adultos, 600 dólares por el privilegio de aparecer en su base de datos. Los sitios son revisados tras siete días y no se garantiza la inclusión en el directorio tras su revisión.
    No debemos confundir el directorio de Yahoo, ordenado por categorías y subcategorías, con el motor de búsqueda al que se accede a través del formulario de búsqueda donde introducimos las palabras clave, que utiliza la base de datos de Google.
  8. Google. Alta gratuita sin garantía de que nuestro sitio sea indexado en la base de datos.
  9. Ask Jeeves. Este buscador permite a los usuarios las búsquedas en lenguaje natural, o formulando preguntas. Al ser mantenido por personas es necesario enviar el sitio web por correo electrónico, incluyendo la dirección URL y una breve descripción. Le sugerimos que además incluya alguna pregunta que la gente suela formular para encontrar sitios como el suyo. No se garantiza la inclusión.
  10. Terra. El portal más visitado de España mantiene su propio directorio ordenado por categorías y subcategorías al estilo de yahoo, en el que nos podemos dar de alta de forma gratuita. Requiere encontrar la categoría adecuada para ubicar nuestro sitio y dependemos de un proceso de revisión humano para ser o no aceptado. No se aceptan páginas con contenido para adultos. Terra mantiene un servicio de pago (1,2,3) para la aparición de un sitio en los primeros puestos. Esta opción fue incorporada en Altavista hace dos años, aunque tuvo que retirarse tras las numerosas críticas de los usuarios del motor de búsqueda.

Autor: Marketalia
http://www.marketalia.com/articulos/000021.html

Posted in Artículos Posicionamiento, Noticias Buscadores | Etiquetado: , , | Leave a Comment »

Cómo conseguir visitas con poco o ningún costo.

Posted by diseño web madrid en marzo 5, 2007

Ofrecer algo gratis en nuestro sitio (información de interés, artículos, enlaces, clasificados, etc.) para seducir a los visitantes para que nos vuelvan a visitar.2. Intercambios de banner en sitios complementarios con el suyo, de forma que puedan beneficiarse ambos sitios web.

3. Escribir un articulo para una revista y firmar su articulo con su nombre, dirección de sitio de web, y lo que su sitio web ofrece. Buscar un listado en Internet que tenga referencias de las revistas que leen sus visitantes objetivos. Enviar notas de prensa sobre nuestra web a editores de periódicos, revistas y cualquier tipo de publicación de interés.

4. Darse de alta en todos los motores de búsqueda posibles. Puede ser manualmente o a través de lugares que permiten hacerlo gratuitamente, siempre hay que comprobar posteriormente si se ha dado bien de alta el web, o a través de un servicio de pago.

5. Tener tu propia lista de correo, donde albergas tu web suelen facilitar una, sino se puede conseguir de forma gratuita en sitios web que ofrecen este servicio gratuitamente. A través de la lista se enviara información de la web, sus productos, servicios, etc. De la misma forma hacerse con un libro de visitas donde te dejarán direcciones a las que podrás enviarle un correo cuando tengas que notificar algo importante.

6. Mensajes de correo en tablones de anuncios. Se puede buscar en Internet un listado con los sitios que cuentan con un tablón de anuncios, la mayoría de ellos son gratuitos. Lo ideal es que sea relacionado con la temática de nuestro sitio, con nuestros productos o nuestros servicios. En winred disponemos de un tablón de anuncios cuyo objetivo es servir de punto de encuentro para hacer negocios.

7. Suscribir a listas de distribución relacionadas con la temática de la web, donde poder hacer comentarios haciendo al final una breve referencia a nuestra web. Participar en grupos de news, foros, etc.

8. Poner un anuncio en revistas, muchas de ellas tienen un pequeño coste, no hace falta comprar un espacio amplio, sino aportar originalidad en el anuncio. Tener en cuenta que existen periódicos locales, revistas de colegios profesionales, publicaciones de asociaciones, etc. donde su precio es relativamente barato.

9. Tener nuestra dirección de Internet añadida a las cartas de la empresa, tarjetas de visita, etc. Incluir la dirección de Internet en toda la correspondencia, cartas a amigos, etiquetas, regalos de empresa, … Cualquier escrito que hagamos no debemos de olvidar incluir en él nuestra dirección de Internet.

10. Si participamos en algún curso de formación, seminario, estamos asociados a un colegio profesional, a la cámara de comercio, etc. facilitar siempre la dirección de Internet. A cada reunión que asistamos repartir tarjetas de visita con la dirección de nuestra web.

11. En cualquier guía donde se haga referencia a nuestro negocio, páginas amarillas, etc. añadir junto al teléfono, la dirección de Internet. Colocar anuncios, tarjetas de visita, etc. en tablones de hipermercados, tiendas, universidades, ….

12. Hacer folletos de publicidad donde se añada una coletilla que diga, “visita mi web http…”. Colocar pegatinas en los parachoques de todos nuestros vehículos que contengan la inscripción: “visitarme en la web en http…”

Autor: Winred
http://www.webexperto.com/articulos/articulo.php?cod=125

Posted in Artículos Posicionamiento, Marketing en Internet | Etiquetado: , | Leave a Comment »

Mejoremos nuestra posición en buscadores, pero ¿Cómo?

Posted by diseño web madrid en febrero 12, 2007

Mejoremos nuestra posición en buscadores, pero ¿Cómo?

Conseguir que otras páginas webs de temática relacionada enlacen con su página web, para ello es interesante realizar una búsqueda para aquellos términos que consideras deberían llevar tráfico a su página web y estudiar cuáles de ellos tienen un contenido complementario. Por ejemplo si quieres posicionar tu página web por el término “tu servicio o producto” debes conseguir enlaces de otras páginas web con una temática similar al suyo.Poniendo nuestro término de búsqueda en los enlaces significa ir indicando a los buscadores que el contenido de la página web es referente a “tu producto o servicio” y los motores de búsqueda darán más prioridad por estos términos a la página web que recibe los enlaces.

  • El texto que utilices en un enlace dirigido a una página web se llama “Anchor Text” y es un factor muy importante en el algoritmo de los motores de búsqueda más populares. Además de mejorar su posicionamiento a la vez también aumentara su Google PageRank.
  • PageRank es un indicador del valor de dicho página web en el buscador de Google. Puedes visualizar el PageRank de cualquier página web, instalando el Google Toolbar. Utilizando el Google Toolbar es una buena forma de saber cuáles paginas tienen un buen PageRank y poder pedirles o intercambiar enlaces.
  • Darse de alta en directorios importantes como Dmoz, Yahoo!.
  • Los directorios han perdido mucho valor en los buscadores pero siguen siendo un buen método para conseguir enlaces o un primer rastreo de su página web por los buscadores. Ambas requieren de un filtro humano para su inclusión lo que asegura la calidad de las paginas añadidas, pero también ralentiza y dificulta su inclusión.
  • Hacer nuestra web lo más accesible posible: limitar contenido en flash, frames, javascript…
  • Los frames, el javascript o las páginas en flash no permiten el rastreo / seguimiento de la información por parte del robot en las diferentes páginas o secciones. Para ellos son un espacio blanco por el cual no se puede navegar.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página.
  • Cada página es una tarjeta de presentación para el buscador. Los Title y Description son puntos de partida para la identificación de los términos relevantes a lo largo de la web por los buscadores.
  • Ten en cuenta que los palabras que aparece en su descripción, titulo y keywords (si es que lo utilizas) deberían aparecer en el contenido de la pagina web también. Si no aparecen en el contenido de la página, no le dará ningún beneficio y tampoco podrán encontrar su página web por dichos palabras en los buscadores. Inclusive, puedes ser penalizado por utilizar keywords que no aparecen en su contenido. Esto se considera Keyword Spamming.
  • Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara.
  • Un Sitemap (tanto el de Google como uno presente en el site) nos permitirá dar paso al buscador por las diferentes secciones del site de una forma ordenada, mejorando su visibilidad.
  • Actualizar la página con contenido original de calidad y con frecuencia.
  • Un poco de paciencia y “comprender” la sensibilidad antispam de los buscadores …

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , , | Leave a Comment »

La importancia del archivo robots.txt para la indexación en buscadores.

Posted by diseño web madrid en enero 2, 2007

La importancia del archivo robots.txt para la indexación en buscadores. 

Los buscadores tipo “araña”, como Google o Altavista, siempre buscan en el directorio raíz de un sitio web el fichero “robots.txt”. Este fichero les indica qué archivos deben incluir en su base de datos.

 advanced_robots_txt_generator.jpg

En la mayoría de los casos no lo utilizaremos, pero si deseamos excluir parte de nuestro web de la mirada inquisitiva de estas arañas, deberemos crear un fichero con este nombre. Estará formado por uno o varios registros, cada uno de los cuales está formado por dos campos: una línea User-Agent y una o más líneas Disallow. El formato de cada línea es como sigue:

Campo : ValorPodemos incluir comentarios empleando la almohadilla. Todo lo que haya desde que pongamos el carácter # hasta el final de la línea será ignorado.

User-Agent
Esta línea indica la araña a la que queremos impedir el acceso a ciertas zonas de nuestra web. La mayoría de los buscadores tienen nombres cortos para sus arañas. Google utiliza el googlebot y Altavista el scooter, por ejemplo. No obstante, aqui tenéis una lista completa de arañas.

Un ejemplo:

User-agent: googlebot

También se puede utilizar el asterisco como caracter comodín para indicar que lo siguiente será aplicable a todas las arañas:

User-agent: *

Si tienes acceso a los ficheros log de tu web, puedes buscar en ellos posibles arañas observando las peticiones que se realicen al fichero robots.txt.

Disallow

Después de User-agent se deben especificar una o más líneas Disallow. Como valor de este campos se pueden especificar nombres de directorios:

Disallow: /imagenes/

O de ficheros:

Disallow: index.htmI

ncluso podemos especificarlos a la vez. Si ponemos:

Disallow: /roma

Impediremos el acceso tanto a los ficheros que empiecen por roma como al directorio del mismo nombre. También podemos usar asteriscos

Ejemplos
El primer ejemplo impide a cualquier araña acceder a los directorios de los CGI y las imágenes:

User-agent: *
Disallow: /cgi-bin/
Disallow: /imagenes/

El siguiente ejemplo permitiría la entrada al robot de Google pero no al de Altavista:

User-agent: googlebot
Disallow:
User-agent: scooter
Disallow: /
De este modo podremos impedir que los buscadores metan la nariz más de lo deseable. Si deseas comprobar si tu fichero cumple las especificaciones puedes emplear un validador.

Existen diversas soluciones automáticas de generar estos archivos por ejemplo: http://www.basisoft.com/, esta nos ha gustado entre miles, además de poder generarlo tu mismo, claro!.

Un saludo.

Fuente: http://www.flashtips.es

Posted in Artículos Posicionamiento, Herramientas Posicionamiento, Posicionamiento web | Etiquetado: | Leave a Comment »

La etiqueta META DESCRIPTION y dos herramientas SEO.

Posted by diseño web madrid en diciembre 9, 2006

Se dice que la Etiqueta META Descripción (Meta TAG Description), no deben superar los 150 caracteres (incluyendo los espacios en blanco), para evitar posibles penalizaciones de cualquier tipo.

Conozco sitios Web que no la aplican y aparecen en las primeras posiciones pero, como sabrás, el Posicionamiento Web al depender de una fórmula que evalúa diferentes parámetros para establecer una mejor o peor relevancia de tu Web o Blog; dichos sitios lo compensan con los otros parámetros.

Si quieres un consejo, no facilites la tarea SEO a tu “competencia” (sean personas, profesionales, tiendas, empresas, portales Web u ONG), perdiendo puntos, por pocos que puedan ser, por estos detalles que son fáciles de solventar, sobre todo si tienes la ayuda de software SEO como:

 Web CEO  o  IBP de Axandra.

Un saludo.

Posted in Artículos Posicionamiento, Herramientas Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Guía para enlazar/enlazarse con eficacia y elegancia en 5 pasos.

Posted by diseño web madrid en junio 6, 2006

El propósito de este artículo es ayudarle en su política de enlaces usando 5 pasos.

  1. Estudie y entienda las pautas para una progresión de enlaces natural.
  2. Estudie y entienda su perfil del enlace.
  3. Estudie y entienda los modos eficaces de conseguir enlaces.
  4. Resuelva su propio programa de proyecto de conseguir enalces.
  5. ¡Consiga los enlaces!

Este artículo se basa en mi opinión . (úselo bajo sui responsabilidad).

Pautas para una simulación natural
La mayoría de sus backlinks que usted adquiere deben cumplir:

Tenga un texto variado del “anchor” de sus enlaces:
Apunte sus palabras clave pero hágalas muy seguro para variar el anchor bastante, no repita constantemente la misma palabra. Incluso algun “haga click aquí” también ayuda.

Enlaces que vienen de las páginas enlazadas:
Este es probablemente el más importante, especialmente para los Web site ingleses. Se cree comúnmente que los enlaces de las páginas relacionadas llevan más “peso” en el posicionamiento

Enlaces entrantes de diversos lugares dentro de la página.
No tenga todos los backlinks en el pie de página o de ningún otro lugar específico y único. Téngalos en la portada de la página, dentro del texto de cuerpo, de la navegación, del pie etc.

Enlaces con un aumento natural gradual.
No ponga los centenares o los millares de enlaces a un nuevo sitio los primeros días… he probado eso y he conseguido que el sitio haya entrado en el Sandbox de Google. Usted necesita poner gradualmente los enlaces. Importante que un sitio consigua generalmente 10 nuevos enlaces a la semana

Enlazado desde las páginas con un valor variado del Page Rank
En mi opinión no más que 15-20  de sus backlinks a un sitio deben ser de las páginas de la page rank 5.

Enlaces entrantes de buena vecindad
No tenga una mayoría de sus backlinks de web scon contenido adulto, de las farmacias Viagra, y de sitios de póker/de casinos online. Tales sitios se conocen para el uso de spam y son penalizados y vigilados por Google.

Enlaces entrantes de diversa C-clase IPS
Google vigila esto. Tenga sus enlaces entrantes de diversos sitios con diversa IP y clase C.

Continuará … Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Teoría SEO | Leave a Comment »

¿Qué es Google Trends?

Posted by diseño web madrid en mayo 10, 2006

¿Qué es Google Trends? 

Google acaba de lanzar un nuevo producto destinado a facilitar a sus usuarios el seguimientos de tendencias. Google Trends es una potente herramienta que facilita el seguimiento de tendencias, historiales y relaciones.

Google trends

Básicamente es un producto destinado a saber que es lo que en cada momento más se busca en la red, descubriéndonos cuales son los intereses de los usuarios en todo el mundo y a lo largo del tiempo.

El servicio nos permite por ejemplo ver como evoluciona el término “Google”, así como comparar dicho término con otro, tal como “Microsoft”.

Para ello bastará introducir “Google, Microsoft, por ejemplo …

 GOOGLE TRENDS

google-trends-usability-graph-region.jpg

Posted in Artículos Posicionamiento, Herramientas Posicionamiento, Noticias Buscadores, Noticias Google | Etiquetado: , , , , , , , , | Leave a Comment »

¿Qué es un Google Bombing?

Posted by diseño web madrid en enero 6, 2006

¿Qué es un ‘Google Bombing’?
Se trata de conseguir que una determinada página web aparezca, en la búsqueda de una o varias palabras concretas, en la primera posición de los resultados de Google.

¿En qué consiste un ‘Google Bombing’?
Los promotores del ‘Googlebombing’ piden a los responsables de otros sitios web que inserten enlaces del tipo:

<A href=http://url_de_la_pagina>palabra1 palabra2</A>

El ‘Google Bombing’ se basa en el núcleo del funcionamiento de Google: los enlaces. Cuantos más enlaces obtenga una determinada página con una palabra (o palabras) en concreto, más posibilidades tendrá de aparecer en las primeras posiciones.

Incluso puede ocurrir que dentro de la página web objetivo del ‘Google Bombing’ no aparezca ni una sola vez las palabras de la búsqueda.

Se trata de la misma técnica que se utiliza en el posicionamiento web, pero enfocada en una reivincidación social o política.

¿Cuál es la finalidad de un ‘Google Bombing’?
Los promotores pretenden que se identifique al protagonista de la página web víctima del ‘Google Bombing’ con la palabra buscada. Así, cuando se promovió el ‘miserable failure‘ contra George Bush, se perseguía que los usuarios de Google identificaran al presidente de EEUU con un ‘miserable fracaso’.

¿Qué otros ‘Google Bombings’ han dado resultado?

¿Qué ‘Google Bombings’ se están promoviendo?
 Microsoft Internet Explorer ‘insecure’

Noticia obtenida de
google.dirson.com
 

Posted in Artículos Posicionamiento, Preguntas SEO | Etiquetado: | Leave a Comment »

Consecuencias de la actualización Jagger …

Posted by diseño web madrid en diciembre 6, 2005

Consecuencias de la actualización Jagger

Interesante resumen que hace Danny Sullivan en este post referente a la actualización del algoritmo del buscador de Google, conocida como ‘Jagger’, y que está a punto de finalizar.

Sullivan menciona que algunas búsquedas (por ejemplo, ‘boeing 727’) devuelven, en el comienzo de la página de resultados, un par de números de teléfono (solo EEUU) de ciudadanos que se apellidan ‘Boeing’ y su número comienza por ‘727’. También subraya que otras búsquedas (por ejemplo, ‘nokia 3650’) devuelven resultados que no están dominados por páginas web de afiliados.

Sobre las campañas de enlaces recíprocos entre sitios web, se sospecha que Google está consiguiendo no tenerlas en cuenta, así como muchas estrategias para obtener enlaces “no naturales”.

En este post de ‘stuntdubl.com’ se apunta un consejo que nunca se debería perder de vista: por mucho que nos preocupemos en analizar las actualizaciones del algoritmo y en ensayar diversas tácticas SEO, Google va a intentar cuidar la calidad de su buscador a cualquier precio. Su objetivo es organizar la información mundial, y para ello cuenta con uno de los mejores equipos de científicos del planeta que está continuamente analizando y poniendo a punto el agoritmo. En el post se citan algunos de los campos en los que está trabajando Google y algunas de las tácticas SEO que se prevén van a tener éxito a corto-medio plazo.

Sobre el tema de las ‘canonical URLs’, Sullivan critica duramente a Google (y al resto de buscadores) por no encontrar todavía un método para identificar de manera única una página web, sin que haya que arriesgarse a utilizar redirecciones.

Noticia obtenida de
google.dirson.com

Posted in Artículos Posicionamiento, Noticias Buscadores | Etiquetado: , | 1 Comment »

La actualización de Google: Jagger, impresiones …

Posted by diseño web madrid en octubre 22, 2005

Antiguamente ( es decir, hace un año ) Google tenía un comportamiento extraño de manera periódica. El comportamiento extraño no era más que, de repente, las búsquedas proporcionaban unos resultados diferentes a los del día anterior. Y a esto se le denominaba los ‘Google Dance’. Con el tiempo, se les ha dado otro nombre genérico: ‘Google Update’ o ‘Actualizaciones de Google’, y además, a cada actualización se le proporciona un nombre (este último es el Jagger, pero también ha habido el Bourbon, Florida y alguno más). Como curiosidad, el encargado de poner nombre a estos updates es uno de los webmasters de WebmasterWorld, aunque este honor ha recaido en él no porque Google lo haya querido así, sinó porque es la página sobre SEO en inglés más visitada, incluso participa un miembro de Google, que se hace llamar GoogleGuy.

Parece ser que Google está preocupado por los sitios spam, es decir, aquellas páginas que no aportan contenido, pero que gracias a sus técnicas de posicionamiento logran salir en los primeros puestos de la mayoría de las búsquedas, así es que se han puesto manos a la obra para añadir filtros y nuevos algoritmos de reorganización de resultados que eviten estas ‘spam sites’. El problema es que esta actualización se va a llevar a cabo en tres fases, una por semana empezando desde el 16 de octubre, y finalizando a principios de noviembre del 2005. Y ya se sabe, durante un update, los resultados de las búsquedas suelen ser pésimos, como es el caso del Jagger, así es que los webmasters que vivimos del tráfico que nos trae Google estamos bastante preocupados.

Aún es pronto para saber qué ha decidido penalizar Google, o que valora más ahora en un sitio, pero por lo pronto parece que el tiempo va por barrios, a algunos les ha afectado mucho, y otros prácticamente no han notado el cambio. Por nuestra parte hemos notado un descenso brutal en una de nuestras páginas, pero el resto continúan igual que antes del Jagger1 …

Por webmaster de Otras cosas

Posted in Artículos Posicionamiento, Noticias Buscadores | Etiquetado: , , | Leave a Comment »

Una propuesta: intercambiar enlaces de tu URL.

Posted by diseño web madrid en marzo 29, 2005

Intercambiar Enlaces:

El intercambio de enlaces es algo bastante simple, es básicamente que un sitio enlace a otro y ese enlace al primero (es decir, un sitio A enlaza a un sitio B, el cual le “devuelve” el enlace al sitio A). Pero no necesariamente debe ser sólo entre dos sitios, se ha popularizado hace no mucho el intercambio de enlaces unidireccional, el cual se contrapone al recíproco.

El intercambio unidireccional implica que deben ser más de dos sitios los que participen en el intercambio, normalmente tres o cuatro. En el caso que sean tres, el sitio A enlaza al B, y el B enlaza a un sitio C, generalmente del mismo propietario que el sitio A. El beneficio de este tipo de intercambios no recíprocos no es muy grande ni está confirmado, pero muchos argumentan que este tipo de intercambio no será tan obviamente artificial, sino que se verá como más disimulado de cara a Google. Pero hay otros que reflexionan que esto no tiene mucho sentido y que Google toma en cuenta perfectamente los intercambios recíprocos, y por el momento parece que asi es (y no parece que vayan a haber cambios, ya que no tendría demasiado sentido).

En el intercambio de enlaces generalmente se utiliza un texto a manera de palabra clave, la cual lograremos posicionar mejor con el intercambio, es decir el texto del enlace:

<a href=”http://www.dominio.com”>texto del enlace</a>

Si bien se beneficia la posición de la palabra clave que actúa como texto del enlace, es bueno no utilizar en todos los intercambios las mismas palabras, si no que es mejor ir variando.

Al momento de elegir con qué sitios intercambiar enlaces hay que tener varios aspectos en cuenta. Uno de ellos, y quizás el más importante, es la temática, siempre es mejor que el intercambio sea entre páginas de temáticas iguales o similares. Y mejor aún si esta página con la que realizas el intercambio es “importante” dentro de la temática, es decir, estar bien posicionada para la búsqueda que más caracterice o defina ese tema determinado (se podría definir bien posicionado a un sitio que aparezca entre los primeros 50 ó 100 resultados). Otro factor importante a tener en cuenta es el número de enlaces que tenga la página, no enlaces entrantes, sino enlaces a otros sitios o enlaces a otras páginas dentro del mismo sitio, es preferible que este número se mantenga siempre menor que cien, y cuantos menos sean será mejor.

También se debe tener en cuenta el número de enlaces que tenga el sitio en donde queramos colocar el enlace, para saber esta cantidad podemos utilizar tanto Google como Yahoo!, en ambos debemos colocar en el espacio de búsqueda el comando “link:http://www.dominio.comCon esto obtendremos las páginas que enlazan al sitio cuya dirección especificamos en la búsqueda. Así tendremos una visión de qué sitios lo enlazan y cuántos son en número aproximado. También podemos tener en cuenta otros factores como: diseño del sitio, proligidad del código, si el enlace será colocado dentro de la etiqueta <strong> o no, PageRank del sitio, y otros muchos factores.

Posted in Artículos Posicionamiento, Posicionamiento web | Leave a Comment »

Los Buscadores: clave del éxito en Internet.

Posted by diseño web madrid en marzo 29, 2005

Clasificar y encontrar websEn los inicios del www no había demasiadas páginas web, había poca información y todo el mundo sabía donde encontrarla. Además, los nombres de dominio acostumbraban a tener relación con el sitio y viceversa, así que buscar una determinada cosa (si estaba en la red) no resultaba difícil. A medida que fueron pasando los años el número de páginas existentes fue creciendo a velocidades exponenciales. Este aumento del volumen de información hizo que se complicara cada vez más la localización de información relevante sobre un tema. Los nombres de dominio ya no resultaban triviales y “adivinar” dónde encontrar determinada información resultaba imposible. Aparecieron entonces los directorios. Su estructura, organizada jerárquicamente en subdirectorios perfectamente clasificados por temas, permitía (y permite aun hoy), navegando por una estructura de árbol, localizar webs relevantes sobre la información buscada.

Pero el tamaño de los directorios se hizo cada vez más grande, con lo cual buscar información se hizo cada vez más difícil. Así, algunos de estos directorios empezaron a integrar buscadores sencillos, minimizando el tiempo de búsqueda. Sin embargo, mantener un directorio es una tarea laboriosa que implica revisar una gran cantidad de páginas e ir añadiéndolas o eliminándolas (cuando la web deja de existir) de las categorías adecuadas.

El paso siguiente fue crear robots que se encargasen de recopilar información en la web. Nacen entonces los buscadores, que representan una gran ventaja frente a los directorios: sus robots visitan las páginas web de forma automática incorporándolas a sus índices, y a la hora de dar los resultados la velocidad es mucho mayor; el usuario solicita información y en pocos segundos se le proporcionan un conjunto de direcciones relacionadas con la consulta. Como contrapartida, los robots, por sofisticados que sean, no pueden organizar la información ni entenderla como una persona. Sin embargo los usuarios acostumbran a utilizar más los buscadores que los directorios, y estos últimos han incorporado un buscador a su directorio.

¿Qué es el posicionamiento en buscadores?

Cuando una persona utiliza un buscador para localizar información sobre un determinado tema no suele ver más allá de 2 ó 3 páginas de resultados, pero muchos se quedan ya con la primera. Teniendo en cuenta que en cada página de resultados hay 10 o 20 enlaces (dependiendo del buscador), que una página esté bien posicionada en un buscador es muy importante.

Se habla de posicionamiento en buscadores como la aplicación de una serie de normas a las páginas web conforme a los algoritmos que utilizan los buscadores, con la finalidad de salir en las primeras posiciones por los términos de búsqueda que nos interesen. En inglés se denomina SEO (Search Engine Optimization), y está muy ligado a lo que se conoce como marketing en uscadores (SEM – Search Engine Marketing).

Ningún webmaster puede conocer el algoritmo exacto de un buscador, pero con el estudio de los resultados se puede hacer una aproximación de aquellos factores que está tomando en cuenta.

¿Por qué es importante estar bien posicionado?

Los buscadores actuales cuentan con un gran número de páginas indexadas. Google tiene más de 4000 millones de páginas web en sus bases de datos. Entre semejante cantidad de webs, lo más normal es pasar completamente desapercibido. Cualquier página es susceptible de ser mostrada en el buscador si se buscan sus contenidos de una forma muy concreta. Por ejemplo, seleccionando una frase de 6 o 7 palabras exactas lo más normal será que el buscador nos devuelva en la primera posición la página que contenga esa frase. Los usuarios suelen utilizar entre 2 y 4 palabras para realizar sus consultas, que normalmente son bastante genéricas; salir listado en las primeras posiciones por las palabras más utilizadas por los internautas será un objetivo que nos dará un alto número de visitas. Un buen tráfico web se puede lograr de otras formas no relacionadas con el posicionamiento; sin embargo los buscadores ofrecen un tráfico web de calidad, ya que ante cualquier consulta tienen como objetivo devolver las páginas web más relevantes relacionadas con la búsqueda. Si nuestra página web habla de impresoras, salimos bien listados por la búsqueda impresoras, y también por diferentes búsquedas relacionadas que también llevan la palabra impresoras, estaremos obteniendo una buena cantidad de visitas interesadas en nuestra página web. Esto es lo que se llama atraer visitas de calidad, interesadas en nuestra web.

Vendemos impresoras y atraemos hacia nuestra web gente que busca impresoras; los buscadores pueden ser más efectivos que un anuncio en televisión.

La diferencia de estar en los primeros lugares de Google o más allá de los 30 primeros es abismal. Los primeros conseguirán visitas diarias, que por pocas que puedan ser, son visitas contínuas e interesadas en la web. Cuando el número de visitas que provienen de los buscadores es alto – por las palabras claves que nos interesan – el éxito de nuestra web está garantizado.

Visibilidad de las empresas

Pocas empresas con presencia en Internet pueden permitirse el lujo de no ser encontradas fácilmente. Los buscadores representan uno de los principales objetivos para atraer un tráfico web de calidad, los visitantes que llegan hasta la web de una empresa desde un buscador normalmente estarán interesados en los servicios o productos de esa empresa.

Las campañas de Pago Por Click – mostrar anuncios de una web cobrando por cada visita que se le proporciona – son muy utilizadas; en Google se pueden ver estos anuncios a la derecha. Los precios de Pago Por Click dependen de la competitividad de la palabra clave para la que queramos anunciarnos y la posición en la que deseamos aparecer. El mínimo (en Google) son 0,05 euros por Click, hasta algunas palabras claves tan competitivas que superan el euro por Click para aparecer en la primera posición. Normalmente pueden resultar un buen método de promoción, pero si estamos bien posicionados en los resultados no patrocinados nuestras posibilidades de éxito son mucho mayores. Salir en primera posición de Google y Yahoo! es, cada vez más, el primer objetivo publicitario de muchas empresas.

Un caso frecuente es el de cualquier web pequeña, en la que se ofrezca algún tipo de servicio sin pensar en las grandes posibilidades de los buscadores. Esta web puede conseguir 20, 30 o hasta 40 visitas diarias. Pero de esas visitas, las que realmente tengan interés en el servicio que se ofrece serán, como mucho, 2 personas cada 30 días. Trabajando el posicionamiento en Google durante unos meses se pueden alcanzar 200, 300 o hasta 400 visitas diarias, de la cuales aquéllas que realmente tengan interés en el servicio que se ofrece serían 2 o 3 personas todos los días.

El futuro:

Europa suele seguir los pasos de EE.UU. en todo a lo que buscadores se refiere, de esta forma lo que pasa allí normalmente es fiel reflejo de lo que pasará aquí unos meses después. El idioma abre muchas más puertas al posicionamiento del futuro, es mucho más difícil posicionarse para cualquier búsqueda en inglés que en la búsqueda correspondiente en castellano. Si además tenemos en cuenta la evolución de Internet, la posibilidad de usar Google (u otro buscador) en móviles, como dispositivo de voz, televisión o incluso en dispositivos que todavía hoy no podemos ni imaginar, todo lleva a pensar que los buscadores tengan un gran futuro como medio publicitario.

Hoy en día, en EE.UU., el éxito de cualquier empresa en Internet depende de su visibilidad en este medio, y sin duda su posicionamiento en buscadores juega un papel crucial.

¿Cómo funciona Google? (o cualquier otro buscador)

Un programa al que llamamos robot se dedica a recorrer las páginas web, quedarse con una copia y seguir todos sus enlaces. Gracias a los enlaces puede ir de una web a otra constantemente, de esta forma el buscador tiene la capacidad de encontrar nuevas páginas web siempre que hayan sido enlazadas por alguna otra web que haya recorrido.

Una vez que el buscador tiene una copia de la página valora diferentes factores para clasificarla según la consulta que se realice. En sus bases de datos almacena copias de todas las webs que ha recorrido, y cada vez que se realiza una consulta aplica su algoritmo para devolver los resultados ordenados y clasificados, de manera que el algoritmo devuelve en las primeras posiciones los resultados que considera más relevantes para la consulta que hemos iniciado.

¿Qué factores valora un buscador para clasificar las webs?

Los buscadores valoran que nos enlacen muchas páginas, que nuestra web sea conocida, lo que se llama tener popularidad web. El marketing juega un papel fundamental para conseguir enlaces. Hay varias estrategias que están utilizando las empresas para conseguir aumentar su popularidad y comunicación con el usuario, reportando grandes beneficios no sólo en los buscadores:

WebLog: Un blogger (profesional) se dedica a escribir sobre la empresa. El interés que suscitan muchos weblogs hace que se consigan enlaces gracias a lo que se escribe, pero no sólo eso, para una empresa puede representar un medio de comunicación sin precedentes. Una forma muy interesante de darse a conocer, que generará contenidos y enlaces, y eso repercutirá positivamente en los buscadores.

Copywriter: La idea es generar contenidos que nos den enlaces, y para ello se contrata a un buen escritor que esté reconocido en el sector. Los artículos, escritos y noticias de esta persona suscitarán el interés y los enlaces de otros. En lugar de contratar a alguien para que consiga enlaces, se contrata a alguien para generar contenidos que resulten útiles y lleven a los webmasters a enlazarnos. La idea del WebLog y del Copywriter no son tan diferentes.

Utilidades: Ofrecer en la web algún tipo de servicio o herramienta gratuita que repercuta en la popularidad y conocimiento de la empresa.

En general los factores más importantes para que los buscadores nos clasifiquen positivamente y lo más alto posible son los factores que se comentan a continuación:

El número de enlaces hacia esa web desde otras
El texto de los enlaces (anchor text) hacia esa web: <href=”pagina.html” mce_href=”pagina.html”>esto es anchor text</a>.
El título de una página es el factor más importante de todos los llamados on the page. No escoger un buen título – descriptivo y rico en palabras claves – sería perder muchas posibilidades.
La densidad de las palabras clave en el texto.
El peso de las palabras clave: negrita, encabezados (h1, h2), las primeras 25 palabras, etc.
Evitar Javascript, Flash… los buscadores todavía no lo interpretan correctamente.
Google dice que valora más de 100 aspectos diferentes en su algoritmo. Es muy conocido el término PageRank, que es una medida de 1 a 10 que asigna a las páginas en función del número de enlaces (y la calidad de los mismos) que recibe.

Contenidos y Enlaces

Las recomendaciones de los buscadores para mejorar nuestro posicionamiento son que añadamos contenidos que sean útiles para los usuarios, o lo que es lo mismo, que nuestra página sea relevante. En un entorno ideal, la página con más y mejores contenidos (la más relevante) sería la que recibiría más enlaces por parte de otros usuarios. Conseguir enlaces es muy importante a la hora de mejorar nuestras posiciones, pero si no ofrecemos al usuario lo que está buscando, si no tenemos contenidos relevantes para la búsqueda a través de la cual llega a nuestra web, habremos perdido el tiempo. Es importante tener los mejores contenidos posibles, a la larga nos darán enlaces de otras webs que van a ser muy valorados. Tal vez sea el mejor consejo que se pueda dar a alguien que desee posicionar su web: si quieres superar a la competencia ofrece más y mejores contenidos (servicios) que ellos.

¿Es tan importante el texto de los enlaces entrantes?

Sin duda, es lo más importante. Lo que se conoce por Google bombing no son más que enlaces con un texto exacto hacia una web. Normalmente esa web apuntada no contiene ese texto, por lo que no es relevante para esa búsqueda, ni tiene sentido que salga listada para consultas relacionadas. El año pasado se comenzó un Google bombing contra el Sr. George Bush, consistente en apuntar a la página de la Casablanca que contiene su biografía con el texto miserable failure. El código exacto sería el siguiente: <a href=”http://www.whitehouse.gov/president/gwbbio.html”> Miserable Failure</a>, después de que muchos webmasters enlazasen a esa web de esa forma, la biografía de Bush comenzó a salir primera en la mayoría de buscadores por la búsqueda miserable failure. Si lo miráis a día de hoy (en Google) veréis que sale la página de Michael Moore que tampoco tiene nada que ver con la búsqueda, es una lucha que sostienen desde hace unos meses demócratas y republicanos.La conclusión es que los enlaces hacia nuestra web son tan importantes que hasta sería posible posicionarnos para un término sin que nuestra web lo tuviese escrito o no tratase de nada relacionado con ese término.

Técnicas poco éticas

Salir en las primeras posiciones de los buscadores es tan atractivo y beneficioso que lleva a muchos webmasters a utilizar técnicas poco éticas. Los buscadores tienen dificultades para combatir estás técnicas, en su mayoría basadas en spam. No es fácil detectarlas de una forma automatizada, por lo que la lucha contra estos métodos se basa en revisiones manuales. Muchos de los cambios que se producen actualmente en los algoritmos de los buscadores están destinados a combatir este tipo de spam.

¿Cuáles son esas técnicas poco éticas?: Hay un gran número de variantes, pero en su mayoría se basan en las siguientes, que son las más conocidas:

Texto Oculto: Es muy fácil esconder texto en cualquier página web, utilizar el texto del mismo color que el fondo, situarlo en una zona no visible para la mayoría de los navegadores (noscript, noframes), etc.

Cloaking: Sabiendo la IP del robot de un buscador, cuando éste llegue a nuestra web, en vez de servirle la página que ve cualquier usuario le damos otra preparada especialmente para que obtenga un buen posicionamiento, rica en texto y en las palabras clave que nos interesen, hasta tal punto que resulte desagradable de ver para cualquier internauta.

Spamming GuestBook: Este tipo de spam se presenta de muchas formas. Si antes hablamos de lo bueno que era tener enlaces hacia nuestra web, cuantos más mejor, ¿qué forma más fácil de conseguir un enlace que firmar un libro de visitas?. Éste es el principal problema de los buscadores en la actualidad.

La gran cantidad de weblogs existentes en la red, que tienen unos resultados y una valoración excelente por parte de los buscadores, provoca que muchos spammers se dediquen a firmar cientos de weblogs con el único objetivo de conseguir enlaces hacia su web. Solucionar esto no es fácil, ¿cómo saber si un enlace es spam o no?

Google pone un formulario a disposición de todos para comunicar incidencias de webs que estén usando técnicas poco éticas, en algunos casos se produce una revisión manual y si se considera que la web está rompiendo las normas (que impone el buscador), será penalizada.

A principios de 2004 el conocido buscador realizó cambios drásticos en su algoritmo que afectaron a la gran mayoría de búsquedas, posiblemente para combatir el spam, quitando valor a algunos enlaces y dando más valor a los enlaces que provienen de páginas relacionadas con la temática de la web a la que apuntan.  Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

Pasos que hay que seguir para posicionar webs

Posted by diseño web madrid en marzo 28, 2005

En ProfesionalNet (por ejemplo), seguimos unos pasos bien definidos para la consecución de nuestro objetivo: Que su página sea la primera.

Para empezar:

  • Le ayudamos a seleccionar los términos de búsqueda óptimos, buscando las mejores palabras-clave para su tipo de negocio, dependiendo del producto o servicio que Ud. quiera ofrecer, atendiendo a nuestros estudios sobre hábitos de búsqueda actuales.
  • Después:
    Estudiamos su competencia y las necesidades reales del sitio web. Como destacar.
  • Optimizamos y reprogramamos las páginas de su web, basándonos en análisis completo de su sitio web, como: diseño, navegación, contenido y tecnología utilizada.
  • Creamos e insertamos las etiquetas de selección de los buscadores (Meta Tags).
  • Establecemos la mejor estrategia para el aumento del PageRank de su página.
    (valor de importancia en Google de 0 a 10) Política de enlaces desde Page Rank >5
  • Realizamos el alta manual y efectiva en los principales buscadores.
  • Realizamos como refuerzo, el alta manual en cientos de otros buscadores, directorios y foros, seleccionados por nostros por su calidad y eficacia, evitando el SPAM.
  • Insertamos su sitio web en los directorios empresariales con más importacia en internet, situándole en la temática correcta a sus servicios y productos, para que sea facilmente localizado por quienes buscan los productos o servicios que ofrece su web.
  • Finalmente, realizamos un detallado estudio y seguimiento mensual para mejoría y mantenimiento de resultados durante el periodo contratado. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: | Leave a Comment »

Promociona tu web en 10 pasos.

Posted by diseño web madrid en marzo 28, 2005

“Promoción web” es un término muy buscado en Internet. Seguramente la explicación radique en que muchos webmaster se han dado cuenta de que nadie visita sus páginas de nueva creación. Es una experiencia muy desoladora. Si te ha pasado a tí, no te preocupes: te presento 10 pasos para promocionar tu sitio web.1. Incluir la dirección de tu web en todo la papelería de tu empresa.
La promoción de webs consiste en buscar muchas fuentes de visitas distintas. Nuestro ranking en buscadores es muy importante, pero también son importantes las visitas que recibimos por las personas que teclean directamente nuestra dirección. No sólo deberíamos poner la dirección en toda nuestra papelería y publicidad sino también podemos ponerla en cualquier sitio visible. Por ejemplo, puedes hacerte un rótulo y ponerlo en tu coche.

2. Buscar enlaces de otros sitios.
Los enlaces desde otros sitios al nuestro sirven no sólo para aumentar nuestra popularidad de enlaces (o PageRank en la terminología de Google) sino que nos aportarán visitas en sí si elegimos bien las páginas web. Deberíamos buscar enlaces de sitios que tengan contenidos relacionados con el nuestro y que sean también sitios serios.

3. Optimizar tu página web.
Un sitio web debe ser optimizado para que rinda al máximo. Esto significa que sus contenidos deben enfocarse claramente en su tema principal. Debemos evitar la tentación de incorporar información que no tenga que ver con lo que hacemos. Además, debemos estar seguros de que las páginas web estén bien construidas y sin código superfluo. Para más información, visita la guía de posicionamiento en buscadores.

4. Darse de alta en buscadores.
¿En cuántos? Realmente sólo hace falta darse de alta en unos pocos buscadores. No puedo decirlo más enfáticamente: las empresas que ofrecen darse de alta en 500, 1.000, 5.000 o 20.000 no te servirán de nada. Para más información, visita las páginas de altas en buscadores.

5. Compartir tus contenidos con otros sitios.
Hay muchos sitios que buscan contenidos nuevos para completar sus páginas. Si puedes escribir unos artículos, un curso o los trucos del día, serán bien recibidos. Lo único que debes pedir como contraprestación es un enlace a tu sitio web.

6. Hacer que tu sitio web sea “pegajoso”.
Seguro que tienes algunos sitios que visitas a menudo. ¿Porqué vuelves tanto? Probablemente será porque el sitio actualiza sus contenidos a menudo o porque ofrece una herramienta que puedes utilizar gratuitamente. ¿Qué puedes ofrecer en tu sitio web para conseguir lo mismo?

7. Hacerselo fácil a otros que enlacen con tu sitio.
Si los contenidos de nuestros sitios son interesantes, es normal que otras personas los recomenden. Si nosotros tenemos ya preparado el código HTML necesario, es más probable que lo hagan.

8. Utilizar los sistemas de pago-por-clic o anuncios en otros sitios web.
Los sistemas de pago-por-clic (PPC) más populares representan una buena manera de aumentar nuestras visitas rápidamente. Aunque no todo el mundo tiene el presupuesto para hacerlo, es muy fácil controlar el gasto y la duración de una campaña. Si la espera para que los buscadores indexen nuestros sitios nos frustra, el PPC puede producir visitas casi inmediatamente. Para saber qué sistemas de pago-por-clic utiliza cada buscador, visita las páginas de buscadores y ver la columna PPC de la tabla.

9. Crear un boletín.
Si envías información de novedades a tus visitantes cada semana o cada mes, puedes darles una buena razón para visitarte de nuevo. Hay que tener cuidado con la legislación sobre la protección de datos, pero si registras la base de datos correctamente y sólo envías el boletín a personas que lo hayan pedido, no habrá problema.

10. Analizar los hábitos de los visitantes, y empezar de nuevo.
La promoción de un sitio web es un proceso continuo. Debes estudiar las estadísticas de tu página web para ver cómo llegaron, qué frases de búsqueda utilizaron y dónde salieron. Con esta información puedes mejorar tu página y seguir aumentando las visitas.
Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Marketing en Internet, Posicionamiento web, Teoría SEO | Etiquetado: , , , | Leave a Comment »

El blog de Matt Cutts

Posted by diseño web madrid en febrero 6, 2005

 Matt Cutts trabaja en el Googleplex, es decir, es un empleado de Google. Parece ser que su trabajo dentro de la empresa se centra en limpiar de spam los SERPS (resultados) del buscador, es decir, intentar encontrar la manera de eliminar las páginas web que utilizan técnicas poco éticas para subir posiciones en las búsquedas (lo que suele llamarse técnicas ‘black hat’).

¿Y porqué os cuento todo eso? Pues por que Matt Cutts en su tiempo libre se dedica a escribir en su blog, en el que podemos encontrar mucha información fiable de cómo se comporta el buscador: qué le gusta y qué no le gusta, o sea, qué podemos y qué no podemos hacer en nuestras webs.

Yo particularmente me lo leo a diario, para ver qué se cuenta, y comprobar si mis webs cumplen las normas que dicta Google, y os aconsejaría que vosotros hiciérais lo mismo, ya que de vez en cuando da pistas muy buenas sobre hacia donde se dirijen las nuevas versiones del algoritmo de Google.

Posted in Artículos Posicionamiento, Herramientas Posicionamiento | Etiquetado: , | Leave a Comment »

Google AdWords y los enlaces patrocinados.

Posted by diseño web madrid en diciembre 17, 2004

google-adwords 

Hoy por hoy anunciarse en Google es el mejor método de promoción web en Internet. No hay ninguna duda. La potencia de este buscador puede atraer miles de visitas interesadas hacia nuestra web. Hoy en día, el futuro de nuestro negocio en la Red puede pasar por nuestra presencia en los buscadores, o lo que casi podría ser lo mismo, nuestro presencia en Google. Anunciarse en Google es esencial y efectivo. 
 
Hay otros buscadores, Yahoo! o el propio MSN, pero mientras que ignorar nuestra presencia en estos dos, puede no ser vital para el éxito de nuestro negocio en la Red, de lo que sí estamos seguros, es que ignorar nuestra presencia en Google es casi sinónimo del fracaso de nuestra página web. Y es que, ni más ni menos, Google proporciona el 90% de las visitas que provienen de los buscadores en España, y poco menos en Europa. El 90% de las visitas que provienen de los buscadores. Y si tenemos en cuenta que la mayoría de los usuarios – clientes potenciales – que llegan a nuestra web lo hacen a través de los buscadores, queda claro que anunciarse en Google es fundamental para conseguir que nuestro negocio funcione.
Fuente: xeoweb 

Ahora que ya sabemos que anunciarse en Google puede ser la base del éxito de nuestro negocio en la Red, ¿Por qué deberíamos olvidarnos de hacer una buena inversión en salir en los buscadores?. En Estados Unidos sólo el 20% de las pequeñas y medianas empresas tienen contratado algún tipo de servicio de marketing en buscadores profesional. Esto convierte este mercado en muy competitivo en cuanto a posicionamiento en buscadores. Afortunadamente, y por el momento, en España las estadísticas son mucho más bajas. Es posible anunciarse en Google con éxito a precios más económicos, con mejores garantías, y hay sectores que están por explotar y aprovechar sus posibilidades de promoción web en Internet. 
 
 Hay dos posibilidades de anunciarse en Google:
1. La más conocida es el posicionamiento en buscadores, a veces también se le hace referencia como marketing en buscadores. El objetivo es salir en los primeros puestos de los buscadores en los resultados orgánicos. 
 
2. La segunda forma de anunciarse en Google consiste en utilizar las posibilidades del Pago Por Click. En Google se llama Adwords y pagando por anuncios contextuales segmentados, podemos conseguir visitas pagando mínimos establecidos de pago por click y gastos máximos diarios. 
 
Cada uno de los métodos tiene sus ventajas y sus inconvenientes. Obviamente el Pago Por Click puede ser mucho más caro a la larga, pero permite estar publicando anuncios en 15 minutos. Anunciarse en Google de esta forma y tener éxito, requiere la gestión por parte de profesionales. Si no gestionamos los anuncios de la forma adecuada será como tirar el dinero. El posicionamiento en buscadores es mucho más lento, puede llevar meses y el desembolso inicial puede ser mucho mayor, pero a la larga presentará unos resultados claros para muchas más búsquedas que el Pago Por Click, y además una vez posicionados no tendremos la necesidad de estar realizando desembolsos constantes. 
 
No lo olvides, si quieres que tu web tenga éxito, a día de hoy, anunciarse en Google es el método más efectivo, ponte en contacto con Posicionamiento Web ProfesionalNet y te informaremos en detalle sobre la contratación de estos dos servicios dependiendo del tipo de estrategia a seguir, posicionamiento web (orgánico) a largo plazo, posicionamiento en enlaces patrocinados de Google (AdWords) a corto plazo o para campañas puntuales, llámanos al 91 677 25 05 y te informaremos en detalle.

Posted in Artículos Posicionamiento, google adwords, Marketing en Internet, Posicionamiento web | Etiquetado: , , , , , , , , , | Leave a Comment »

Ya se han adjudicado los Page Rank en el concurso telendro.

Posted by diseño web madrid en junio 23, 2004

Al amanecer de este día 23 de junio han aparecido las primeras adjudicaciones de PAGE RANKa los concursantes del Telendro.A lo largo del día se han producido variaciones en las puntuaciones, por lo que quedamos a la espera de empezar a ver los Page Rank Definitivos.Saludos. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Concursos SEO, Herramientas Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »