Posicionamiento y Optimización del WEB – SEO/ProfesionalNet

Un Blog gratuito sobre artículos, recortes de prensa, blogs, teoría y herramientas del posicionamiento web

Archive for the ‘Posicionamiento web’ Category

HOY ES MARKETING 2008

Posted by diseño web madrid en marzo 14, 2008

hoyesmarketing 2008 

NUEVOS MERCADOS, NUEVOS CLIENTES, NUEVAS SOLUCIONES
Las claves del Marketing por ESIC

Un año más ESIC Business & Marketing School presenta el V Encuentro de profesionales y directivos Hoy es Marketing, evento exclusivo que se celebrará en siete ciudades españolas donde se darán cita más de 8.000 profesionales y directivos de las empresas más importantes del país. Este año, bajo el lema NUEVOS MERCADOS, NUEVOS CLIENTES, NUEVAS SOLUCIONES, contaremos con la presencia de los máximos responsables del mundo empresarial que nos desvelaran los secretos de sus marcas y analizarán con nosotros el presente y el futuro de sus compañías.

presenta:

HOY ES MARKETING 2008

NUEVOS MERCADOS, NUEVOS CLIENTES, NUEVAS SOLUCIONES
Las claves del Marketing por ESIC

Madrid, 17 de Abril de 2008. Centro de Convenciones Norte de IFEMA
El próximo lunes, nos vemos allí. Un saludo. ProfesionalNet.

Anuncios

Posted in Posicionamiento web | Etiquetado: , , , , , | Leave a Comment »

Los secretos SEO de once posicionadores.

Posted by diseño web madrid en marzo 7, 2008

Secretos SEO 

Secretos SEO:

Leemos en PabloGeo, un artículo recogido sobre los secretos SEO de once reconocidos profesionales del posicionamiento web, dice así:

“Hoy he visto un artículo donde once profesionales SEO nos cuentan algunos secretos (inglés) que ellos utilizan para conseguir enlaces o sacarle más jugo a los que puedan conseguir. Si bien no todos se mojan, hay algunos que son realmente interesantes.

Yo personalmente me quedo con la experiencia de Peter Van Der Graaf, utilizando una técnica interesante para conseguir enlaces con el “anchor text” bukakke hacía una página temporal que luego sería redireccionada a una pornográfica para posicionar esa palabra.

También me interesa mucho lo que dice Patrick Altoft, vosotros sabéis como emplear esa técnica?”

🙂 Un saludo. ProfesionalNet.

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

Long Tail: El número de palabras por búsqueda ha pasado de 3 a 4.

Posted by diseño web madrid en febrero 28, 2008

long tail 

Según comentan en SEW, Avinash Kaushik de Google Analitycs comentó el fin de semana pasado que por primera vez el número de palabras por búsqueda ha pasado de 3 a 4.

Es decir, que la gente cada vez realiza búsquedas más precisas y concretas, con 4 palabras por búsqueda. Esto son buenas noticias para los que optimizan sus webs para el long tail, y para aquellos que ven imposible competir para determinadas palabras genéricas.

Yo soy de los que creo que es un error posicionar pensando en el long tail, principalmente porque si consigues posicionar una palabras genérica, es mucho más sencillo posicionar términos relacionados con dicha palabra. Sin embargo, hay blogs, especialmente blogs, que reciben miles de visitas diarias únicamente del long tail, lo que abre el juego a más webs, y parece que la tendencia es a ampliarse todavía más.

Esto son buenas noticias, especialmente para las webs más nuevas.

Fuente: AdSeok

Posted in Artículos Posicionamiento, Hábitos Internet, Noticias SEO, Posicionamiento web | Etiquetado: , , , , , , , , | Leave a Comment »

10 Consejos SEO para escribir en Blogs.

Posted by diseño web madrid en febrero 26, 2008

blogs 

La redacción SEO (Search Engine Optimization, Optimización para buscadores) es el material escrito que le gusta bastante a los lectores y que se posiciona bien en los buscadores. Aquí están algunos secretos de los mejores redactores SEO:


1. Ellos hacen que cada título llame la atención: Los artículos que tienen buenos títulos son enlazados más veces que artículos que tienen títulos aburridos. Hacer que tus contenidos sean enlazados es más importante que cualquier otros factor de la redacción SEO.

2. Los redactores SEO hacen cada artículo escaneable: Me explico, el lector debe poder examinar los artículos que escribes – nunca esperes que lean el artículo completo. Ellos deben poder encontrar fácilmente pequeños titulares que expliquen de lo que trata la siguiente sección. También deben encontrar listas ordenadas (numeradas) y desordenadas. Esto conduce a incrementar los enlaces desde otros sitios.

3. Los redactores SEO avanzados apuntan a un grupo de palabras clave en cada artículo: Ten una palabra clave como objetivo en cada artículo y ponla de 3 a 4 veces en dicho artículo.

4. Ellos ponen las palabras clave en etiquetas <h1>, <h2>, etc.: Si eres un blogger significa que te aseguras de que tu palabra clave este en el título de la página. También puedes añadir tus palabras clave dentro de etiquetas <h1>, <h2>, <h3> o <h4> entre el contenido del artículo.

5. Ellos saben que hay muchas variaciones de la palabra clave objetivo: Si un artículo tiene como objetivo la palabra clave ‘redactores SEO’, probablemente deberías tener también como objetivo a ‘escritores SEO’ y ‘redacción SEO’.

6. Ellos no exageran la orientación por palabra clave en los artículos: Un mal escritor añadirá bastantes veces la palabra clave a la que quiere apuntar, lo que es incluso peor que no apuntar a ninguna palabra clave.

7. Ellos no mantienen un estándar en la densidad de palabras clave de cada artículo que escriben: Piensa en ello, si tienes exactamente el 5% de densidad de palabras clave para cada página de tu sitio, es muy fácil para los buscadores saber lo que estás haciendo. Incluso, recomendaría no comprobar la densidad de palabras clave. Pon tus palabras clave naturalmente dentro del texto del artículo 3 o cuatro veces.

8. Nunca intenta engañar a los buscadores: Usar métodos sospechosos como texto oculto y cloaking finalmente te hará penalizar. Un buen redactor SEO nuca lo estará, nunca tendrá un sitio penalizado pues él/ella no usará técnicas sospechosas.

9. Ellos optimizan los títulos HTML, el nombre de archivo de la imágenes, las etiquetas alt y las meta etiquetas: Tener una imágen relacionada con tu palabra clave puede ayudar a posicionarla SI usas como nombre de archivo de la imágen la palabra clave. También debería usar la palabra clave en la etiqueta alt de la imágen. Si usas el plugin ‘All in One Seo Pack’ para WordPress, tu palabra clave será añadida en el título HTML y en la meta descripción de tu página SI lo usas en el título y en el primer párrafo del artículo.

10. Ellos etiquetas los artículos con las etiquetas correspondientes a su palabra clave: Un gran redactor SEO sabe cuales son las etiquetas que le pueden servir para determinado artículo dependiendo de la palabra clave escogida.

Fuente: trazos web

Posted in BlogSEO, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , , , , , , | Leave a Comment »

Optimización web para empezar…, ¿Qué es?

Posted by diseño web madrid en febrero 12, 2008

Optimización web, ¿Qué es?

Somos principiantes y deseamos mejorar las posiciones de nuestra web, alguien nos ha hablado de la optimización web, todo un mundo de acciones, ya pero, en que consiste de forma breve? Consiste de optimizar el código de la página web (limpiando y optimizando el HTML, por ejemplo) para lograr mejorar el posicionamiento en buscadores de sitios en Internet como Google. El objetivo: cuando un potencial cliente escriba o busque nuestros productos o servicios por Internet, nuestra página web debe aparecer entre los primeros resultados ofrecidos por el buscador.

optimizacion-web 

Bien si, pero, por donde empezamos?, los términos de búsqueda:
Primero analicemos nuestros términos de búsqueda y establezcamos cuáles son nuestros potenciales clientes y como buscarán nuestros productos o servicios. También deberemos analizar los sitios web de nuestra competencia para dibujar una idea clara de cuáles son los términos que están utilizando para lograr buenas posiciones en los buscadores.

El contenido, la base del posicionamiento:
Crear  contenido rico, original y descriptivo es un factor bastante importante para lograr que nuestros clientes encuentren nuestro website utilizando las palabras que aparezcan en el contenido de nuestra web. El contenido debe incluir las palabras de búsqueda elegidas además de información útil para el visitante. Los buscadores (entre otros análisis) miden el porcentaje de densidad de nuestro contenido en texto y código, cuantos enlaces tiene nuestra página web, el texto de los hipervínculos (Anchor text) en sus enlaces, la temática y semántica de nuestra web y los sitios que enlazan con el nuestro, el título de nuestra página web, la descripción, etc. Existen más de 200 factores que forman parte del algoritmo de Google y cada uno debe ser considerado para obtener una buena posición, no olvidemos que Google, por ejemplo, utiliza un sistema similar al software antispam, puntuando nuestra web en negativo, sumando puntos positivos según el resultado del cálculo de sus algoritmos, estos cada vez son más “inteligentes” y sensibles a la sobreptimización.

Una vez que hayas analizado y modificado tu web, debes indexarla en  los buscadores (Alta en Buscadores) para que les incluyan en sus índices. Esto puede llevar un tiempo debido a que existen a veces miles o millones de resultados que los buscadores tienen que revisar para su inclusión o actualización en los buscadores. Sin embargo, hay varias formas de lograr que nuestra página aparezca más rápido en los buscadores y con un buen posicionamiento también.

Backlinks:
Conseguir enlaces de otras páginas web es una buena manera de comenzar tu proceso de  optimización. Ten en cuenta que Google le da mayor prioridad a ciertos enlaces. Enlaces que incluyen sus palabras de búsqueda o con una semántica similar a nuestra página, la antigüedad del enlace, el PR que transmite, por ejemplo. Si el contenido es similar pero no duplicado, Google valoriza más estos enlaces. También es bueno conseguir enlaces de otras páginas que incluyen sus palabras de búsqueda en su URL (dirección de la web en Internet) y su titulo de la página. No se trata solo de cuantos enlaces que tienes, sino la calidad ( características referidas) de los enlaces también.

optimizacion web

Existen factores internos y externos a optimizar en nuestra web. La optimización de páginas web se trata más del contenido y factores internos como de:

  • Su contenido
  • Enlaces Internos
  • Título
  • Descripción
  • Densidad de Palabras, etc.

Cada factor es importante optimizar para posicionar nuestra página web. El primer contenido a tener en cuenta en nuestra página web debe incluir una breve descripción de la página. Cada página debe contener un contenido distinto y original. El título y descripción de cada página debe ser distinto también, existen ya  muchos filtros para el contenido duplicado y nuestra página puede ser penalizada o Google puede esconder algunos de nuestras resultados en el índice suplemental debido al contenido duplicado, este contenido no debe sobrepasar el 20% de semejanza.

La inteligencia AntiSpam ha ganado:
No intentes engañar los buscadores con textos escondidos, repetidos o cloaking. Estos métodos de prohibidos pueden terminar perjudicando nuestra página siendo esta penalizada y borrada completamente de la caché de  los buscadores. No es necesario realizar Spam para obtener buenas posiciones si existe un buen contenido, enlaces y optimización, de forma natural conseguiremos posición y por lo tanto tráfico interesante e interesado.

optimizacion web3

Visibilidad de tus páginas:
Asegúrate que los buscadores pueden navegar fácilmente por nuestra web. Esto sirve para que cada página sea incluida en el índice-caché de los buscadores. Si existen muchos directorios es más difícil y por lo general tarda más antes que todas las páginas sean incluidas en el buscador Lo más importante es que incluyas enlaces internos a cada página de la web para que los buscadores puedan encontrar cada página siguiendo los enlaces internos o externos dirigidos interiormente. Esto también lo puedes lograr utilizando un Sitemap.xml y utilizando, por ejemplo, las herramientas para webmasters de Google. También puedes analizar tus visitas y palabras de búsqueda más utilizadas con la herramienta de análisis de Google.

No olvides, regularmente analizar e incluir nuevos términos de búsqueda para conseguir más tráfico para tu sitio web. Mantener nuestra página actualizada, agregando nueva información periódicamente, logra que los buscadores visiten nuestra página web con mayor frecuencia y como resultado las páginas web aparecen en el índice más rápido cuando se realizan nuevos cambios.

Lo más importante:
Una de las acciones a realizar más difícil y entretenida, por lo tanto cuidadosa por importante, es conseguir suficientes enlaces de importancia hacia nuestra página web porque esto requiere tiempo y análisis de nuestros términos de búsqueda elegidos, las páginas donde debes conseguir los enlaces, el texto de los enlaces, el contenido de las páginas con una temática similar a nuestra página, etc. Una buena forma de crear enlaces con contenido similar a nuestra página es escribir artículos, páginas públicas de favoritos, directorios web, intercambio de enlaces (enlaces recíprocos), etc.

Finalmente, “detalles” que ayudan:
Puedes aumentar su densidad y prioridad de las palabras de búsqueda de varias maneras. Utiliza descripciones con sus palabras de búsqueda para describir sus imágenes (Alt Image Text), utilizar descripciones en los enlaces (título de enlaces), utilizar tus términos de búsqueda en la URL de tu página, utilizar sus palabras de búsqueda en el título y descripción de cada página, escribir contenido con sus palabras de búsqueda, etc…

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , , | Leave a Comment »

Introduce tu empresa en Local Business Center de Google.

Posted by diseño web madrid en febrero 10, 2008

Google ofrece una posibilidad de listar tu negocio en el servicio de mapas que presta a la comunidad. Esta es una oportunidad que muy pocos han sacado provecho. Es gratis y cada vez está mostrando buenos resultados.

Local Business Center de Google.

Por ejemplo, si buscas madrid google , encontrarás la Oficina de Ventas de Google en Madrid (España). Esta es la oficina central en la que Google presta servicios en España.

Parar crear tu listado, debes crear una cuenta en Google y dirigirte a Local Business Center, en donde no solo podrás listar tu negocio gratis, sino que también puedes crear cupones para ayudar a promocionarlo. Puedes registrarlo hasta en 5 categorías diferentes, lo cual te da más visibilidad.

Búsqueda Google madrid

Una vez creado tu registro, Google pedirá que confirmes si realmente eres el dueño o no. Para ésto, lo puedes hacer de dos maneras: Pidiendo que te envien una postal a tu dirección física con un código que debes ingresar cuando llegue o a través del telefono móvil, este método es mucho más rápida pues Google te llama al teléfono con el que has registrado tu negocio y cuando contestas te hace marcar un código que previamente te ha mostrado por internet.

http://www.google.com/local/add/lookup?hl=en-US&gl=US

Posted in Posicionamiento web | Etiquetado: , , | Leave a Comment »

Fusión buscadores: Microsoft estudia subir aún más su oferta a Yahoo!

Posted by diseño web madrid en febrero 7, 2008

Microsoft estudia subir aún más su oferta a Yahoo!

REUTERS. Los analistas ven poco probable que Google y Yahoo! se alíen.Ven aún menos probable que Yahoo acepte la oferta actual. Algunos inversores escépticos están negociando las acciones de Yahoo! con un descuento de un 6,5% sobre el precio no oficial de la oferta de Microsoft, pero algunos analistas de Wall Street esperan que el gigante de la informática mejore su propuesta.

microsoft compra yahoo!

El banco suizo UBS estableció el martes un precio objetivo para las acciones de Yahoo por encima de la oferta de Microsoft, de 31 dólares por título.

Microsoft hará todo lo que haga falta para concretar esta operaciónEn tanto que el banco Citi dijo que el aumento de la oferta es el más probable de los cinco escenarios que prevé para la novela que se anticipa entre la mayor compañía de software del mundo y la estrella convaleciente de internet.

Las acciones de Yahoo cerraron el martes a 28,98 dólares, más de 2 dólares por debajo de la oferta de Microsoft de la semana pasada. Los papeles del gigante informático han caído alrededor de un 12% desde entonces, recortando potencialmente el valor de la oferta que era mitad en efectivo y mitad en acciones.

Pero UBS estableció el precio objetivo para Yahoo en 34 dólares, diciendo que Microsoft “hará todo lo que haga falta para concretar esta operación”. “En una operación hostil, normalmente el comprador no empieza con su oferta mejor y final y no nos sorprendería ver a Microsoft endulzar el trago de alguna manera para facilitar la decisión al directorio de Yahoo”, explicó en una nota el banco de inversión.

Citi tiene un precio objetivo de 31 dólares para la acción de Yahoo, pero dice que el escenario más probable -con una probabilidad de un 40%- es que Microsoft suba su oferta y haga la compra después de que Yahoo rechace la inicial. Citi dio una probabilidad de un 20% a que Yahoo acepte la actual oferta, y un 25% a que Yahoo contrate a Google para dirigir sus operaciones de búsqueda en un contrato lucrativo.

Continuará …

Posted in Noticias Buscadores, Noticias MSN Live, Noticias Yahoo!, Posicionamiento web | Etiquetado: , , , , , | Leave a Comment »

Los próximos 20 años de Google

Posted by diseño web madrid en febrero 4, 2008

Poco antes de la salida a bolsa de Google, sus dos fundadores Sergey Brin y Larry Page, junto al presidente de la compañía, Eric Schmidt, se prometieron recíprocamente permanecer y trabajar por la compañía por un mínimo de 20 años.

Sergei Brin Larry Page

El portavoz de Google, Jon Murchinson, relató lo anterior a la publicación The Wall Street Journal, aunque no explicó si el trío tenía algún plan concreto al momento de decidir su pacto de honor. Con todo, Murchinson recalca que el pacto demuestra la importancia que los fundadores de Google asignan a controlar la empresa a largo plazo.

Los analistas bursátiles han reaccionado positivamente ante la noticia. “Esto refleja, una vez más, que las posibilidades de Google son gigantescas, y que hasta ahora sólo hemos visto la superficie de este fenómeno”, comentó entusiasta Sandeep Aggarwal, analista de Oppenheimer.

Fuente: DiarioTI

Posted in Noticias Buscadores, Noticias Google, Posicionamiento web | Etiquetado: , | 2 Comments »

“Google Master Plan”, el Plan Maestro de Google

Posted by diseño web madrid en enero 28, 2008

Navegando, hemos encontrado en vector pixel, una serie de imágenes del interior de GOOGLE, en una de sus pizarras se ve un tremendo entramado de enlaces con un único gran extremo: Google Master Plan subrayado en rojo:

“Google Master Plan”, el Plan Maestro de Google

Posted in Noticias Google, Posicionamiento web | Leave a Comment »

26 Consejos rápidos sobre posicionar por primera vez.

Posted by diseño web madrid en enero 24, 2008

Acaba de construir su web?, está en ello?, ya quiere posicionar su web?…. ¿Sabe como hacerlo?,

Siga estas rápidas recomendaciones entre todo el batiburrillo de teorías existentes sobre el posicionamiento web, rápidamente:

  1. No publique su “site” hasta que no esté terminado.
  2. Elija un dominio .com, evitará sorpresas con temas de correo y pérdida de posicionamiento.
  3. Diseñe la estructura de carpetas con sus palabras clave principales.
  4. Núnca duplique páginas, mínimo 10% de diferencia entre páginas, ni las copie de intenet.
  5. Keywords cortas (1 ó 2 palabras) páginas pequeñas 50-60 palabras de 7-8 kb, keywords largas (3 ó 4 palabras) paginas grandes no mayores de 1500 palabras 17-20 kb.
  6. Elija buenos diseños pero con poco código, es decir 1500 palabras son 15 kb, + 3 Kb de codigo hacen una página de 18Kb. Reduzca esos 3Kb de código al máximo.
  7. Está mal copiar, pero utilice el vocabulario de su competencia y añada el suyo propio.
  8. En Google y Yahoo no afecta pero en Msn no puede tener ningún error en las url que direccione, de lo contrario su página quedará expulsada del motor, por eso debe tener cuidado con los intercambios de link.
  9. Para Yahoo y Msn cuantas mas páginas tenga mejor, practicamente no penaliza. En Google ni se le ocurra.
  10. Indexada una pagina en Google, ni se le ocurra cambiarle el nombre ni la estructura, a menos que sepa redireccionar la antiguedad, el tráfico y el posicinamiento que tenia la antígua. Por eso es tan importante no publicar el sitio hasta que esté terminado. O si no, creelo ( el website) poco a poco. En vez de tres tardará seis o doce meses en posicinar su web site.
  11. Si desea posicionar palabras acentuadas hágalo pero utilice siempre su correspondiente código UTF (á á- é é y sucesivamente). El único que no contempla diferencias es MSN, en cambio Yahoo y Google posiciona diferente con acentos que sin ellos hasta con 100 puestos de diferencia.
  12. Si detecta una pérdida masiva de posiciones masiva en Msn y no hizo ninguna modificación importante, le está indicando que tiene errores en los contenidos de su página direccionando imágenes u objetos que no existen en la url. Corrijalo cuanto antes. Yahoo y Google no le echarán.
  13. Para pocos términos de búsqueda sitios con 10 o 15 páginas. No cree núnca mas páginas de las necesarias. Tenga en cuenta que los robots.txt no siempre son efectivos (cuidado con el robot de google).
  14. Inserte 10 a 15 enlaces internos en cada una de sus páginas, ganará allinanchor.
  15. Cuantas mas palabras diferentes (amplitud de vocabulario) ganará dispersión y le permitirá obtener mayor peso con pocas repeticiones. Analice su proximidad y dispersión (distancia entre repeticiones).
  16. Vigile sus logs de acceso al site. Identifique los errores y corrijalos cuanto antes.
  17. A través de dichos logs podrá comprobar cuando cada motor le ha cacheado una página, no se fie solo del log, contrástelo con el cache del motor. Una vez que el motor cachea de nuevo la página tarda un tiempo en reposicionar, Google entre 7 y 10 dias, Yahoo entre 5 y 7 dias y Msn entre 2 y 3 dias. Si después de este tiempo no ve cambios sustanciales en sus posiciones, vuelva a recalcular su página modifíquela y espere de nuevo a que vuelvan a pasar los spider de los motores. Anote cada modificación que hace para disponer de una base de conocimiento (KnowledgeBase) de lo que debe y no debe de hacer. No haga modificaciones constantemente pensando que pasaría si. Espere a que pase el motor y aprenda de sus errores. Como Google detecte cambios constantes e indiscriminados, no se fiará de su página y la dejará en el “limbo”. Esto le puede provocar un baneo paulatino. pérdida de páginas cacheadas y por último eliminarle el PR.
  18. Cuando detecte saltos muy grandes a mejor en sus posiciones de Google, no se fie. Si habitualmente esta en la 178 y de repente salta a la 60 en dos dias, malo malo. Pero si en un mes pasa de la 170 a la 60 ganando 110 posiciones, bueno pero que muy bueno. En el primer caso o es muy nueva la página o le van a echar en 5 dias. En el segundo caso se denomina reposicionamiento estable sin vuelta atrás. En el segundo caso verá que saltará adelante y adetrás pero con ganancias de posicionamiento consolidadas. Es un pequeño baile de posiciones que Google lo basa en el recálculo de las páginas que hay por encima y por debajo de la suya.
  19. Si su allinanchor es bueno, y su posicion está 150 por encima, no toque la página. El indício es bueno. Debería de esperar antes de volver a modificar. Usted sabrá.
  20. Mediante el control del log aprendera cuál es la frecuencia de los spider, habitualmente Google 22 a 25 dias (excepto los blogs que actualmente los actualiza cada 2 ó 3 dias o mucho menos), Msn 17 a 19 y Yahoo depende unas veces cada 30 dias y a veces hasta 45. Tenga paciencia. Esa es la base de controlar el posicionamiento, controlándose usted mismo. Cada site se chaea con tiempos distintos.
  21. Posicionar una palabra es totalmente distinto de posicionar otra ya que depende de lo competida que esté cada una. En unos casos deberá utilizar una técnica y en otros quien sabe la totalmente opuesta, depende de cada caso particular.
  22. Como habrá podido apreciar a través del “TopTen”, pueden llegar a existir muy grandes distancias entre las posiciones en un motor en español y en .com internacional. De ahí la importancia de centrarse sólo en un motor. No decimos que se olvide de los demás, pero trabaje sólo para uno, aunque no se lo crea, los motores hablan entre ellos y con el tiempo lo que posicione bien en google quedará bien posicionado en los demás salvando las distancias y errores.
  23. Tenga en cuenta a que mercados se dirije, sudamerica y paises del este son cautivos de yahoo, en cambio Europa y EEUU habitualmente trabajan con Google, pero debe saber cual si el .com o el propio del país .es, .fr, .de, .it, .pt, etc. Localicelo y trabaje el posicionamiento para el mercado que busca.
  24. Olvídese de Terra, Altavista, Alltheweb, Lycos, Ask, Inktom etc, todos se nutren de los resultados de Google, Yahoo y Msn de una forma u otra. Pero tenga en cuenta a Live Search, en 3 o 4 años dará una gran sorpresa.
  25. Tenga una copia diária de su site, lista para publicar de nuevo en cinco minutos.
  26. Olvídese del PageRank por el momento … Lee el resto de esta entrada »

Posted in Posicionamiento web | Leave a Comment »

Enlaces Recíprocos.

Posted by diseño web madrid en enero 22, 2008

Enlaces Recíprocos

Uno de los temas más comentados en cualquier foro en los últimos meses es el papel que juegan los enlaces recíprocos en Google. Un tema de consideración ya que el carácter recíproco de los enlaces es algo muy común en muchos intercambios de enlaces. Desde la conocida actualización Florida, que Google llevo a cabo hace un año, han surgido diversos rumores sobre los intercambios de enlaces y las posibilidades de que los enlaces recíprocos estén devaluados o hayan perdido todo su valor.

Los enlaces recíprocos no están devaluados, ni penalizados, ni han perdido valor. Los intercambios de enlaces (recíprocos o no) siguen jugando un papel fundamental en la metodología SEO.
¿Páginas o Webs?
Debemos distinguir entre web y página (o página web). Web es un conjunto de páginas alojadas bajo un mismo dominio. Página es cada uno de los documentos individuales -normalmente con URL propia- de un dominio (de la web). Google, a la hora de proporcionar los resultados de una búsqueda, nos devuelve páginas concretas, no dominios (webs). Google posiciona las páginas de las webs individualmente. El papel de otras páginas del mismo dominio puede jugar a nuestro favor, pero a la hora de que una página sea listada en Google, el resto de páginas del dominio son vistas como factores externos. Nosotros, en nuestras webs, podemos verlas como factores on the page, porque están bajo nuestro control, y podemos jugar con la estructura de la web, con el anchor text que apunte a una página determinada, con el número de enlaces que reciba a nivel interno del propio dominio, etc. Pero Google, ve una página, y en sus resultados la posiciona individualmente, independientemente del resto de los contenidos del dominio. Si todo el dominio habla del mismo tema que esa página, sólo jugará a su favor, si tiene enlaces hacia esa página desde otras páginas (si están relacionadas mejor) del dominio. A efectos de posicionar una sola página de una web, tener 1000 páginas en el mismo dominio que hablen de lo mismo, pero que no estén enlazadas entre ellas, sería como tener 1000 páginas diferentes en dominios diferentes sin enlazarlas.

Hay un caso en el que Google favorece a las páginas del mismo dominio. Cuando hay dos páginas de un misma web dentro de la página de resultados de búsqueda, Google agrupa la que ocupa el peor lugar justo después de la primera. Me explico: si tenemos configurado Google para mostrar 10 resultados por página, y yo tengo una página en la segunda posición de una búsqueda, si otra página de ese dominio alcanza la décima posición, automáticamente pasa al tercer puesto, es agrupada de forma consecutiva con la otra página del dominio. Si tenemos Google configurado para mostrar 100 resultados por página y tenemos la quinta posición y la nonagésimo novena, ésta última saldrá listada en la sexta posición. Podemos establecer como regla general:

Cuando en la misma página de resultados de Google salen listadas dos páginas del mismo dominio en posiciones no consecutivas, Google agrupa las dos páginas, de forma que la que ocupa el peor puesto de las dos, es listada a continuación de la que ocupa el mejor puesto de ambas.
¿Qué es un Enlace Recíproco?
Ahora que hemos explicado que Google valora páginas individuales en sus resultados y no dominios, podemos establecer que un enlace recíproco es aquel que tiene sentido bidirecciónal entre dos páginas. Dicho de otra forma: La página “A” apunta a “B”, y la página “B” enlaza a “A”.

A veces se habla de enlaces recíprocos cuando hay enlaces bidireccionales entre dos dominios, pero no entre las mismas páginas. Explicado: Tenemos un dominio “D1” y un dominio “D2. “D1” tiene una página “A” que apunta a una página “C” del dominio “D2”. “D2” tiene una página “B” que enlaza a la página “A” de “D1”. Sean “D1” y “D2” dominios difentes, “A” una página del dominio “D1”, “B” y “C” páginas diferentes del dominio “D2”, y “z -> x” representa un enlace de “z” a “x”.

Tenemos: D1.A -> D2.C y D2.B -> D1.A

¿Podemos considerarlos enlaces recíprocos?
 Si bien son enlaces entre dominios, no deben considerarse enlaces recíprocos, ya que hay infinitas posibilidades de que se dé este caso, y es prácticamente imposible de controlar. No representa ningún riesto este tipo de intercambios. Pensemos en el mundo de los blogs, prácticamente todos los enlaces serían recíprocos, la mayoría hemos enlazado a casi todos los blogs que nos han enlazado en algún que otro post.
¿Qué se ha devaluado?
Hace una año eran muy comunes los intercambios de enlaces desde todas las páginas de una web hacia la página principal de otra web, y desde todas las páginas de esta segunda web también se enlazaba a la página principal de la primera web, con esto se conseguía un importante aumento del PageRank, así como un buen número de enlaces con el mismo texto. Era una forma rápida y efectiva de lograr miles de enlaces intercambiando con una sola web. Google ha devaluado los enlaces que provienen desde las IPs que tienen en común los tres primeros bytes. Así que ese método de intercambio ha perdido mucho valor, ya que se lograban sólo enlaces desde una misma IP por cada web con la que intercambiábamos. Ahora es mucho más interesante la idea de conseguir sólo 5 enlaces desde 5 IPs (variando los tres primeros octetos) diferentes, que 1000 enlaces desde una misma IP.

Éste fue uno de los motivos que impulsó la creencia de que los enlaces recíprocos estaban devaluados. Era fácil comprobar que esos enlaces no funcionaban para mejorar posiciones como lo hacían antes, pero lo devaluado no era el enlace en sí por el hecho de ser recíproco, era la procedencia de enlaces masivos desde la misma IP.
Recíprocos vs. No Recíprocos.
Es muy frecuente leer que es mejor un enlace unidireccional que bidireccional, que es mejor un enlace no recíproco que uno no recíproco. Esto es falso, y lo que debe imperar es el sentido común. Lo mejor son los enlaces que se ponen de forma natural, sin realizar intercambios, los enlaces entre páginas relacionadas, y que aportan algo al usuario que está leyendo los contenidos de la página donde va el enlace. Está comprobado que estos enlaces son siempre los que más visitas proporcionan a otras páginas web. Son los enlaces donde más fácil nos resulta hacer un click de ratón. El carácter recíproco del enlace no tiene nada que ver con su valor, hay muchos más factores: la posición del enlace, el texto que lo rodea, el tener más enlaces desde esa misma IP, etc.

Los enlaces entre páginas relacionados son la mejor forma de subir posiciones en Google, ya sean recíprocos o no. Simplemente porque el que sean recíprocos no perjudica en nada. Se pueden observar grandes beneficios con intercambios de enlaces entre páginas que compiten por la misma búsqueda. Estos enlaces son de gran valor para el usuario, y Google sabe valorarlos en su justa medida. Si lo que se valora son los enlaces naturales, lo adecuado es hacer intercambios de enlaces naturales. Tal vez no enlacemos a otra web por el simple hecho de que sea de la competencia, pero los usuarios, y por tanto los buscadores, saben valorar ese tipo de enlaces positivamente. Porque están relacionados, porque ofrecen una continuación a ese página, porque es una aportación de contenido útil, y si el enlace se hace recíproco… ¿Qué importa?
Peligros.
No representa ningún peligro utilizar enlaces recíprocos en intercambios de enlaces. Lo peligroso son los grandes anillos que a veces se forman. Las webs que intercambian enlaces suelen hacerlo siempre con las mismas, de forma que es una rueda que crece. Primero empiezan 10, luego 20, 30, etc, y más tarde Google detecta que hay una red de páginas con un número de enlaces entre ellas nada natural, y decide que pierdan valor. No llega a banear, o a realizar una penalización, detecta esas páginas como afiliadas, y todo el peso de los enlaces, todo lo positivo que nos aportaban en temas de posicionamiento, se pierde. Es algo normal, porque es poco natural que 50 páginas se enlacen todas entre sí, y no digamos si enlazan entre todas las páginas que contiene cada web, pero en su justa medida sigue siendo un arma muy efectiva en temas de posicionamiento en buscadores.

Las penalizaciones a grandes anillos de enlaces en los que participan un número muy elevado de páginas… ¿tienen algo que ver con los enlaces recíprocos?  No.

Autor: Fran Fernández
http://www.xeoweb.com/google/enlaces-reciprocos.php

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

Puntos importantes a tener en cuenta para conseguir enlaces.

Posted by diseño web madrid en enero 21, 2008

Puntos importantes a tener en cuenta para conseguir enlaces.
Jim Westergren publica una excelente guía sobre link building.
Escribo los puntos principales sobre los que se hablan a la hora de conseguir enlaces.1.- En los enlaces que consigamos debemos tener una variedad de anchor text. Variedad, naturalidad.

2.- Los enlaces hacia nuestra web deberían tener un buen porcentaje de ellos que provengan de páginas relacionadas. Cómo se señala en el enlace, esto es especialmente importante en páginas en idioma inglés dada su gran competitividad.

3.- No sólo es importante conseguir enlaces en cualquier lugar de una página. Mejor que sean variados. ¿Conseguir enlaces sólo desde el pie de páginas de las webs? También desde cabeceras, el texto, columnas de enlaces. Variedad, naturalidad.

4.- La colocación de enlaces que sea gradual en el tiempo. Con una progresión. Si podemos conseguirle 1000 enlaces a una página nueva, mejor empezar por 10 el primer mes, 50 el segundo, 200 el tercero, etc. Naturalidad en el tiempo.

5.- Enlaces en páginas con variedad de pagerank. En este punto no coincido tanto. Me inclino claramente por enlaces en páginas con variedad en la antigüedad de su dominio, y a esto le añadiría, los primeros enlaces siempre desde páginas más antiguas.

6.- Enlaces desde buenas comunidades. Evitar enlaces que provengan siempre desde páginas de dudoso valor.

7.- Variedad en las IPs y su clase C en los enlaces que consigamos hacia nuestra web.

8.- Enlaces desde webs de valor, tanto nuevas como antiguas. Páginas “de confianza” con buenos resultados en buscadores.

9.- Enlaces recíprocos entre sectores relacionados.

10.- No sólo enlaces a la página principal. Si las interiores tienen contenido, también tienen valor, y es natural que reciban enlaces.

11.- Los directorios son fruto de los primeros enlaces, de los enlaces más fáciles de solicitar, pero no deben ser nunca los únicos enlaces que tenga nuestra web.

12.- Enlaces permanentes, la antigüedad en su colocación puede darles más valor.

13.- Evitar la compra de enlaces que reflejen de forma evidente que son comprados (Anuncios, venta de enlaces, “sponsor”, ese tipo de columnas pueden ser detectadas por Google).

14.- Las páginas que nos enlacen no deben tener enlaces a malas comunidades acompañando al nuestro. A esto le añado, si el enlace a nuestra página está acompañado de enlaces a otras páginas de calidad en el sector, mejor que mejor.

15.- Un punto muy importante, que se destaca muy poco. Los enlaces que consigamos deben ser siempre desde y hacia páginas en el mismo idioma. Añado: Muy importante para los Google locales.

Este excelente artículo continúa con formas efectivas de conseguir enlaces.

1.- link baiting – ya sabemos que se ha hecho muy conocido esto en los últimos meses –

2.- Enlaces desde directorios.

3.- Intercambios, a 2 o 3 bandas.

4.- Alquiler de enlaces de alto pagerank (bueno en esto discrepo un poco, vuelvo a insistir en la antigüedad de las páginas y no comprar enlaces de forma evidente).

5.- link vault – Es una red de intercambios. La he utilizado una temporada, como todas para probarlas, en el artículo no lo señalan como “grey-hat” – peligroso – como señalan el punto anterior, pero habría que añadirlo. Es una red indetectable por Google, pero la propia página está baneada creo recordar. Sólo para aquellos que quieran jugar con ciertos riesgo, como la COOP en su día, pero está es mucho más disimulada. Google persigue estos sistemas bastante a día de hoy.

6.- La COOP – lo mismo que el punto anterior, pero con más riesgo a día de hoy. No recomendado, para webs hispanas olvidaos si no sabéis lo que hacéis.

7.- Enlaces desde otras páginas propias. Si están en el mismo sector y hay variedad de IP y clase C.

8.- Pagar a Bloggers. Esto se utiliza desde hace algún tiempo, no creo que demasiado todavía entre nosotros. La idea es pagarle a un blogger /web similar (no necesariamente blogs) porque haga un entrada posteando sobre nuestra web y nos coloque algún enlace. Es una forma muy interesante de ganar enlaces.

9.- Realizar búsquedas, encontrar páginas similares que puedan enlazarnos.

10.- Escribir testimonios, comentarios, artículos, etc. Participación generando contenidos. Envío de artículos a otras páginas, etc.

11.- Enlaces debajo de artículos. Crear artículos con enlaces a pie de página, con diferentes objetivos. Ya sea publicación en otras webs, webs propias, mejorar la indexación mediante enlaces a páginas profundas, o crear artículos por sectores para conseguir enlaces más relevantes.

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web | Leave a Comment »

Posicionamiento en buscadores: Técnicas penalizadas.

Posted by diseño web madrid en enero 20, 2008

La penalización de webs que realizan prácticas no éticas para posicionarse en los primeros resultados de búsqueda, es una estrategia que utilizan los buscadores para ofrecer resultados más interesantes a sus usuarios. Cuando se detecta que una página está realizando acciones no permitidas, se le penaliza, lo cual puede consistir en hacerla perder posiciones en las búsquedas o incluso eliminarla de los resultados y desindexarla. Entre los motivos que existen para ser penalizado, tenemos:

1. Texto oculto.
2. Webs duplicadas.
3. Enlaces artificiales.
4. Cloaking y doorways.

Texto oculto
Consiste básicamente en poner texto dirigido específicamente para los buscadores que no es visible para los usuarios con el fin de obtener un mejor posicionamiento en los buscadores. Los webmasters que realizan estas prácticas, se dedican a escribir palabras para rellenar su web y obtener así mayor densidad en ellas. Para que el usuario no las vea, es común que pongan el mismo color para el texto y para el fondo.

Webs duplicadas
Esto consiste en crear webs idénticas (con el mismo contenido y demás) para conseguir enlaces para la web que realmente se quiere posicionar. Esta técnica está bastante mal vista por los buscadores, por lo que hay que evitarla. Además, hay que tener cuidado al cambiar de dirección web de no dejar online la misma web en las dos direcciones porque podrías ser penalizado al tener contenido duplicado.

Enlaces artificiales
Consiste en aumentar de forma artificial los links entrantes a una web. Se puede hacer de varias formas y todas ellas resultarán perjudiciales para nuestra web tarde o temprano:

Realizar spam en blogs y libros de firmas, escribiendo en ellos con la única intención de dejar en enlace a la web.
FFA y granjas de enlaces: son páginas dedicadas a dar enlaces a otras páginas, ya sea pagando o gratis, pero que con el tiempo son penalizadas duramente por los buscadores, así como las páginas enlazadas por ellas, por ser simplemente páginas con miles y miles de enlaces que no aportan nada.
Cross-linking: realizar enlaces en cadena con conocidos u otras webs de forma que todas enlazan a todas formando un círculo. Si los buscadores detectan que el único motivo de esos enlaces es conseguir un mejor posicionamiento, pueden penalizarlas.

Cloaking y doorways
El cloaking consiste en hacer webs distintas en función de quién la visite. De esta forma, los webmaster realizan páginas totalmente optimizadas para los robots y páginas distintas para los usuarios con el fin de obtener un buen posicionamiento en los buscadores. Cuando un robot intenta rastrear la página se le identifica como tal y es redireccionado a la página construida específicamente para él, lo mismo ocurre con los visitantes normales.

Las doorways son un caso particular de Cloaking, en el que se realizan páginas optimizadas con el único fin de obtener un buen posicionamiento web en buscadores. Normalmente, cuando el usuario intenta acceder a ellas es redireccionado a la página “de verdad” mediante un enlace javascript (los buscadores no pueden leerlos), mientras que cuando el buscador accede a la página se le permite navegar por ella y al no poder leer el enlace javascript almacena la página optimizada para él.

Aunque éstas técnicas puedan parecer atractivas, no la uses, puesto que cada día los buscadores implementan nuevos métodos de detección para ellas, por lo que tarde o temprano tus páginas serán penalizadas.

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

Posicionamiento en buscadores: Técnicas y consejos.

Posted by diseño web madrid en enero 19, 2008

Ofrecer contenidos de calidad
Actualmente, el contenido es muy valorado por los buscadores para realizar sus resultados de búsqueda, y en especial el contenido único. Por eso, es otra de las claves del posicionamiento en los buscadores. Esto es debido a que los buscadores cuando rastrean con sus arañas tu página web añaden cada palabra que encuentran para después intentar relacionarlas con las búsquedas de los usuarios y arrojar sus resultados. Pero además, el contenido de calidad propicia que otras webs que te consideren interesante te enlacen, precisamente por tener buena información en tu sitio. Conseguir enlaces de otras webs, como veremos más adelante, es muy importante a la hora de posicionar tu página. Además de estas ventajas, podemos añadir que los contenidos de calidad son una de las más valiosas armas para fidelizar visitas, ya que ofrecerás a tus visitantes aquello que realmente les interesa, por lo que es muy probable que vuelvan.

Cuando redactes tu página no olvides incluir en el texto de forma coherente las palabras clave que elegiste con anterioridad, siempre que mantengas sentido en tu página y no se note que están puestas de forma forzada, etc. Los contenidos deberían tener una densidad del 2% al 7% para cada palabra o frase clave utilizada. No intentes escribir tus palabras clave demasiadas veces en el texto porque puede ser considerado spam y penalizar tu página (evita que la densidad de cada una sea superior al 20%). Una buena herramienta para saber la densidad de palabras clave de tu web es keyword density & prominence.

Conseguir buenos enlaces
Los enlaces que apuntan a una página son muy importantes en el posicionamiento web en buscadores, porque los interpretan como una especie de voto a esa web. Pero no todos los enlaces son útiles para este propósito, los más importantes son los enlaces naturales, es decir, aquellos que se consiguen gracias a la calidad de los contenidos de la web de forma espontánea. Sin ser sugeridos por nosotros mismos.

No obstante, los enlaces naturales no son los únicos válidos para el posicionamiento en los buscadores, los enlaces de directorios también pueden sernos útiles. Aunque estos no aumentarán demasiado el tráfico de tu web, ayudarán con el tiempo a subir posiciones, siempre y cuando sean buenos directorios (por ejemplo Dmoz) en cuanto a contenido y al tipo de enlaces que realizan. Además, debemos evitar en lo posible repetir el mismo título y descripción en cada directorio en el que demos de alta la web, ya que lo más importante son los enlaces naturales, y así no lo parecerían. Por otro lado, si tienes una web con mucho y buen contenido, puede ser interesante realizar artículos para otras páginas de tu misma temática, ya que los enlaces que se consiguen así son muy valorados por los buscadores, además de serte útil para la promoción web (normalmente en la página del artículo que proviene de otras fuentes se indica el nombre del autor y la dirección de su página web).

A la hora de recibir un enlace de otra página, fíjate bien en cómo lo hacen. Esto es, debes fijarte en el “anchor text” (el texto del enlace) y el tipo de enlace. En el anchor text debería figurar alguna palabra clave relacionada con tu página. Por ejemplo, para una web de cocina mediterránea, sería muy conveniente que precisamente fuera “cocina mediterránea” el texto del enlace y no “pincha aquí” o “enlace”. Además, presta atención al código de tu enlace, que tenga un aspecto parecido a este:

<a href=”http://www.tupagina.com” mce_href=”http://www.tupagina.com”>Palabras clave</a>

O si es una imagen:

<a href=”http://www.tupagina.com” mce_href=”http://www.tupagina.com“>
<img src=”logo.gif” mce_src=”logo.gif” alt=”Palabras clave” /></img></a>

Sobre todo, asegúrate de que tu enlace no está hecho con javascript, porque los buscadores no pueden leerlos y no te servirá de nada de cara al posicionamiento. Los enlaces javascript son más o menos así:

<a href=”javascript:http://www.tupagina.com()&#8221; mce_href=”javascript:http://www.tupagina.com()”>Link</a&gt;

También hay que tener cuidado de que no hayan incluido el atributo “nofollow” dentro de la etiqueta <a>, ya que estos enlaces no son seguidos por los buscadores.

Por último, decir que es importante no conseguir muchos enlaces de golpe, sino que ir trabajando en este aspecto calmadamente (por ejemplo, conseguir 10 enlaces el primer mes, 15 el segundo, 30 el tercero, etc.) para evitar que los buscadores interpreten este hecho como que estamos intentando manipular sus resultados y nos penalicen.

MetaTags
Es frecuente pensar que los buscadores le dan mucha importancia a los MetaTags, en particular a la meta keywords y la meta description, pero esto no es verdad. Estas metas son prácticamente ignoradas por los buscadores, puesto que se han convertido en puro spam en muchos casos. No obstante, y aunque no ayude al posicionamiento en los buscadores, puede ser interesante seguir añadiendo la de la descripción, ya que algunos de ellos lo tienen en cuenta al mostrar sus resultados. Si quieres añadir metatags a tu web, puede serte útil el generador de metatags disponible en esta página.

Título y etiquetas de encabezado
Son etiquetas que sí se toman en cuenta de cara al posicionamiento en los buscadores, ya que éstos les conceden bastante importancia. Es imprescindible añadir un título a cada página, pero procura que no exceda de 60 caractéres para dar más densidad a tus palabras clave.

Las etiquetas de encabezado (h1, h2, h3, etc.) también pueden ser útiles en el posicionamiento web eb buscadores, por lo que puedes meter en ellas algunas de tus palabras o frases clave, siempre con moderación y coherencia para evitar hacer spam y ser penalizados.

Incluir un mapa web
Son aconsejables cuando la página web es muy grande o es difícil que los buscadores puedan seguir los enlaces de los menús (por ejemplo, por la utilización de javascript o flash, ya que no pueden leerlo). En el mapa web se deben poner enlaces de texto a todas las páginas del sitio, pudiendo el buscador de este modo acceder a toda nuestra web. No obstante, no pongas más de 100 enlaces por página porque esto puede ser penalizado.

Evitar la utilización de flash, archivos PDF y javascript en la medida de lo posible
Evita la utilización de archivos flash innecesarios, a los buscadores les cuesta mucho indexarlos y en la mayoría de los casos no lo hacen. Lo mismo pasa con los archivos pdf, que aunque presentan menos problemas que los primeros, también pueden crear dificultades de indexación. Por su parte, el código javascript presenta otro problema para los buscadores ya que la mayoría no puede seguir los enlaces que contienen, por lo que si tu menú está hecho en javascript probablemente sólo conseguirán indexar tu página principal.

Ceñirse a los estándares web
Validar nuestras páginas conforme a los estándares nos ayudará de forma indirecta al posicionamiento en los buscadores, ya que al validar nuestras páginas estamos revisando posibles errores de programación que pueden causar dificultades a los robots para indexar nuestras páginas, o que éstas no se vean correctamente por el usuario. Cuanto más fácil se lo pongas a los robots para indexar tu página mejor. Para conseguir este objetivo, revisa a fondo los manuales del W3C (la organización que crea los estándares web) y utiliza su validador.

Tamaño máximo de páginas y enlaces
La cifra mágica para ambos casos es 100. No más de 100 enlaces por página (mejor no aproximarse) y no más de 100 Kb. de peso. Si pones más de 100 enlaces en una página corres el riesgo de ser penalizado en los buscadores, por lo que tus posiciones caerían drásticamente o incluso te borrarían de la base de datos. Intenta no superar los 80 enlaces para estar seguros de no estar haciendo las cosas mal. En cuanto al peso de la página, si supera los 100 Kb. muchos buscadores no te la indexarán, además, cuanto más pese más tardará en cargar, cosa que no es recomendable de cara al usuario.

Monitorizar la web, posicionamiento continuo
Monitorizar la web y sus posiciones en los principales buscadores es una estrategia útil para detectar a tiempo posibles pérdidas de posiciones. Para monitorizar posiciones hay programas y webs que facilitan la tarea, por ejemplo, el Free Monitor for Google. No obstante, a la hora de controlar el posicionamiento en los buscadores, hay que tener en cuenta que es frecuente la caída brusca de posiciones o la desaparición de nuestras páginas, sobretodo cuando la web es nueva. Esto no tiene por qué ser malo, al contrario, es algo habitual y normal. Si tras un par de días la situación no ha vuelto a la normalidad puedes empezar a preocuparte.

Además, en el tema del posicionamiento de páginas web, constantemente salen cosas nuevas y quedan obsoletas las anteriores, por lo que puede ocurrir que lo que te resultó útil en su momento, ahora no te sirva para nada o incluso te perjudique. Razón más que suficiente para mantenerse al día en este tema y renovarse continuamente.
 

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | 1 Comment »

Posicionamiento en buscadores: Conceptos básicos.

Posted by diseño web madrid en enero 18, 2008

1. Conceptos básicos:

¿Qué es el posicionamiento de páginas web?
Básicamente se trata de conseguir que tu página web salga en los primeros puestos de los resultados de búsqueda de los buscadores. Es decir, que si tu página trata sobre plantas medicinales, por ejemplo, cuando una persona teclea esas palabras en Google o cualquier otro buscador aparezcas en las primeras posiciones de las listas de resultados.

¿Por qué es importante el posicionamiento en los buscadores?
Principalmente porque así conseguirás gran cantidad de visitas (la mayor parte de las visitas de una web provienen de buscadores) y además, porque esas visitas estarán realmente interesadas en lo que les ofreces. Piensa que una persona que entra a tu página de plantas medicinales por medio de un buscador, antes se ha tenido que molestar en buscar cosas como “plantas medicinales”, “medicina natural”, “medicina alternativa”, etc. por lo que puedes pensar que está, por lo menos, moderadamente interesada en tus productos. Desde luego, lo estará más que una persona que ve un anuncio de tu web por casualidad sin haberlo deseado.

¿Qué hay que hacer para posicionar una página web?
Esta pregunta es difícil de responder, y desde luego daría para escribir un libro, pero si sigues leyendo esta página encontrarás una breve guía sobre las principales cosas que se pueden hacer para posicionar una web en los buscadores, además de aquellas que no debes hacer si no quiere ser penalizado por ellos. Obviamente hay muchas más, pero éstas son suficientes para empezar a obtener resultados a largo-medio plazo. Recuerda en todo momento que este proceso no es rápido en ningún caso, y que para conseguir resultados estables en el tiempo se necesitan meses de trabajo.

Ahora bien, antes de empezar a hablar de esas técnicas, conviene tener unos conceptos previos claros y unos objetivos realistas sobre lo que queremos conseguir al posicionar nuestra web:

Funcionamiento de un buscador
Antes de nada, puede ser útil comprender cómo funciona un buscador a la hora de indexar un sitio web, esto es, añadir un sitio a la base de datos de un buscador, por lo que ya puede salir en sus resultados de búsqueda.

Para indexar las páginas web que hay en Internet, los buscadores utilizan unas aplicaciones llamadas arañas (o spiders, robots, etc.) que visitan periódicamente los sitios que tienen ya almacenados en sus bases de datos en busca de nuevos contenidos, modificaciones, enlaces a seguir o páginas que ya no existen (en este último caso para borrarlas). Todas las páginas nuevas que visita el robot, las modificaciones que detecta, etc, las va guardando en la bases de datos, así consiguen la mayoría de ellos mantenerlas actualizadas.

Palabras clave o keywords
Son una de las cosas más importantes a tener en cuenta a la hora de hablar de posicionamiento en los buscadores. Son aquellas palabras que introducen los usuarios en los buscadores para realizar sus búsquedas. Es decir, son las palabras por las que nos van a encontrar.

Por este motivo, el análisis de palabras clave es un paso previo muy importante de cara al posicionamiento en los buscadores. Si no dirigimos nuestros esfuerzos a las palabras clave adecuadas, estaremos perdiendo el tiempo. En este sentido, es importante tener en cuenta siempre lo siguiente; las palabras únicas más generales (e incluso no tan generales), como por ejemplo, “ordenadores”, ofrecen mucha competencia, es decir, que muchas páginas intentan aparecer en los primeros puestos cuando alguien las busca. Por el contrario, los usuarios son cada vez mejores buscadores de información y utilizan con poca frecuencia palabras generales a favor de frases más precisas que les arrojen resultados de mayor relevancia para sus necesidades. Por eso, a la hora de hablar de palabras clave sería mejor referirnos a frases clave y, en consecuencia, guiar nuestros esfuerzos a posicionar frases y no palabras sueltas. Esto nos dará mejores resultados.

Por suerte, existen en el mercado diversas herramientas que nos ayudarán a decidir sobre qué palabras (frases) clave trabajar para mejorar el posicionamiento de nuestra web en los buscadores. Entre ellas, una de las más conocidas es el Wordtracker Keyword Generator (en inglés), también puedes utilizar la herramienta para palabras clave de Google. En ambas, puedes introducir las palabras clave que te interesen y el programa te devuelve una lista de palabras similares que pueden ser analizadas de diversas formas.

Un último punto a considerar en cuanto a las palabras y frases clave, es decidir cuántas utilizamos. Hay que buscar soluciones realistas, pero en general, por cada página web con bastante contenido que tengamos (se entiende como información, no imágenes, enlaces, juegos, ni publicidad), es recomendable utilizar de una a tres frases claves. Hay que resaltar aquí que es aconsejable utilizar palabras o frases distintas para cada página de la web, dependiendo del contenido específico de cada una. Además, obtendremos mejores resultados si ponemos nuestro esfuerzo en frases que, aunque menos buscadas, tengan menor competencia, que frases con mucha competencia ya que con ellas será muy difícil el posicionamiento en los buscadores, por lo que no será muy efectivo.

Centrarse en los principales buscadores
Actualmente, Google es el líder indiscutible de los buscadores (por lo menos en el mercado hispano). No hay datos exactos, pero alrededor del 70% de las búsquedas se realizan a través de él, y si incluimos en el cómputo a Yahoo y MSN, abarcan en torno al 95% del total. Por tanto, lo principal es conseguir posicionarse en estos tres buscadores, puesto que son los que nos reportarán la mayoría de las visitas. Para cada uno de ellos hay técnicas específicas, si quieres conocerlas, puedes serte útil visitar los foros como los de xeoweb.

Tener paciencia y seriedad
Cada vez más se está teniendo muy en cuenta la edad del dominio propio y la edad de los dominios que nos enlazan, de tal forma que no nos considerarán realmente importantes (por decirlo de alguna manera) hasta que no llevemos un tiempo establecidos en Internet y se vea nuestra evolución. Normalmente, a partir de 18 meses de antigüedad suele ser suficiente. Por tanto, habrá que tener paciencia y trabajar poco a poco para ir consiguiendo hacernos un hueco en Internet y que los buscadores nos tomen en serio.

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

La Ley de Pareto y el Posicionamiento en Buscadores

Posted by diseño web madrid en enero 17, 2008

¿Se ha parado alguna vez a medir la eficacia de cada una de las herramientas utilizadas en su campañas de marketing digital? ¿No se ha puesto a pensar que tal vez con menos puede hacer más? El tiempo es oro, y en ocasiones debemos enfocar los recursos para obtener mejores resultados.

Existe un Principio llamado la Ley de Pareto que es uno de los más famosos mandamientos del marketing y que tiene una aplicabilidad en muchas cuestiones relacionadas con el marketing digital y específicamente con el posicionamiento en buscadores; en este área en la que todo se puede medir, sólo hay que estar atentos a identificar el síntoma para aplicarle la receta. El Principio de Pareto establece que hay muchos problemas sin importancia frente a sólo unos graves, y que por lo general, el 80% de los resultados totales se originan en el 20% de los elementos.

A nivel empresarial se ha utilizado este principio para descubrir en muchas ocasiones, por ejemplo, que la minoría de clientes representan la mayoría de las ventas o que la minoría de productos representan la mayoría de las ganancias obtenidas.

En el marketing digital, ocurre algo parecido en cada uno de los procesos y técnicas utilizadas para llevar a cabo un buen plan de marketing digital. Entre otras, se pueden destacar las siguientes afirmaciones:

El 20% de las herramientas de marketing digital captan el 80% de las visitas.

Existen muchas herramientas en la red para generar tráfico cualificado hacia una web. Las más utilizadas son los banners publicitarios, enlaces patrocinados, posicionamiento en buscadores y el marketing viral, entre otras. En la mayoría de los casos, tan sólo con un eficiente posicionamiento en buscadores se puede obtener el 80% del tráfico cualificado a una web. Los últimos estudios indican que los internautas utilizan como herramienta de búsqueda de información los motores de búsqueda en casi un 70%, y si a eso le añadimos que es una de las herramientas con las que se obtienen mayores niveles de clics por impresión, los resultados están claramente justificados para el uso de dicha estrategia.

El 20% de los Motores de Búsqueda pueden generar el 80% de las visitas

En ocasiones un sólo motor de búsqueda puede generar el 80% de las visitas si se tiene un eficiente posicionamiento en él. Por la red nos topamos con ofertas de posicionamiento que nos ofrecen el alta en 3000 buscadores cuando realmente el grueso de las visitas lo dan 3 ó 4 buscadores. Con un posicionamiento óptimo en Google, Yahoo, MSN, Terra y AltaVista ya se podría tener casi todo el trabajo realizado en el posicionamiento web a nivel de buscadores.

El 20% de los Conceptos Clave pueden generar el 80% de las visitas.

A más conceptos clave, mayores posibilidades de mejorar el posicionamiento web, pero sólo se obtendrá el posicionamiento web óptimo en un grupo selecto de conceptos clave. La estrategia entonces es intensificarse en esos conceptos y retirarse en los demás. Descubrir ese pequeño grupo de palabras que mejoran el posicionamiento en buscadores motiva a descubrir nuevas palabras que podrán sustituir a conceptos clave anteriormente elegidos y que no han generado el número de visitas deseado.

Conclusión:

Por último, recomendaría a los que tienen tiempo de medir la eficacia de sus campaña de marketing digital que traten de identificar el 20% de herramientas, buscadores, o conceptos clave que proporcionan el 80% de las visitas y en consecuencia, reorientar los recursos a ese nicho de oportunidades.

Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

Comandos adicionales, denominados “sintaxis especiales”, para nuestras búsquedas en Google.

Posted by diseño web madrid en enero 14, 2008

Comandos adicionales, denominados “sintaxis especiales”, para nuestras búsquedas en Google:

Después de varias charlas entre conocidos, familiares y amigos, a lo largo de mi experiencia profesional sobre las búsquedas a través de Internet, me doy cuenta que son pocos quines conocen estos comandos adiciones, también llamados “sintaxis especiales”.

Desde hace algún tiempo, Google ha permitido el uso de determinadas comandos que facilitaran nuestras búsquedas, restringiendo esos resultados irrelevantes y obtener aquellos que realmente nos interesan. En ese momento existían muchos comandos pero se han eliminado algunos e añadido de nuevos en sus algoritmos.
En este caso, voy a daros un resumen de las sintaxis que actualmente siguen funcionando y ser de ayuda aquellos “inexpertos” en la materia. Pero antes…

¿Cómo funciona Google?

Google, como motor de búsqueda de texto completo, incluye en su índice páginas Web completas, en lugar de incluir sólo los títulos y las descripciones. Mediante los comandos adicionales, denominados sintaxis especiales, nos permite realizar búsquedas en partes determinadas de páginas Web o tipos específicos de información. Esto resulta práctico cuando se está tratando con dos mil millones de páginas y necesitamos aprovechar cualquier oportunidad para restringir esos criterios.

Las opciones Booleanas

AND

Esta opción está establecida como predeterminada en Google, siempre que introducimos las palabras busca a lo largo de todo el contenido.
“palabras“

Si introducimos las comillas dobles, conseguimos que busque en las páginas que contengan esas palabras juntas.

OR
Puede mostrarnos páginas que contengan una palabra u otra.

-palabra / -”palabras”
Usaremos el signo de negación cuando queremos que esa palabra no aparezca en los resultados.

Fijaros que también es posible combinar estas opciones, pero hemos de tener en cuenta que Google solo reconoce un máximo de 10 palabras:

Netdebugger OR consejos
Netdebugger “consejos posicionamiento”
Netdebugger -“consejos posicionamiento”

Las sintaxis especiales

intitle:alquiler pals

Devuelve las páginas que contengan en su título ALGUNAS de las palabras especificadas.

allintitle:alquiler pals

Devuelve las páginas que contengan TODAS las palabras en el mismo título.
No se usa muy a menudo ya que no se combina muy bien con algunas de las otras sintaxis.

inurl:consejos google

Devuelve las páginas donde en su URL aparecen ALGUNAS de las palabras.
allinurl:consejos google
Devuelve las páginas donde en su URL están TODAS de las palabras.
Tampoco os aconsejo mucho su uso, igual que allintitle, no se combina muy bien con otras sintaxis.

intext:consejos netdebugger

Busca sólo en el cuerpo del texto que contenga ALGUNAS palabras, ignorando el texto de los vínculos, URL y títulos.
inanchor:casas canpericay
Busca entre los textos que describen los vínculos. Por ejemplo en nuestro caso, busca los textos que aparezcan como vínculos a “casas canpericay” y encontramos NetDebugger que tiene un enlace hacia Canpericay.

site:netdebugger.com
site:edu

Permite restringir esos resultados bien a un sitio Web bien a un dominio de nivel superior. Esta sintaxis se utiliza mucho en el posicionamiento ya que permite ver el número de páginas almacenadas en los buscadores.

link:www.netdebugger.com
link:www.netdebugger.com/Google_Condiciones_SEO.html

Devuelve una lista de las páginas que tienen vínculos al URL especificado. No hemos de olvidar las “www” pero sí podemos ahorrarnos el “http://” ya que Google parece que lo ignora.

cache:www.netdebugger.com

Encuentra una copia de la página que Google muestra en el índice incluso si esa página ya no está disponible en su URL original, o si ha cambiado su contenido completamente desde entonces. Os recuerdo que Google tiene las páginas almacenadas y cuando buscamos lo hacemos en su caché.

related:google.com

Encuentra páginas relacionadas con la página que especifiquemos, pero no todas las páginas están relacionadas con otras. En mi ejemplo, obtendríamos como resultado una variedad de motores de búsqueda.

info:netdebugger.com

Debajo los resultados nos proporciona vínculos que ofrecen más información sobre un determinado URL, como: la caché de Google, lista de páginas similares, tengan enlaces, aparezcan los términos… Hay que tener en cuenta que esta información depende de si Google tiene en su índice dicho URL o no. Si no lo tiene, la información será, obviamente, más limitada.

Si deseáis ampliar vuestras experiencias os recomiendo ver la “Ayuda para las búsquedas” de Google y a medida que las vayas usando, verás que no son tan difíciles de recordar.

Autor: Jordi Camps
http://www.netdebugger.com/Comandos_adicionales_sintaxis_especiales_b%FAsquedas_Google.html

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

Páginas hechas en Flash contra las técnicas de posicionamiento.

Posted by diseño web madrid en enero 9, 2008

Desde sus comienzos Flash ha tenido como grandes ventajas las posibilidades gráficas y de interactividad tanto con el usuario al principio, como cliente/servidor en sus últimas versiones, sin embargo siempre ha adolecido de importantes defectos que se hacen más visibles conforme crece la importancia que se da a la indexación de las páginas web en buscadores y al seguimiento y métricas sobre el tráfico y las visitas web.

Hay un dicho en internet que dice que si no sales en Google no eres nadie. Si bien esta afirmación puede resultar algo excesiva, si que es cierto que una parte fundamental para el exito de muchos proyectos web es la correcta realización de las páginas, de forma que los indexadores, sean Google, MSN, Ask Jeeves, o cualquier otro, sean capaces de indexar el mayor número de ellas y de forma correcta.

Hay diferentes técnicas que hay que tener en cuenta, como la utilización de url’s “legibles”, el uso de títulos apropiados en las páginas, el etiquetado “correcto” de enlaces e imágenes, por poner las principales. Todas estas técnicas forman parte de algo que se viene llamando SEO “Search Engine Optimization”, que no es más que un conjunto de metodologías orientadas a optimizar la visibilidad de un web en los listados de los buscadores. Sin embargo todas estas metodologías son difíciles o incluso imposibles de aplicar en los webs hechos con flash.

Las webs hechas en flash tienen su principal utilización en webs con grandes requerimientos multimedia, o en los últimos años, en webs en las que se necesitan determinadas caractarísticas de interacción con el usuario que son complicadas de conseguir con HTML, al menos hasta la llegada de mecanismos basados en XMLHttpRequest, principalmente aplicaciones en las que es necesario que la pantalla se reconfigure conforme el usuario genera eventos y si envía y recibe información al servidor en segundo plano. Sin embargo también es cierto que muchas empresas han abusado de flash para crear webs para todo tipo de empresas, al igual que se hizo al final de los 90 con la utilización masiva y desacertada de frames en todo tipo de webs.

Actualmente indexadores como Google son capaces de procesar los archivos swf y leer las cadenas de texto que contienen, de forma que permiten indexar páginas que contengan flash. El problema radica en que si todo el web está hecho en un único flash, residente en la página principal normalmente, los indexadores tienen únicamente una página para indexar, la cual contiene un flash con todos los textos del web. Esto provoca que el indexador indexe una única página y que el peso de las palabras que contiene se desvirtúe, ya que el indexador considerará que están asociados a esta página, él no es “consciente” de que el flash se divide en diferentes páginas internamente.

Hay alguna solución a este problema, aunque ninguna es tan óptima en cuanto a posicionamiento como sería disponer de un web realizado en (X)HTML puro. Una posible solución es no utilizar un único flash para todo el web, si no construir páginas html independientes que contengan cada una el flash que representa su contenido.

Otras soluciones se basan en la utilización de una versión html equivalente que sería la que el indexador utilizaría. En este caso cuando un indexador trate de indexar la página web, ésta podría detectarlo y servir la versión html en vez de la basada en flash. Esto tiene un problema relacionado con ciertos abusos que se han hecho en los indexadores orientados a trampear las posiciones. Los indexadores deben tratar de garantizar que los contenidos que indexan sean los mismos que verá el usuario cuando acceda a la página, en otro caso se estaría desvirtuando su trabajo y sería un agujero para la utilización de determinadas trampas. Es por esto que, aunque este método pueda funcionar, no se pueda considerar completamente válido.

Aparte hay que tener en cuenta una cosa más, que es el coste económico que implica preparar mínimamente una web en flash para que sea indexable. En los casos en los que se dé mucha importancia al posicionamiento en buscadores como una forma de atraer audiencia a la web, habrá que sopesar cuidadosamente la utilización de flash, en qué medida, cómo, y qué costes implica en cuanto a la optimización de la web resultante. Sin olvidarnos también de que en estos casos estaremos también interesados seguramente en realizar seguimiento de audiencias, trabajos sobre estadísticas de tráfico, etc…, puntos en los que las web hechas en flash adolecen de problemas similares.
Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web | Etiquetado: , , , | Leave a Comment »

Claves para posicionar tu web.

Posted by diseño web madrid en enero 8, 2008

1.- Lo primero que el propietario de un sitio web debe buscar con el posicionamiento es conseguir visitas de calidad que reviertan un beneficio. Conceptos como Popularidad de Enlaces, vistosidad y otros objetivos son secundarios.2.-Los buscadores cambian y evolucionan constantemente. Los algoritmos de búsqueda de los buscadores son cambiantes, con lo cual las páginas se deben adaptar a las nuevas circunstancias.

3.- Los buscadores valoran en gran medida el contenido, la originalidad y la sencillez de un sitio web. La simplicidad para el usuario y la simplicidad para el robot a menudo van de la mano.

4.- Los buscadores tienen en cuenta la antiguedad del dominio. Si hay dos sitios web de igual calidad, siempre aparecerá primero el más antiguo en los primeros puestos de las búsquedas.

5.- Debemos vigilar diariamente las estadísticas de acceso a nuestras páginas. Nos dan mucha información del tipo de visitas que recibimos y de lo que estamos haciendo bien o mal.

6.-Los metatags no son necesarios para el posicionamiento. Sólo las utilizan algunos directorios para indexarnos convenientemente.

7.-Los enlaces externos a nuestra web son realmente importantes. Sobre todo los de webs de calidad con temática parecida a la nuestra.

8.-La Popularidad de Enlaces (lo que Google llama PageRank, para entendernos…) no significa posicionarse mejor, es al revés, un buen posicionamiento suele implicar una buena Popularidad de Enlaces.

9.-Cuanta más tecnología se utilice en las páginas más dificil se lo ponemos a los buscadores. El abuso de JavaScript y Flash dificulta que un buscador nos “entienda”.

10.-Las altas automáticas sirven para muy poco. Un buen posicionamiento pasa por un trabajo manual de alta en directorios.

11.-La indexación hace que tu web pueda aparecer en los buscadores, toda página que el robot no haya rastreado ni indexado no figurará en los resultados.

12.-El código limpio es muy valorado por los buscadores. Los tag incompletos, conflictos en el código o un exceso de javascript pueden obstruir al robot a la hora de hacer su trabajo. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web | Etiquetado: , , | Leave a Comment »

Análisis de los principales factores para el posicionamiento orgánico en Google.

Posted by diseño web madrid en enero 4, 2008

Análisis de los principales factores para el posicionamiento orgánico en Google.

Colocamos un enlace a un informe en PDF muy interesante, escrito por Victor Estrugo Rottenstein, Facultad de Ingeniería, Universidad de Palermo, Buenos Aires, Argentina

Muy innteresante su y muy recomendad su lectura: http://www.abigdoor.com/Rottenstein07final.pdf

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

Microsoft, Google y Yahoo y sus líos con el juego ilegal.

Posted by diseño web madrid en diciembre 20, 2007

Microsoft, Google y Yahoo y sus líos con el juego ilegal

EFE.

  • Las tres empresas pagarán millones de dólares al gobierno de Estados Unidos por promover el juego online ilegal.
  • Ninguna ha reconocido su culpabilidad.
  • Microsoft afronta el acuerdo más costoso: 21 millones.

casinos-online.jpg

Microsoft, Google y Yahoo llegaron hoy a varios acuerdos con el Gobierno de EE UU para resolver un conflicto sobre su presunta promoción del juego ilegal a través de internet, anunció hoy el Departamento de Justicia. Según indicó en un comunicado la abogada encargada del caso, la suma de los tres acuerdos asciende a 31,5 millones de dólares a favor del Gobierno estadounidense.

“Esta suma se añade a los más de 40 millones de dólares en confiscaciones e impuestos morosos que esta oficina ha recuperado durante los últimos años, procedentes de los operadores de estas empresas de juego ilegal”, dijo Hanaway.

“Los contribuyentes honestos y el personal de la industria del juego que cumplen con la ley sufren por aquellos que promueven acciones ilegales a través de internet”, añadió.

Microsoft

En el caso de Microsoft, el acuerdo establece un total de 21 millones de dólares de los cuales 4,5 se destinarán a las arcas gubernamentales y 7,5 millones a los fondos del Centro Internacional para Niños Desaparecidos y Explotados (ICMEC).

La compañía del multimillonario Bill Gates, que es la que afronta el acuerdo más costoso de los tres, aceptó también aportar 9 millones de dólares para una campaña publicitaria a través de internet en la que se informará a los jóvenes internautas de que las empresas de apuestas en línea son ilegales en EE UU. Esta campaña educativa, que comenzará a principios de 2008, estará en marcha durante tres años.

Microsoft, que nunca negó ni admitió su culpabilidad, vio cómo hoy se ponía fin a las acusaciones de que entre 1997 y junio de 2007 había recibido pagos procedentes de negocios y publicidad del juego ilegal por internet.

Google

En el caso de Google, que tampoco nunca admitió ni negó las acusaciones de haberse enriquecido a través de negocios y publicidad vinculados al juego ilegal en línea, el acuerdo ascendió a 3 millones de dólares.

Yahoo 

Yahoo, por su parte, deberá pagar 7,5 millones de dólares a pesar de tampoco haber reconocido su culpabilidad o inocencia.

Acusada del mismo delito que Microsoft y Google, Yahoo aceptó además la inversión de 4,5 millones de dólares en una campaña publicitaria de servicio público de tres años de duración (1,5 millones al año).

La campaña, que al igual que la de Microsoft dará comienzo a principios de enero de 2008, servirá para educar a los internautas sobre la ilegalidad en EE UU de las apuestas deportivas y las actividades de juego (tipo casino) tanto por Internet como por teléfono.

Según el comunicado del Departamento de Justicia, los anuncios deberán informar que la ilegalidad en este caso la cometen tanto los promotores del juego ilegal como los participantes que apuestan en línea.

Posted in Noticias Buscadores, Noticias Google, Noticias MSN Live, Noticias Yahoo!, Posicionamiento web | Etiquetado: , , , , | Leave a Comment »

10 reglas para básicas la optimización de páginas para los buscadores.

Posted by diseño web madrid en diciembre 12, 2007

Existen 10 factores importantes que se deben seguir para la optimización de páginas Web que ayudarán a que nuestro sitio se ingrese en mejor en los buscadores.

La etiqueta título
Esta etiqueta es importante porque aparecen en la página de resultados de los motores de búsqueda y además es la que aparece en la parte superior de color azul que se encuentran en nuestro explorador. La etiqueta título de tu sitio debe ser fácil de leer y debe describir la temática de tú sitio de un modo general y debe ser el tema principal ya que no disponemos de mucho espacio para escribir en esta etiqueta.

La etiqueta descripción
La etiqueta descripción en un párrafo que como su nombre lo indica se encarga de describir el contenido y la temática del sitio Web en este etiqueta debemos escribir una descripción que capturen la atención del otro visitante y le incite entrar a nuestra página de igual modo que el título debe ser fácil de leer y comprender.

Palabras clave
La importancia de las palabras claves en los buscadores varía constantemente ya que en cada algoritmo de búsqueda cambia la importancia de estas para el posicionamiento del sitio Web aún así las palabras claves son consideradas como una de las más importantes cosas a tomar en cuenta para los optimización de una página Web, las palabras claves que usemos en nuestro sitio debe estar relacionadas con la temática del contenido de cada una de las páginas.

Etiquetas ALT
Éstas etiquetas son las que se muestran cuando pasamos el ratón sobre una imagen son representadas por un cuadro amarillo con letras en negro este etiqueta son utilizadas para describir la imagen que se muestran nosotros para aprovechar más esta etiqueta la utilizaremos para reforzar las palabras claves, la descripción y el título de nuestra Web.

Etiqueta Header
Éstas son utilizadas para dar formato a títulos que se encuentran dentro de la página por ejemplo para un título principal debemos usar etiquetas H1 ya que éstas representan título y los motores de búsqueda la interpretan como tal como bien sabemos esta etiqueta nos muestra el texto en un tamaño grande y en negrita pero muchas veces este etiqueta no coincide con el diseño de nuestra página en cuanto a tamaño color y tipo del letra, pero qué podemos hacer para utilizar esta etiqueta y que mantenga el diseño de nuestra página, pues bien he aquí donde en unos interesa incluir las cascadas de estilo ya que mediante estas podemos dar formato a las etiquetas que ya están definidas como lo es la H1, como hacemos esto? la mejor manera es desde un documento de estilo declaramos la etiqueta H1 y le definimos nuestros valores donde podemos decir que tamaño, color y tipo de fuente queremos usar. Con esto logramos que los motores de búsqueda lea nuestros títulos como tales y visualmente nuestros visitantes puedan creer estos títulos incluido en el diseño de nuestra Web.

Vínculos
Muchas veces utilizamos imágenes como botones en nuestro sitio ya que todos dan una mejor apariencia pero para la optimización de buscadores esto no nos viene bien ya que los motores de búsqueda no pueden seguir los vínculos de las imágenes la mejor manera es usar vínculos de texto ya que todos se pueden aprovechar para describir el contenido al que nos dirige el vincula y si usamos palabra relacionada con el contenido de la página será mejor valorado por los buscadores y recordemos siempre que estas técnicas son para optimizar nuestra página y lograr mejorar nuestra posición en los buscadores,¿por qué ? por qué si estamos mejor posicionados tendremos más visitas a nuestro sitio y esto se transforma en clientes, subscriptores o lectores.

Mapa del sitio
El mapa del sitio en un archivo el cual contiene los vínculos de todas las páginas que existen en nuestro sitio Web, la función principal de este mapa es visualmente orientar al visitante sobre la estructura y organización de la página, pero además de esto y lo más importante para este caso es que cuando damos de alta nuestro sitio Web en un buscador y el robot que ingresa las páginas a llegar a el mapa va a seguir todos los vínculos que ahí se encuentra y esto asegura que el motor conozca la existencia de todas las páginas.

Vínculos a nuestro sitio
Otro factor importante que toman en cuenta los buscadores son los sitios que vinculen hacia él nuestro, pero no cualquiera lo más importante o relevantes son aquellos en los que su contenido se relacione con el norte ya que la manera de pensar del motor de búsqueda es si un sitio que tienen contenido de un tema importante y hacen vínculo así a otra página con un contenido relacionado quiere decir que esta información es importante también, por esto debemos tener en consideración la búsqueda de vínculos relevantes hacia nuestro sitio Web ya sea mediante intercambio, colocando o artículos en otra página o haciendo comentarios en blogs.

El contenido
Pues bien hasta el momento hemos visto algunos factores a tomar en cuenta para que nuestro sitio Web se posiciona mejor en los resultados de los motores de búsqueda pero todo esto debe venir acompañado de un buen contenido en nuestro sitio, así que no debemos olvidar ofrecer a los visitantes un contenido rico en información, recursos y servicios y siempre recordando utilizar dentro del contenido palabras relacionadas con el criterio de búsqueda que queremos que nos encuentren en los motores de búsqueda. Te quiero decir con esto veámoslo con un pequeño ejemplo si yo quiero escribir un artículo sobre “mesas” de tomar en cuenta que el contenido debe incluir la palabra Mesa en varias ocasiones, también lo ideal es que la palabra mesa aparezca en esta etiqueta de palabras clave, descripción, título e imagen. Con esto estamos reforzando toda la página para ese criterio de búsqueda.

Y por último y no menos importante debemos ser honestos y evitar hacer trampa para obtener mejores posiciones, a que me refiero con esto al uso de páginas elaboradas sólo por palabras claves y que redirección al artículo conocido también como “cloacking” cual uso de cualquier estrategia para engañar a los buscadores ya que en algún momento está en estrategias fallan y los motores de búsqueda no pueden sancionar.
Autor: César Pietri
optimización optimizacion optimizar buscadores buscador google

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | 1 Comment »

Encontrar los mejores enlaces para el intercambio.

Posted by diseño web madrid en diciembre 2, 2007

Dar a conocer una página web siempre es tarea difícil y uno de los primeros pasos consiste en lograr que los buscadores indexen adecuadamente el sitio web. Para ello solemos recurrir al intercambio de enlaces con el que no siempre logramos los resultados que esperamos.

En este artículo voy a comentar algunos trucos útiles para seleccionar los enlaces más adecuados para nuestro intercambio y evitar aquellos que puedan ser negativos para nuestra página.

Para encontrar buenos enlaces analiza siempre los siguientes aspectos antes de aceptar o solicitar un intercambio de enlaces.

Busca sitios con contenidos similares a los tratados en tu página. Aunque sobre este punto hay muchas discusiones y no parece que nos pongamos de acuerdo, lo cierto es que los usuarios agradecerán poder acceder a enlaces que sean de su interés y en consecuencia valorarán mejor tu sitio.

Evita los intercambios con páginas con un número excesivo de enlaces salientes. La regla es fácil: Importancia de la página / número de enlaces = importancia del enlace. Por tanto, menos enlaces salientes mayor importancia tendrá tu enlace para el buscador.

Comprueba la cantidad de enlaces entrantes. Un elevado número de enlaces entrantes es buena señal.

Comprueba también el número de páginas que tiene indexadas. A mayor número de páginas indexadas más profundiza Google en el sitio y más alta es la calidad del enlace para agregarlo al intercambio.

Verifica el posicionamiento para las palabras clave de la página. Si el resultado es bueno quiere decir que el responsable del posicionamiento está realizando un buen trabajo y esto también es beneficioso para ti.

Evita los intercambios con páginas que enlazan a páginas penalizadas que podrían perjudicar a tu sitio en un futuro.

Comprueba el código por si incluye enlaces ocultos o etiquetas prohibidas por las que pueda ser penalizado por Google. Evita siempre los enlaces con sitios que intentan engañar a Google.

Otros datos que puedes revisar son el número de visitas y el Page Rank.

No aceptes enlaces mediante scripts o metidos en marcos, redireccionamientos o similares. Los buscadores no siguen estos enlaces por lo que no sirven para dar a conocer nuestro sitio en el buscador.

Siguiendo los trucos descritos lograrás mejores enlaces para tu intercambio. Recuerda que cantidad no es sinónimo de calidad, limita tus intercambios a un número prudencial. Veinte enlaces son más que suficientes para un intercambio optimizado.

Autor: Carlos Bouza
http://www.contenidosgratis.com

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | 1 Comment »

¿Como saber si la página ha sido baneada por GOOGLE?

Posted by diseño web madrid en noviembre 29, 2007

Existen herramientas que nos permiten saber si Google ha banneado nuestra página.

Obviamente antes de usar esta herramienta podemos tener indicios como, que nos bajaron el PageRank a 0, que nos nos venga una mísera visita desde Google, etc, por ejemplo:

El punto mas cercano a conocer si tu web esta baneada es con el comando “site:www.tupaginasospechosa.com” y que no te devuelva ningun resultado.

Pero con Google Banned Tool podemos asegurarnos si estamos banneados o no:

http://www.123promotion.co.uk/tools/googlebanned.php

También hay una herramienta de iwebtool que te puede confirmar que estas baneada:
http://www.iwebtool.com/google_banned

También es bueno darse de alta en webmaster tools Google:
https://www.google.com/webmasters/tools/docs/es/about.html

Utiliza el formulario de reinclusion de las webmaster tools.

Por último, La mejor forma de realizar una solicitud de reinclusión es a través de Google Webmaster Tools. También puedes utilizar Google Webmaster Tools para identificar los problemas tales como redirecciones con javascript, páginas doorway y texto escondido. Librate de todos los problemas antes de solicitar la reinclusión. Incluye en tu petición algo que asegure a Google que no vas a reincidir
Suerte.

Posted in Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

Las verdades y mitos sobre el buscador de Google.

Posted by diseño web madrid en noviembre 12, 2007

Aunque algunos piensan que las respuestas que Matt Cutts, jefe del equipo anti-spam de Google, ha dado en su blog no son interesantes u off-topic, yo pienso que son muy interesantes, ya mas o menos oficialmente corroboran o refutan muchas de las teorías que han estado circulando en el mundo SEO en los últimos meses.

Aquí les presento algunas de las lecturas que he podido interpretar:

Frecuencia de las visitas del googlebot – Confirmado
La frecuencia de las visitas del googlebot para escanear (crawlen) una web depende del valor del PageRank que tiene la página. Cuanto más alto sea el PR, la página será escaneada con más frecuencia.

Profundidad del escaneo de una web depende del PR – Confirmado
Cuanto mas alto sea el PR de una web, el web crawler escaneará la página mas profundamente. El uso de Google Sitemaps no garantiza que una web sea escaneada completamente.

A Google no le gustan las URLs con muchos parámetros – Confirmado
Según Matt, el numero de parámetros que Google le gustan varia ente 1 y 2.

Google no persigue enlaces que están en Flash, JavaScript o Frames – Confirmado
Todas las páginas que sean enlazadas mediante Flash, JavaScript o Frames no pueden ser indexadas. Aquí se deben usar enlaces estáticos.

La etiqueta nofollow es interpretada correctamente por Google – Confirmado
Indica al bot que no siga los enlaces marcados con esta etiqueta. Asi se puede evitar en muchos casos que Google crea que la página es una link farm.

Biggdady es una nueva infraestructura de hardware – No confirmado
Matt habla solo de una nueva infraestructura de software.

El parámetro RK ya no va a ser visible – Confirmado
Este parámetro era usado por las herramientas que mostraban el futuro PageRank. Ahora este parámetro solo va ha mostrar el valor 0.

El Mozilla googlebot es usado por Bigdaddy – Confirmado
El googlebot con el user-agent Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) es usado por Bigdaddy para escanear las páginas.

Proyectos en varios idiomas deben usar subdominios o dominios propios – Confirmado
Cuando el numero de páginas es pequeño, se pueden usar subdominios, como por ejemplo es.mi-dominio.com o en.mi-dominio.com En caso de que el número de páginas sea grande, se deben usar dominios propios como por ejemplo mi-dominio.es o mi-dominio.us

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

Los 8 factores clave para superar a tu adversario en Google.

Posted by diseño web madrid en octubre 20, 2007

Los 8 factores clave para superar a tu adversario en Google

Nadie puede afirmar conocer el algoritmo que utiliza Google para ordenar los resultados de una búsqueda, pero es relativamente fácil investigar qué factores intervienen en él y en qué medida afectan al algoritmo. Además, en la red encontrarás mucha literatura al respecto y podrás ir ampliando conocimientos si el tema te apasiona

Este artículo recoge los 8 factores clave que te ayudarán a conocer porqué otras páginas están por encima de la tuya, y cómo puedes superarlas.

1. Decide en qué palabras vas concentrar tus esfuerzos.

No puedes luchar por muchas palabras a la vez, así que concentra tus esfuerzos en unas 10 palabras o frases, que creas que pueden ser buscadas en Google por tu público objetivo.

Empieza el análisis que te llevará al éxito confeccionando una lista de las 5 primeras páginas web que aparecen en los primeros resultados, cuando buscas esas 10 palabras.

Navega por las 5 páginas que te aparezcan. Haz especial atención en descubrir en qué palabras se están focalizando ellos.

2. Descubre dónde están situadas las palabras por las que tú quieres luchar

Observa bien dónde están colocando las palabras clave.

Google da más importancia a las palabras que están situadas en ciertas partes de una página web. La parte más importante es la URL (la dirección de tu página web), la siguiente es el tag <title>, la siguiente son las cabeceras <h1>, <h2> y <h3>, luego vienen las palabras que son enlaces a otras páginas, y la importancia va disminuyendo, aunque siempre es más alta que el texto plano, si las palabras están en negrita, en cursiva, forma parte de un <alt> (texto alternativo en las imágenes), etc…

3. Descubre qué densidad tienen las palabras clave

Ten en cuenta un par de cosas:

Google (y el resto de buscadores) funcionan por densidad, no por valores absolutos. Así que si en tu URL o en tu título tienes 50 caracteres y 9 coinciden con los que el usuario busca, el valor de tu URL o de tu título es de 9/50. Así que procura no poner textos superfluos o urls con tropecientos números que corresponden a una sesión de usuario o a algo parecido.

Ten en cuenta también, que desde marzo 2004 Google funciona por caracteres, no por palabras. De ahí que en el párrafo anterior haya escrito “caracteres” en lugar de palabras. Hasta marzo 2004, si tu título era “Mesas de madera para oficina”, y el usuario buscaba “mesas de madera”, el valor de tu título era de 3/5 (en castellano no filtraba las preposiciones y las consideraba palabras). Ahora no es así. Ahora va por letras. De esta manera, si alguien busca un derivado de una palabra o un plural, o un verbo conjugado, la página que contiene algo parecido también se incluye en los resultados de búsqueda.

Cuando descubras donde tienen situadas las palabras, mira con qué densidad aparecen. En tu página web, haz que tengan mayor densidad que en las suyas. Lo puedes hacer incluyendo la palabra más veces o incluyendo menos palabras que no tengan que ver con esa búsqueda. La cuestión es elevar la densidad y superar la suya en cada una de las partes donde aparezca la palabra.

Ojo no te pases… Google penaliza las páginas con densidades sospechosamente elevadas. Puedes conseguir un 100% de densidad en el título y en la URL, sin que pase nada. Pero una página donde ponga una palabra repetida 100 veces, por todas partes, en negrita y con enlaces, y no incluya ningún otro texto, puedes tener por seguro que será expulsada de Google. Así que moderación.
Además, piensa que tu página web tiene que ser leída por tus usuarios/clientes… es fundamental que el texto esté orientado a ellos, no a su efectividad en buscadores.

4. Descubre cuántas páginas tienen sus páginas web

Cuantas más páginas tengas indexadas en Google, más posibilidades hay de que participes en la lucha por ciertas palabras. También hay indicios de que Google sitúa en mejor posición a las web que contienen un número elevado de páginas donde se incluye el término de búsqueda.

O sea, por un lado, incluye las palabras por las que quieres posicionarte en el máximo de páginas posible. Por otro lado, intenta que tu web tenga sobre unas 200 páginas como mínimo.

Pero una vez más, descubre que hacen tus competidores e inclúyelo en la tabla que empezaste a realizar al principio de este estudio.

Para saber cuantas páginas tienen indexadas en Google, basta con que escribas en la cajita buscadora:

site:www.nombredelaweb.com

(ojo no ponga un espacio entre site: y la url)

site:www.nombredelaweb.com “palabra o frase”

Esto te dará el número de páginas que contienen la frase “palabra o frase” en la página web www.nombredelaweb.com

5. Descubre el número de enlaces que apuntan a sus páginas

El algoritmo que forma el PageRank (nota cultural: PageRank significa “ranking de Larry Page”, no “ranking de páginas”), está formado por otros muchos algoritmos y es bastante complicado de entender. Pero hay unos rasgos básicos que fácilmente puedes aplicar a tu página web.

En el PageRank influyen sobre todo, el número de enlaces que apuntan a una página web, la densidad de estos enlaces en la página de origen y el PageRank de la página de origen.

Así que este punto número 5 versará sobre el primero de los factores que afectan al PageRank: el número de enlaces.

Una vez más, anota en tu listado el número de páginas que enlazan a cada una de las 5 webs competidoras que estás analizando.

Para saber el número de enlaces a una página, basta con que escribas en la cajita buscadora:

link:www.nombredelaweb.com

Desde marzo del 2004, Google da menos valor a los enlaces que provienen de páginas con la IP parecida a la tuya, así que no hace falta que hagas trampas: Google lo sabe.

Escribimos un artículo acerca del algoritmo HillTop que utiliza Google para calcular y filtrar el PageRank de las webs, hace unos meses: HillTop

6. Analiza qué tipo de web enlaza a la de tus competidores.

Con toda probabilidad no podrás incluir en tu listado el PageRank de cada una de las páginas que enlazan con las de tus competidoras, pero es importante que veas qué tipo de web son, qué PageRank tienen, a cuantas otras páginas web enlazan y qué palabras utilizan para linkear a tus competidores.

Cuanto mayor es el PageRank de una página que te enlaza, mayor es el número de puntos que recibes por este enlace. Así que busca páginas con un PR alto y consigue que te enlacen.

Por si te sirve de ayuda, aquí va un enlace a un artículo de Alex de Anta, acerca que qué páginas tienen un PageRank de 10

Para terminar con este punto, no olvides que en Google y en el resto de buscadores, todo funciona por densidades, así que si de una web salen 100 enlaces a otras webs, el valor de un enlace que vaya a ti es de 1/100. Así que olvídate de las granjas de enlaces. Consigue enlaces a tus páginas en webs con pocos enlaces y con un PageRank alto.

7. Descubre qué palabras utilizan tus competidores en los enlaces que van a sus webs

Si la palabra buscada forma parte de un enlace de un tercero a tu página web, tienes un bonus en puntos (por decirlo de alguna manera). Así que si te dedicas a la fabricación de mesas de madera para oficina, procura que las páginas que enlazan a la tuya utilicen la frase “mesas de madera” para enlazarte, en lugar de www.minombredeempresa.com

Obviamente, no siempre puedes controlar qué palabras utilizan terceras webs para enlazar a la tuya… pero por cuando puedas hacerlo, recuerda este punto número 7: Recuerda el bonus que te llevas si lo consigues!!

8. Anota qué PageRank tienen las páginas de tus competidores

No olvides incluir una columna en tu estudio, que indique qué PageRank tienen las páginas web de tus competidores. Esto te ayudará a entender porqué están en las primeras posiciones.

Recuerda que para aumentar tu PageRank, debes sobre todo, incrementar el número de páginas que enlazan a la tuya. Así que si tienes un PageRank de menos de 4, ponte manos a la obra para conseguir más enlaces. Si lo tienes de más de 4, es bastante difícil subirlo si no realizas alguna campaña específica para este fin, bien ideada, y con una buena estrategia.

Tampoco te obsesiones si no tienes PageRank asignado, o hace tiempo que no varía tu PageRank a pesar de las acciones que llevas a cabo. El PageRank no es algo que Google calcule cada día, ni siquiera cada mes. Este año, sin ir más lejos, Google ha estado sin calcular PageRanks desde junio hasta primeros de octubre. Desde entonces no los ha calculado de nuevo y además ha indexado 4.000.000.000 más de páginas web que antes no tenía… así que no sabemos cuando volverá a calcular los nuevos PageRank. Ten paciencia.

Hasta aquí, hemos descrito los 8 factores clave que te llevarán a ganar posiciones en Google. Pero cuando realizo este tipo de benchmark, suelo incluir tres columnas más en el listado. Se trata de la posición de nuestros competidores en el ranking de Alexa. No es que Alexa influya en Google, pero es bueno saber donde están situados a nivel de visitas únicas, de páginas vistas por usuario y de ranking en general. Estos tres datos los encontrarás buscando a tus competidores en Alexa.com.

Si no sabes qué es Alexa o deseas conocer un poco más acerca del ranking de Alexa, escribimos un artículo acerca de ello hace mucho, mucho tiempo:
Qué es el Ranking de Alexa 

Espero que los 8 factores te hayan sido de utilidad. Este artículo está orientado a servir de guía a personas que desean conocer la posición exacta de sus páginas web, respecto a las de sus competidores. Si eres un obseso de Google (como yo, por cierto) acepta mis disculpas por tratar por encima ciertos temas y comentar obviedades.

Si deseas ver la presentación que utilizamos cuando realizamos conferencias acerca de cómo funcionan los buscadores, puedes desacargártela aquí: Cómo funciona un buscador

Autor: Montse Peñarroya
http://www.alt64.com/noticia_alt64.php?id=22

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

¿Que es y para que sirve un sitemap?

Posted by diseño web madrid en septiembre 20, 2007

¿Que es y para que sirve un sitemap?

El posicionamiento en buscadores de los sitios que diseñamos y realizamos tiene una enorme importancia en un entorno muy competitivo como la web de hoy. De este aspecto depende muchas veces el éxito o fracaso del sitio.

En el mundo del diseño web, el posicionamiento en los buscadores de los sitios que realizamos ha ganado una enorme importancia. Una medida de ello es la cantidad de tiempo y esfuerzo que dedicamos a optimizar los sitios primero y a conseguir buenos enlaces entrantes después.

Un requisito básico para que todo ese empeño rinda frutos es lograr que todas las páginas del sitio estén correctamente indexadas en los motores de búsqueda. Esto ocurrirá siempre y cuando los crawlers (arañas) de los buscadores importantes visiten e indexen esas páginas con la periodicidad adecuada y sin omitir ninguna.

Aún sin recurrir a ningún procedimiento extra, las arañas relevan las páginas de los sitios web simplemente siguiendo los enlaces (a menos que estos incluyan el atributo “no-follow”), pero hay más cosas que pueden hacerse. Una buena estrategia consiste en suministrar a los buscadores una “lista” de las páginas que nos interesa que se indexen, junto con alguna información adicional que haga la visita más eficaz. Concretamente, eso se logra mediante el uso de Sitemaps.

Un sitemap es un archivo XML que contiene una lista de las páginas del sitio junto con alguna información adicional, tal como con qué frecuencia la página cambia sus contenidos, cuándo fue su última actualización y qué tan importante es respecto al resto de las páginas del mismo sitio. La construcción del archivo XML debe seguir una serie de pautas especificadas en el protocolo de sitemaps, que describimos a continuación:

Contenidos obligatorios del sitemap
El protocolo Sitemap se construye en base a etiquetas XML (Tags) incluidas en un archivo con codificación UTF-8.

Los valores de datos (por contraposición a las etiquetas mismas) deben utilizar códigos de escape para ciertos caracteres especiales, tal como se acostumbra en HTML.

Por ejemplo, las comillas dobles (“) deben ser reemplazadas por &quot; y los signos menor (<) y mayor (>) por &lt; y &gt; respectivamente.

El archivo XML debe:
Comenzar con una etiqueta de apertura y terminar con una de cierre
Especificar el protocolo estándar al que responde dentro de la etiqueta de apertura (ver en el ejemplo)
Incluir una entrada por cada dirección URL (que corresponderá a cada una de las páginas del sitio) como nodo XML padre.
Incluir un nodo XML hijo para cada dirección URL (cada nodo XML padre ).

Resumiendo estos aspectos en un ejemplo (sitio con dos páginas):

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<url>
<loc>http://www.misitio.com/</loc&gt;
</url>
<url>
<loc>http://www.misitio.com/contacto.htm</loc&gt;
</url>
</urlset>

Contenidos opcionales del sitemap
Cada nodo <url> padre puede contener (además del nodo <loc> hijo obligatorio) cierta información adicional útil para que el proceso de indexación se realice más inteligentemente. Los nodos opcionales, aunque importantes, son:

<lastmod>Fecha</lastmod>
Se refiere a la fecha de la última modificación de la página que figura en

<changefrec>Frec</changefrec>
Se refiere a que tan a menudo cambia la página que figura en <loc> y será un dato que indicará a la araña con qué frecuencia volver a visitar el sitio. Es un valor orientativo, por lo que no quiere decir que deba cumplirse forzosamente.

Frec puede tomar alguno de los siguientes valores: always (siempre, para páginas que cambian cada vez que se muestran. Típicamente, las dinámicas), hourly (a cada hora), daily (diariamente), weekly (semanalmente), monthly (mensualmente), yearly (anualmente) o never (nunca, típicamente para páginas archivadas).

<priority>Valor</priority>
Se refiere a la importancia que tiene la página que figura en <loc> respecto de las demás que componen el sitio. Es simplemente una manera de indicar prioridades relativas dentro del sitio, sin ningún efecto hacia el exterior del mismo.

Valor puede tomar valores entre 0 y 1. El valor por defecto es 0.5

Volviendo al ejemplo anterior y agregando los atributos opcionales:

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<url>
<loc>http://www.misitio.com/</loc&gt;
<lastmod>2006-11-20</lastmod>
<changefrec>monthly</changefrec>
<priority>0.8</priority>
</url>
<url>
<loc>http://www.misitio.com/contacto.htm</loc&gt;
<lastmod>2006-08-01</lastmod>
<changefrec>yearly</changefrec>
<priority>0.3</priority>
</url>
</urlset>
El archivo XML así construido se aloja en el servidor como un archivo más del sitio, con la salvedad de que puede contener las URL contenidas en el mismo directorio en que se encuentra o en otros contenidos en él.

Por ejemplo, si ubicamos el archivo sitemap.xml en el directorio ejemplo.com/catalogo/ no podrá incluir URLs que se encuentren en ejemplo.com/ Por esta razón se recomienda enfáticamente colocar sitemap.xml directamente en el root del sitio.

A partir de este punto solo queda enviar el sitemap a los buscadores, que generalmente disponen de una página específica para aceptarlo.

Hace unas semanas, Yahoo, Google y Microsoft llegaron a un acuerdo (detalle poco común entre estas empresas) para que el formato Sitemaps 0.90 fuera el aceptado en sus motores de búsqueda.

A través de Google Webmaster Tools o de Yahoo Site explorer podemos proporcionarles la información de nuestro sitemap.
Autor: Fernando Campaña
http://www.maestrosdelweb.com/editorial/sitemap/
 

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , | Leave a Comment »

¿Quieres optimizar tu web? toma nota de …

Posted by diseño web madrid en agosto 25, 2007

Publicidad
var adlink_randomnumber=Math.floor(Math.random()*1000000000000); document.write(”);

1. No utilice palabras clave en el dominio. Elija un nombre de dominio fácil de asociar con la marca, pero no utilice una palabra clave en el dominio. Los dominios que utilizan la palabra clave están desfasados. Los motores de búsqueda devalúan las palabras claves cuando están situadas en un nombre de dominio.

2. Anime a Google a conocer su página. Si envía su sitio web al buscador desde la propia página de Google, utilizando el enlace “todo acerca de Google”, lo habitual es que el robot del buscador visite su página una vez al mes.

3. Tenga paciencia hasta que su página lleve tiempo operativa en Internet. Google valora el tiempo que su página ha estado almacenada en su base datos. Si el buscador lleva un año viendo su página en Internet tendrá más posibilidades de estar en los primeros puestos de los listados, cuando se trate de una página bien estructurada.

4. Seleccione sus palabras claves. Escoja una serie de palabras que identifiquen su negocio. Esas palabras deben figurar en el título de la página, en el contenido de la home y en las urls. Las palabras claves deben estar integradas en frases o en párrafos completos. La densidad de las palabras claves no debe superar entre el 5% y el 20% del total de palabras.

5. La actualidad es prioritaria. Añada una página de contenido de calidad al día. Google reconoce la calidad de los contenidos. Valora las páginas en permanente actualización.

6. La velocidad es importante. Su página debería de responder casi de forma instantánea a la petición de un usuario. Google lo valora. El sitio debería responder en un máximo de tres segundos a cualquier petición.

7. La ortografía puntúa. La comprobación de la ortografía es cada vez más importante en la medida que los motores utilizan autocorrectores durante las búsquedas.

8. No abarrote su sitio con elementos como “contadores” o “añadir a favoritos”. Las páginas deben ser sencillas y directas. Elimine toda la información superflua. Evite páginas con apariencia multitudinaria.

9. Los enlaces cruzados funcionan, pero no con todo el mundo. Haga un par de links desde cada página a terceras páginas con un pagerank alto, utilizando la palabra clave en el texto del enlace. Es un truco denominado links cruzados que consigue excelentes resultados de posicionamiento. Intercambiar vínculos con otros sitios es útil, pero tenga en cuenta que no merece la pena establecer links con páginas que carecen de interés.

Un saludo.

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | 2 Comments »

GOOGLE: objetivos del diseño.

Posted by diseño web madrid en agosto 10, 2007

Hacia 1994 se pensaba que un índice completo de un motor de búsqueda permitiría encontrar cualquier documento de forma fácil, siempre que todos los documentos se encontraran incluidos en la base de datos. Sin embargo, pocos años después, la Web puede considerarse muy diferente en tanto que cualquier persona que lleve a cabo una búsqueda puede atestiguar fácilmente que lo completo que se encuentre el índice no implica necesariamente una alta calidad en los resultados de la búsqueda, de hecho, por desgracia se encuentra mucha más “basura documental” que documentos vinculados con nuestras necesidades de información. Incluso resulta difícil encontrarlos entre los veinte primeros documentos recuperados y la mayor parte de los usuarios no suelen pasar de esos primeros veinte documentos en sus operaciones de consulta (incluso algunos motores de búsqueda sugieren que en caso de no encontrar nada en ese rango procedamos a modificar nuestra ecuación de búsqueda). Es por ello que el objetivo primordial de diseño de Google no es otro que mejorar estos índices de precisión en la recuperación de la información y, además, mejorar la presentación de los documentos recuperados de manera que, los primeros sean los más directamente relacionados con las necesidades de información planteadas por los usuarios. 

Destacan dos grandes características, en primer lugar hace uso de la conectividad de la Web para calcular un grado de calidad de cada página, esta graduación se denomina “PageRank” (coincide con el nombre del algoritmo de ranking empleado por este motor).

En segundo lugar, Google utiliza esta propia capacidad de conexión de los documentos webs para mejorar los resultados de búsqueda. Pagerank asume que el número de enlaces que una página proporciona tiene mucho que ver con la calidad de la misma, es por ello que este algoritmo se puede resumir de la siguiente manera:

“Si una página A tiene T1….Tn páginas que apuntan a ella por medio de algún enlace (es decir citas). El parámetro d es un factor que se puede fijar entre 0 y 1 (generalmente se fija en 0.85) . Sea C es número de enlaces que salen de la página A. Entonces, el PageRank de la página A vendrá dado por la expresión: PR = (1-d) + d(PR(T1)/C(T1) + ….. + PR(Tn)/C(Tn))”

Este cálculo puede realizarse por medio de un simple algortimo iterativo y corresponde al vector propio de una matriz normalizada de enlaces en la Web. PageRank puede ser pensado como un modelo del comportamiento del usuario. Si asumimos que hay un “navegante aleatorio” que pasa de una página a otra sin presionar nunca el botón de “back” y que, eventualmente él nunca se aburriera, la probabilidad de que este navegante visitara nuestra página es precisamente su PageRank. Es decir, se trata de un modelo basado en los enlaces de las páginas pero que pretende representar la forma de trabajar de los usuarios. Otra justificación intuitiva de PageRank es que una páigna puede tener un alto coeficiente de PageRank si existen muchas páginas que apuntan a ella, o si hay un número algo menor de páginas que apuntan a ella pero que posean, a su vez, un alto nivel de PageRank. De forma intuitiva, aquellas páginas muy citadas son páginas que vale la pena consultar y, en cambio, aquellas que sólo posean un enlace son páginas de poco interés para su consulta.

Hemos visto, a un nivel muy general, cómo busca información Google, vamos ahora a estudiar, también a un nivel muy general, cómo localiza la información. Para ello debemos recordar que el objetivo de la búsqueda no es otro que proporcionar una alta efectividad, y que el usuario lo primero que percibe es la precisión de los resultados de la búsqueda. El proceso de evaluación de la pregunta que lleva a cabo Google es el siguiente:

1. Descomposición (parsing) de la pregunta.
2. Conversión de las palabras a wordIDS (identificadores de palabras)
3. Localización de la posición de cada palabra en el barril de almacenamiento
4. Exploración de las listas de documentos hasta localizar un documento que contenga todos los términos de búsqueda
5. Cálculo del rango de este documento para esta pregunta
6. Una vez llegados al final del barril de almacenamiento, se vuelve al inicio repitiendo los pasos 4 y 5 para cada palabra de la ecuación de búsqueda
7. Una vez calculados todos los rangos, procede ordenarlos de mayor a menor y presentarlos al usuario.

Aunque se trata del motor de búsqueda de moda y pasa por ser el más completo de todos los que funcionan hoy en día en la Web, ya encontramos aportacines de algunos autores que critican parcialmente el diseño de Google y propugnan otros diseños más eficientes según su punto de vista. Este es el caso de Zhang y Dong (7) quienes propugnan diseñar los algoritmos de ranking a partir de la sinergia de las siguientes métricas:

Relevancia: métrica empleada por la mayor parte de los motores de búsqueda basados en el modelo del espacio vectorial. Mide la distancia entre el contenido de un recurso web (r) y una pregunta de un usuario cualquiera (q).
Autoridad: cuántos recursos webs poseen enlaces al recurso r.
Integración: mide cuántos recursos webs son enlazados por el recurso r
Novedad: en qué grado el recurso r es diferente de otros y proporciona información nueva

Por ZASQWAS.

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Optimización Web – los 4 aspectos básicos.

Posted by diseño web madrid en agosto 5, 2007

Es una estrategia de SEO, por lo que debemos controlar 4 aspectos básicos como es:

  1. El análisis de las palabras clave.

  2. Las acciones de optimización del código del sitio web.

  3. Acciones de optimización fuera del sitio web.

  4. El seguimiento de resultados y reajustes.

Análisis de palabras clave.
Este primer paso se debe llevar a cabo con mucho cuidado, ya que una mala selección de palabras o frases clave pueden provocar menos visitas. Sin embargo sí una palabra o frase está bien seleccionada va a optimizar nuestra web obteniendo un mayor tráfico hacia nuestro sitio web. Lo cual significa que nos visitarán personas que verdaderamente quieren ver el contenido que ofrece nuestra pagina web. La selección puede ser de una sola palabra, dos palabras o frases de 3 o más palabras.

Una correcta Optimización Web, consiste en generar una desindad del 3 al 5%. Así la densidad de palabras o frases dentro de la página web, es la clave prinicipal para una correcta Optimización Web, ya que un porcentaje menor implicaría bajar posiciones y un porcentaje mayor podría ser catalogado como Spam, lo que implica ser empujado a las últimas posiciones.

Acciones de optimización del código del sitio web.
Los términos (palabras clave) deben aparecer en los textos, y mejor si es en negrita o con etiquetas de titular. Las palabras clave deben ser lo más buscadas posible pero también lo más específicas, y que haya una concordancia clara entre lo que el usuario está buscando y lo que le ofrecemos. La situación ideal se optimiza así: una palabra clave, una página dedicada.

Debemos asegurarnos de que permitimos el acceso al sitio web a los robots o spiders mediante el archivo robots.txt. De esta forma conseguimos que se indexe la web completa.

También es imprescindible que la palabra que queramos posicionar esté en la etiqueta Title . Si tenemos varias páginas dentro de un sitio web, cada una deberá llevar su correspondiente Title.

Por lo general se suele decir que Google no tiene en cuenta las etiquetas . Pero lo cierto es que no es así, ya que podemos ver en ocasiones extractos de texto de estas etiquetas en las páginas de respuesta. También las etiquetas semánticas “h1” nos aportan un valor añadido.

En cuanto a la estructura del texto; éste debe contener las palabras clave a lo largo del texto sin forzarlas, y es conveniente que aparezcan en el primer párrafo.

Por todo ello, a la hora de desarrollar la estrategia de optimización debemos pensar siempre en que el usuario pueda leer lo mismo que el robot de búsqueda. Así el usuario no se va a sentir defraudado con el buscador y además encontrará nuestra página web. Por tanto, el contenido y las palabras clave que se optimicen deben estar relacionadas temáticamente.

Acciones de optimización fuera del sitio web.
Se debe tener en cuenta el PageRank , que es el cálculo basado en el número de páginas que apuntan a una página. Un enlace de una página vale más si ésta a su vez recibe muchos enlaces. Se tienen en cuenta unos 100 factores, pero los enlaces son el principal, debido a la estabilidad de los resultados a largo plazo.

Factores de PageRank que valora Google:
El formato del texto.
La densidad de la palabra de consulta en título y body.
Presencia de la consulta de URL.
Texto de los enlaces que apuntan a la página.
Número de enlaces que recibe la página.
Existen diversas técnicas conocidas para obtener enlaces de interés, como es el netweaving , se trata de la creación de redes de enlaces. Y es una de las mejores maneras de asegurarse buenas posiciones y un alto PageRank.

Seguimiento de resultados y reajustes.
Cualquier proyecto de optimización necesita un seguimiento. Por lo que hay que evaluar los progresos obtenidos, de forma que podamos saber sí estamos avanzando hacía la dirección correcta; conocer si obtenemos accesos desde palabras clave que no habíamos posicionado de forma intencionada; así como ver sí no estamos logrando los resultados previstos, de forma que todo aquello se pueda cambiar. La optimización en buscadores es un proceso lento pero seguro. Por mucho que mejoremos la página o cambiemos cosas en el código, etc., no obtendremos resultados a corto plazo. El robot nos debe visitar a nosotros, pero también a todos los demás competidores, rehacer sus cálculos y reestablecer el PageRank de cada página. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

20 Factores que influyen en la optimización web.

Posted by diseño web madrid en julio 29, 2007

Existen una serie de factores directos como la tipología de búsqueda, la popularidad de la página, el formato, el perfil de los usuarios, entre otros; y unos factores indirectos como la estructura, la accesibilidad, usabilidad y credibilidad; para ser valorados por los buscadores tanto de forma positiva como negativa.

Factores directos:

  1. Palabras clave al principio y al final de la página.
  2. IDF, medida que depende del tamaño del documento.
  3. La búsqueda booleana con OR suele beneficiar al que más palabras diferentes tiene.
  4. Clusters de conceptos asociados.
  5. Tamaño de la página, cuanto más pequeña mejor.
  6. URL con los términos de búsqueda.
  7. Posición de los términos de búsqueda al principio.
  8. Proximidad de los términos de búsqueda en el texto.
  9. Título, presencia del término de búsqueda en el título.
  10. Presencia de las frases de búsqueda en las frases del documento.
  11. Crear nuestras páginas escribiendo el código “a mano” y comprobar que el código no tenga tags abiertos o incorrectos.
  12. Factores indirectos, que bajan la popularidad:
  13. Usabilidad:
    Poner una página de bienvenida.
    Páginas con muchos colores, sin claridad, sin contrastes.
    No poner las conclusiones al principio, ni escribir de forma esquemática.
    Se valora: la facilidad de aprendizaje, de recuerdo, la eficiencia del usuario, la tasa de errores y satisfacción.
  14. Accesibilidad:
    Presentaciones flash.
    Páginas dinámicas. Actualmente sólo algunos buscadores son capaces de indexar las páginas con contenidos creados dinámicamente, por lo que se considera problemático en cuanto a la optimización en buscadores .
    Todo lo que afecta al tiempo de descarga.
    No poner barreras al público (invidentes, daltónicos,etc.)
  15. Contenido:
    Evitar palabras no específicas del contenido, texto subjetivo, metáforas, sin juegos de palabras, etc.
    Estructurado: párrafos cortos, páginas cortas, subtítulos informativos, etc.
    No dividir un mismo texto en páginas con “continuación”.
    Redacción del texto breve.
  16. Credibilidad:
    Estudia como se relaciona la credibilidad y el nivel de compromiso, enlaces recibidos-ofrecidos y diseño web.
    Depende de la mención de autoría, de la institución, de la política de confidencialidad, y de la fecha de actualización.
  17. Credibilidad positiva:
    Prestigio de la organización que avala el sitio.
    Rápida respuesta.
    Actualización reciente.
    El sitio parece diseñado por profesionales.
    La usabilidad es correcta.
    Internet invisible.
  18. Credibilidad negativa:
    Dificultad para distinguir los anuncios del texto.
    Falta de actualización.
    Enlaces erróneos u obsoletos.
    Falta de usabilidad.
  19. Legibilidad:
    Selección de colores con contraste
    Alinear a la izquierda.
    No usar tablas anidadas.
  20. Hoja de estilo:
    El formato es recomendable en hojas de estilo.
    No usar más de dos fuentes.
    La página debe ser legible aunque desaparezca la hoja de estilo. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Conoce todos los secretos SEO con BRUCE CLAY.

Posted by diseño web madrid en julio 14, 2007

Visita la página en la dirección:

http://www.bruceclay.com/

Muy recomendada. En Inglés.

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

TÉCNICAS PARA UN BUEN POSICIONAMIENTO EN LOS BUSCADORES.

Posted by diseño web madrid en julio 12, 2007

En una columna escrita por Mike Greham, vicepresidente de desarrollo de negocio internacional de Bruce Clay inc., para Clickz, se dan algunos consejos para conseguir un buen posicionamiento en buscadores.

En primer lugar, hay que concienciarse de que Google no es el único buscador de la red. También hay que contar con Yahoo! y MSN, ya que ambos tienen planes de incorporar el sistema de posicionamiento SERP. Lo que sí es cierto, es que Google es el que hace los posicionamientos más interesantes con sistemas como por ejemplo FeedBurner.

El que los buscadores incorporen nuevas tecnologías para efectuar sus posicionamientos es una gran noticia, no sólo para los bloggers, sino también para los podcasters. Google será capaz de detectar, con una gran serie de parámetros basados en datos y analíticas, todos los blogs y podcasts de audio y vídeo. También podría integrar esos elementos en la tecnología SERP, al igual que hace con los resultados normales.

Cómo conseguir un buen posicionamiento
Un documento RSS 2.O usado para los blogs y podcast contiene un espacio de programación: ése es el lugar indicado. Lo que hay que hacer es llenarlo con palabras clave e información relativa al contenido de la página en cuestión.

Como ocurre con una página creada mediante lenguaje HTML, el podcast también tiene un title-tag. El texto que se expone en ese espacio explica con exactitud qué es lo que contiene el podcast. En ese lugar se encuentra un enlace ideal para conectar con otras páginas web. Además, existe, a la hora de subir la web, una descripción con algunas palabras clave que será la que se utilice a la hora de realizar los posicionamientos en los buscadores.

Quizá la entrada más importante al canal del posicionamiento es pubDate. Esta entrada indica la última vez que el documento fue renovado. Los contenidos frescos propios de los blog y podcast no suelen tener esta tecnología a punto. Hay que estar seguro de que el pubDate funciona correctamente para entrar en los posicionamientos.

De todos modos, si se es nuevo a la hora de publicar un podcast o un blog que se quiere que tenga repercusión, lo ideal es comenzar con un tutorial de inicio adecuado sin reparar en gastos. No es bueno tener un blog si luego nadie va a entrar en él.

Posted in Artículos Posicionamiento, Marketing en Internet, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Google Analytics inicia su fase II (nueva versión)

Posted by diseño web madrid en julio 4, 2007

Con el anuncio de la nueva versión de Google Analytics (el pasado día 8 de mayo en el EMetrics San Francisco) se marca un punto de inflexión para este software, añadiendo funcionalidades, optimizando las existentes y preparándolo para nuevas mejoras…

Múltiples mejoras y nueva versión en menos de 1 año y medio

Tras el lanzamiento de esta herramienta han sido constantes las mejoras introducidas en este software, culminando con una nueva versión en abierto para todo el mundo desde el pasado día 17 de mayo.

Si la fase 1 consistió en adaptar el Urchin On Demand a la infraestructura Google, integrándolo a Adwords, escalándolo para soportar un tráfico casi ilimitado, traduciéndolo a 16 idiomas, etc. se inicia una nueva generación de Google Analytics con la fase 2.

Si bien requiere algo de esfuerzo adaptarse al nuevo interface, en muy poco tiempo uno se da cuenta de que los cambios no solo residen en mejoras en la usabilidad de Google Analytics v1. Con el nuevo Analytics se enriquece el análisis y se aportan nuevas funcionalidades.

¿Qué ofrece el nuevo Google Analytics?

Podríamos clasificar los cambios en 3 grandes grupos, ordenados en orden de importancia:

1. Mejoras en su rendimiento: Se ha cambiado completamente la forma de almacenar y acceder a los datos. Como consecuencia el software en mucho más eficiente y rápido en todos estos aspectos y sobretodo al realizar segmentaciones. Sites con un alto volumen de tráfico son los más beneficiados.

2. Nuevas funcionalidades: e incluso mejora de las existentes. A continuación listamos algunas de ellas.

Nuevo selector de tiempo
Cuadro de mando personalizable
Informes por email
Exportación en PDF
Nueva super posición del sitio
Nuevo segmentación geográfica
Nuevo embudo de conversión
3. Rediseño del interface: se ha simplificado la visualización de la información para facilitar la búsqueda de claves de entre todo el volumen de datos.

¿Qué no ha cambiado en el nuevo Google Analytics?

Las configuraciones y la administración dentro de esta herramienta siguen siendo las mismas (activación de perfiles, creación de filtros, inclusión de usuarios).

Y ahora ¿qué cambios podemos esperar?

El más próximo será el día 18 de Julio que será cuando deje de aparecer el antiguo interface de todas las cuentas.

Por otro lado y relacionado con el punto anterior, es evidente que Google Analytics seguirá con las mejoras pero en este caso a nivel configuraciones. Además, gracias a la nueva estructura interna del software, cualquier cambio podrá ser integrado en tiempo record. Pero todo esto lo dejaremos para tratarlo en una futura Fase 3.

Posted in Artículos Posicionamiento, Noticias Buscadores, Posicionamiento web | Etiquetado: , | Leave a Comment »

Herramienta para AdWords

Posted by diseño web madrid en junio 9, 2007

Extremadamente fácil de utilizar como herramienta de sugerencia de palabras clave y la investigación de software. Con él, puedes descubrir rápidamente gran demanda palabras clave con porcentajes de la competencia para tu negocio o página web.
Esta información es esencial para todo el que utiliza AdWords de Google o Overture anuncios.
Para cada frase clave, de AdWords Clever Wizard muestra el número de búsquedas por mes, el número de anuncios en Google y Overture, y el número de sinónimos que se puede comprobar inmediatamente.
Para descargar esta herramienta (1,59 MB versión de prueba)
Current version: 2.0, Jun 9, 2007
Operating system: Windows 98/2000/XP/Vista

http://www.cleverstat.com/cleverwiz.exe

Lee el resto de esta entrada »

Posted in Posicionamiento web | Leave a Comment »

¿Por qué hablamos de PageRank™ antes que de Relevancia Web?

Posted by diseño web madrid en mayo 20, 2007

Porque desconocemos el potencial de nuestro sitio web. Porque no entendemos que antes de conseguir enlaces debemos preguntarnos que ofrecemos. Porque no sabemos mirar a nuestro sitio como nuestro negocio.

/noticias.info/ A la hora de establecer una estrategia de posicionamiento web para una empresa, debemos tener en claro, como mínimo, tres cosas:

– Hay que generar links entrantes.
– Hay que crear una estructura web altamente indexable.
– Pero antes que estos dos puntos, hay que tener un claro producto que vender y una estrategia de marketing online adecuada para ello.

Este último punto opera como un requisito fundamental para comprender y empezar a utilizar la red en todo su potencial.
Internet es un nuevo canal de comercialización que está entrando a su etapa de madurez. Es momento que las empresas empiecen a tomar decisiones importantes con respecto al futuro de su negocio y la relevancia de controlar las nuevas tecnologías. Disponer de un simple sitio web ya no supone ninguna estrategia publicitaria. Una correcta estrategia online hoy es la que busca integrar en Internet todos los procesos publicitarios y comerciales de su negocio.
Debe partirse de concepto mucho más agresivo y que solo puede ser sostenido desde una eficiente y perdurable acción de marketing online.

Esto se traduce en un axioma innovador: una web necesita de contenido creativo permanente.
Recién a partir de aquí es donde evaluaremos como será la estructura web más óptima y a donde iremos a buscar links entrantes.

Una teoría proactiva: Su web es negocio.

Un approach teórico al marketing online actual se presenta como un recurso necesario para comprender y utilizar la red en todo su potencial.

Posted in Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

Posicionamiento web en Google: 8 verdades:

Posted by diseño web madrid en febrero 15, 2007

Aquí te presentamos un pequeño manual de posicionamiento web en Google. Con él podrás conseguir aparecer en las primeras posiciones de los resultados. Recuerda que solamente podrás ser la primera posición si te esfuerzas mucho.

El posicionamiento en buscadores se ha convertido en los últimos tiempos en una de las herramientas más cotizadas por los webmasters. En particular, aparecer en las primeras posiciones en Google es algo indispensable si quieres generar tráfico hacia tu sitio web, ya que Google responde a casi el 60% de las búsquedas de Internet.

El tutorial que te proponemos te ayudará a conseguir un buen posicionamiento web, pero no esperes resultados en unos días, ni en unas semanas, ni quizá en meses. Se trata de un trabajo constante -generando contenidos, optimizando páginas web y buscando enlaces- cuyos resultados son a largo plazo.

:: 1 :: Buenos contenidos.
Este es el punto principal, ya no solo para aparecer en los primeros puestos en Google, sino para que la gente visite tu sitio web.

:: 2 :: Tecnología web.
Éstate informado de las últimas novedades en cuanto a servidores o lenguajes de programación. Te harán la tarea de gestionar los contenidos mucho más amena, y puedes “gustar más a Google”.

:: 3 :: Sencillez.
Al robot de Google no le gustan las páginas con excesivas decoraciones y simplemente busca textos legibles y contenidos claros.

:: 4 :: Alta en Google.
El primer paso para conseguir una buena posición en Google es aparecer en el buscador. Descubre cómo hacerlo.

:: 5 :: Conseguir enlaces.
Es el pilar fundamental para obtener un PageRank alto. Intenta aparecer en los principales directorios (Yahoo! y DMOZ) y que te enlacen desde otros sitios web.

:: 6 :: Evitar penalizaciones.
Google sabe que muchas personas le intentan engañar, y está empezando a tomar medidas contra páginas web que realizan prácticas poco éticas para mejorar su posicionamiento. Infórmate de cuáles son y cómo evitarlas.

:: 7 :: Conseguir ayuda.
El posicionamiento requiere estar informado constantemente. Sigue nuestro foro y la Google Dance.

:: 8 :: Términos SEO.
Algunos de los términos y palabras con los que podrás entender más fácilmente toda la documentación referente al posicionamiento en buscadores.

Posted in Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Mejoremos nuestra posición en buscadores, pero ¿Cómo?

Posted by diseño web madrid en febrero 12, 2007

Mejoremos nuestra posición en buscadores, pero ¿Cómo?

Conseguir que otras páginas webs de temática relacionada enlacen con su página web, para ello es interesante realizar una búsqueda para aquellos términos que consideras deberían llevar tráfico a su página web y estudiar cuáles de ellos tienen un contenido complementario. Por ejemplo si quieres posicionar tu página web por el término “tu servicio o producto” debes conseguir enlaces de otras páginas web con una temática similar al suyo.Poniendo nuestro término de búsqueda en los enlaces significa ir indicando a los buscadores que el contenido de la página web es referente a “tu producto o servicio” y los motores de búsqueda darán más prioridad por estos términos a la página web que recibe los enlaces.

  • El texto que utilices en un enlace dirigido a una página web se llama “Anchor Text” y es un factor muy importante en el algoritmo de los motores de búsqueda más populares. Además de mejorar su posicionamiento a la vez también aumentara su Google PageRank.
  • PageRank es un indicador del valor de dicho página web en el buscador de Google. Puedes visualizar el PageRank de cualquier página web, instalando el Google Toolbar. Utilizando el Google Toolbar es una buena forma de saber cuáles paginas tienen un buen PageRank y poder pedirles o intercambiar enlaces.
  • Darse de alta en directorios importantes como Dmoz, Yahoo!.
  • Los directorios han perdido mucho valor en los buscadores pero siguen siendo un buen método para conseguir enlaces o un primer rastreo de su página web por los buscadores. Ambas requieren de un filtro humano para su inclusión lo que asegura la calidad de las paginas añadidas, pero también ralentiza y dificulta su inclusión.
  • Hacer nuestra web lo más accesible posible: limitar contenido en flash, frames, javascript…
  • Los frames, el javascript o las páginas en flash no permiten el rastreo / seguimiento de la información por parte del robot en las diferentes páginas o secciones. Para ellos son un espacio blanco por el cual no se puede navegar.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página.
  • Cada página es una tarjeta de presentación para el buscador. Los Title y Description son puntos de partida para la identificación de los términos relevantes a lo largo de la web por los buscadores.
  • Ten en cuenta que los palabras que aparece en su descripción, titulo y keywords (si es que lo utilizas) deberían aparecer en el contenido de la pagina web también. Si no aparecen en el contenido de la página, no le dará ningún beneficio y tampoco podrán encontrar su página web por dichos palabras en los buscadores. Inclusive, puedes ser penalizado por utilizar keywords que no aparecen en su contenido. Esto se considera Keyword Spamming.
  • Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara.
  • Un Sitemap (tanto el de Google como uno presente en el site) nos permitirá dar paso al buscador por las diferentes secciones del site de una forma ordenada, mejorando su visibilidad.
  • Actualizar la página con contenido original de calidad y con frecuencia.
  • Un poco de paciencia y “comprender” la sensibilidad antispam de los buscadores …

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , , | Leave a Comment »

La importancia del archivo robots.txt para la indexación en buscadores.

Posted by diseño web madrid en enero 2, 2007

La importancia del archivo robots.txt para la indexación en buscadores. 

Los buscadores tipo “araña”, como Google o Altavista, siempre buscan en el directorio raíz de un sitio web el fichero “robots.txt”. Este fichero les indica qué archivos deben incluir en su base de datos.

 advanced_robots_txt_generator.jpg

En la mayoría de los casos no lo utilizaremos, pero si deseamos excluir parte de nuestro web de la mirada inquisitiva de estas arañas, deberemos crear un fichero con este nombre. Estará formado por uno o varios registros, cada uno de los cuales está formado por dos campos: una línea User-Agent y una o más líneas Disallow. El formato de cada línea es como sigue:

Campo : ValorPodemos incluir comentarios empleando la almohadilla. Todo lo que haya desde que pongamos el carácter # hasta el final de la línea será ignorado.

User-Agent
Esta línea indica la araña a la que queremos impedir el acceso a ciertas zonas de nuestra web. La mayoría de los buscadores tienen nombres cortos para sus arañas. Google utiliza el googlebot y Altavista el scooter, por ejemplo. No obstante, aqui tenéis una lista completa de arañas.

Un ejemplo:

User-agent: googlebot

También se puede utilizar el asterisco como caracter comodín para indicar que lo siguiente será aplicable a todas las arañas:

User-agent: *

Si tienes acceso a los ficheros log de tu web, puedes buscar en ellos posibles arañas observando las peticiones que se realicen al fichero robots.txt.

Disallow

Después de User-agent se deben especificar una o más líneas Disallow. Como valor de este campos se pueden especificar nombres de directorios:

Disallow: /imagenes/

O de ficheros:

Disallow: index.htmI

ncluso podemos especificarlos a la vez. Si ponemos:

Disallow: /roma

Impediremos el acceso tanto a los ficheros que empiecen por roma como al directorio del mismo nombre. También podemos usar asteriscos

Ejemplos
El primer ejemplo impide a cualquier araña acceder a los directorios de los CGI y las imágenes:

User-agent: *
Disallow: /cgi-bin/
Disallow: /imagenes/

El siguiente ejemplo permitiría la entrada al robot de Google pero no al de Altavista:

User-agent: googlebot
Disallow:
User-agent: scooter
Disallow: /
De este modo podremos impedir que los buscadores metan la nariz más de lo deseable. Si deseas comprobar si tu fichero cumple las especificaciones puedes emplear un validador.

Existen diversas soluciones automáticas de generar estos archivos por ejemplo: http://www.basisoft.com/, esta nos ha gustado entre miles, además de poder generarlo tu mismo, claro!.

Un saludo.

Fuente: http://www.flashtips.es

Posted in Artículos Posicionamiento, Herramientas Posicionamiento, Posicionamiento web | Etiquetado: | Leave a Comment »

La etiqueta META DESCRIPTION y dos herramientas SEO.

Posted by diseño web madrid en diciembre 9, 2006

Se dice que la Etiqueta META Descripción (Meta TAG Description), no deben superar los 150 caracteres (incluyendo los espacios en blanco), para evitar posibles penalizaciones de cualquier tipo.

Conozco sitios Web que no la aplican y aparecen en las primeras posiciones pero, como sabrás, el Posicionamiento Web al depender de una fórmula que evalúa diferentes parámetros para establecer una mejor o peor relevancia de tu Web o Blog; dichos sitios lo compensan con los otros parámetros.

Si quieres un consejo, no facilites la tarea SEO a tu “competencia” (sean personas, profesionales, tiendas, empresas, portales Web u ONG), perdiendo puntos, por pocos que puedan ser, por estos detalles que son fáciles de solventar, sobre todo si tienes la ayuda de software SEO como:

 Web CEO  o  IBP de Axandra.

Un saludo.

Posted in Artículos Posicionamiento, Herramientas Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

HERRAMIENTAS SEO/POSICIONAMIENTO trackingwords.com

Posted by diseño web madrid en junio 7, 2006

Una herramienta para saber tu posición en búsquedas de forma online la ofrecen en:

www.trackingwords.com Lee el resto de esta entrada »

Posted in Posicionamiento web | Leave a Comment »

Congreso OJObuscador 2006- Entrevista a Víctor Andrés Pérez.

Posted by diseño web madrid en mayo 9, 2006

Reporducimos la entrevista realizada a nuestro buen amigo desde tiempos del telendro, Victor Andrés Pérez para el congreso OJObuscador.

V�ctor Andrés PérezSi algo es seguro, es que SEOs no van a faltar en el Congreso OJO Buscador.

Victor tiene 20 años y nació en Venezuela. Desde el 2003 se dedica al posicionamiento en buscadores y desde 2004 trabaja como SEO para el Grupo Interdominios.

1. Como SEO del Grupo Interdominios, cual ha sido hasta ahora el mayor problema con el que te has enfrentado?

Creo que en esta pregunta coincidirán muchos SEO conmigo, el mayor problema a la hora de hacer un posicionamiento son filtros como el sandbox, con los cuales hay que ser extremadamente cuidadoso para no caer y en el caso de caer hay que ser constante y muy trabajador para recuperar la posición perdida por culpa del filtro.

2. Cuales son tus herramientas favoritas?

Me gusta utilizar un programa llamado rankingmonitor para monitorizar las posiciones de mis clientes y proyectos personales, me gusta tener el control, todo lo que sea monitorización, ya sea del PR, páginas indexadas, backlinks y por supuesto posiciones de los resultados de búsqueda me gusta saber como marcha y la evolución día a día. Luego también hay otras herramientas como Gmail, MSN messenger, Firefox, etc, que se salen del tema de los buscadores, pero que las considero grandes herramientas muy funcionales en mi vida cotidiana y que al fin y al cabo me ayudan a realizar mi trabajo manteniéndome en contacto con el mundo exterior.

3. Cual es tu fuente de información de más confianza?

Michel con su weblog telendro.com.es, Fran con su gran foro de xeoweb.com son los principales, aunque ahora Michel tiene un poco descuidado el blog, así que recurro a dirson u ojobuscador para enterarme de las buenas nuevas.

4. Como ves el trabajo de un SEO en 10 años?

El trabajo de SEO tal y como lo conocemos hoy en día seguramente desaparezca para aquel entonces, pero no por que se acabe, al contrario, evolucionara, los buscadores no paran de mejorar sus algoritmos, cada vez son más “inteligentes” y se complica la labor de un SEO pero como en todo trabajo nos terminaremos adaptando a la situación o en el peor de los casos retirándonos de la batalla, pero aquellos que se retiren serán sustituidos por otras personas con ganas de dar a conocer sus creaciones a todo el mundo a trabes de la red de redes.

Gracias Victor!

Posted in Posicionamiento web | Leave a Comment »

La importancia de los enlaces I.

Posted by diseño web madrid en noviembre 21, 2005

Cuál es el método oficial para dar de alta mi web en Google?

El método más sencillo es acudir a esta página de Google:
http://www.google.com/intl/es/addurl.html

Pero, como bien afirma Google, no se asegura en cuánto tiempo aparecerá en Google, ni tan siquiera se garantiza que aparezca. Google recibe miles de sugerencias de URLs (direcciones de sitios web) al día, y su robot no tiene capacidad para rastrear todas.

¿Cómo puedo darme eficazmente de alta en Google?
La respuesta es fácil: consiguiendo enlaces. Si consigues un enlace en un sitio web que sí que aparece en Google, puedes estar seguro que en el plazo de unos días tu sitio web será dado de alta en Google. Esto es así porque ‘Googlebot’, el robot de Google, rastrea periódicamente las páginas web que ya están en la Base de Datos de Google, y sigue los enlaces que ya aparecen en estas páginas.

¿Cómo puedo saber si una página está dada de alta en Google?
Para saber si tu página web ha sido dada de alta en Google, o bien para conocer otras páginas web donde intentar que inserten un enlace hacia tu sitio web, realiza la siguiente búsqueda: site:www.direccion-web.com Donde ‘www.direccion-web.com’ es la dirección web (URL) del sitio web que desees. De esta manera, aparecerán todas las páginas web de ‘www.direccion-web.com’ que están dadas de alta en Google.

¿Cuánto tarda en aparecer mi página web en Google?
Google asegura que, si utilizas el método oficial de alta, el proceso transcurrido hasta que pase el robot y la página es dada de alta suele ser de unas ocho semanas. Aunque Google no asegura nunca que el proceso se realice con éxito. Sin embargo, si consigues enlaces de calidad (por ejemplo, en páginas web por las cuales pase el robot de Google con frecuencia), puedes lograr aparecer en Google al día siguiente de crear tu sitio web.

¿Por qué hay que conseguir enlaces?
Google otorga un valor numérico a cada página web que inserta en su base de datos. Este valor numérico lo denomina PageRank. Cuanto mayor sea el PageRank de una página, mayor importancia le habrá dado Google.

Este valor crece cuantos más sitios web enlacen a tu página. Tienes que pensar que cada enlace es para Google como si fuera un ‘voto’. Además, si estos sitios web que te enlazan tienen un PageRank elevado, el valor crecerá más, porque el ‘voto’ es de mayor calidad.

¿Cómo deben ser los enlaces?
Cada vez que insertes un enlace dentro de tus páginas o intentes que otros sitios enlacen hacia el tuyo, debes intentar que el sea del tipo:

Palabra clave

De esta manera, Google interpretará que el ‘voto’ que te están otorgando se refiere a esa palabra clave, y te premiará cuando el usuario las busque. Es decir, las palabras claves (keywords) deben estar dentro del ‘anchor’ del enlace.

¿Tiene en cuenta Google los enlaces hechos con JavaScript?
No. Googlebot -el robot de Google- no interpreta JavaScript, por lo tanto no sigue este los enlaces hechos en este lenguaje.
Tampoco sigue los enlaces del tipo ‘www.directorio.com/link.cgi?id=300’. Así, intentaremos que los enlaces que nos hagan sean tal y como se propone anteriormente.
 

¿Dónde puedo conseguir que me enlacen?
El principal sitio donde puedes conseguir un enlace es en los directorios. Deberías intentarlo en DMOZ. Se trata de un directorio de carácter público y abierto, y está gestionado por editores voluntarios.

Además, deberías intentar contactar con los responsables o webmasters de otros sitios web de temática parecida a la tuya, para conseguir que te enlacen.

No olvides que cada vez más Google está obteniendo los ‘conceptos’ de cada página web (mediante la tecnología que le sirve, por ejemplo, para crear los anuncios ‘AdSense’ y los enlaces en determinadas páginas tienen más valor si las palabras clave del ‘enlace’ tienen mucho que ver con la temática abordada.

El sitio ideal donde intentar conseguir enlaces sería en páginas web de temática parecida a la tuya y con un valor de PageRank elevado. Precisamente las categorías de DMOZ cumplen estos dos requisitos.

¿Cómo puedo conseguir aparecer en DMOZ?
Hay categorías de dmoz.org cuya página web tiene un PageRank de 7 ú 8, por lo que el conseguir un enlace en DMOZ es realmente valioso. Además, Google lo toma como referencia para construir su propio directorio ‘directory.google.com’. No escojas la categoría con mayor PageRank, sino la que más se ajuste a la temática de tu sito web.

Pero no te creas que es una labor fácil aparecer en dmoz.org, ya que los editores solamente incluyen sitios web de calidad y que realmente tienen que ver con la temática de cada categoría.

Navega por las categorías de DMOZ. Descubre cuál es la que más se ajusta a la temática de tu sitio web, y pulsa el enlace ‘agregar URL’. Si tienes un sitio web en español, lo más conveniente es que escojas una categoría dentro de ‘World > Español’.

Debes tener paciencia con tu solicitud. Suelen tardar varias semanas, pero no debes agobiar a los editores. Si en el plazo de seis meses no has conseguido que te enlacen, deberías volver a sugerir tu sitio web.

Conviene que esperes a tener el sitio web realmente listo antes de sugerir a la gente DMOZ un enlace. Si les sugieres un sitio web ‘en construcción’ seguro que no te lo van a aceptar, y posiblemente no te lo revisarán la próxima vez que se lo sugieras. No te precipites y haz las cosas con calma.

¿Tienen algún tipo de relación Google y DMOZ?
No. DMOZ es un proyecto propiedad de Netscape, que a su vez forma parte de la multinancional del entretenimiento ‘Time Warner’. DMOZ permite la reproducción libre de sus directorio (con una licencia especial), y Google simplemente se limita a recoger sus contenidos desde el año 2000.

Otros muchos sitios hacen lo mismo que Google en su ‘directory.google.com’, y recogen en sus páginas web un directorio de categorías con los enlaces de los que dispone DMOZ. Google trata estos enlaces de la misma manera que el resto de los enlaces pero, al aparecer en más sitios web -debido a estos ‘clones’ de DMOZ-, el número de enlaces se multiplica.

¿Cómo consigo enlaces desde otros sitio web?
Esta se trata de una de las tareas que más esfuerzo y dedicación requiere. Debes echar un vistazo a todos los sitios web de temática parecida la tuya, y comprobar en cuáles de ellos podrías conseguir algún enlace.

No dudes en escribirles un correo electrónico para informarles sobre tu sitio web, y dar a conocer sus contenidos. Recuerda que al otro lado hay una persona: trata de ser cortés y amigable. Si tu sitio web es de calidad, probablemente insertará un enlace más tarde o más temprano.

Como en todas las campañas de márketing debes ser perseverante, pero sin llegar a agobiar. Intenta seguir manteniendo relaciones (aunque no te hayan enlazado) con los webmasters de otros sitios web, e intercambiar opiniones e información. Despliega toda tu red de contactos (amigos y familiares, incluidos) para conseguir más enlaces a tu sitio web.

Aprende de tu competencia. No hay nada de ilegal en buscar en Google ‘link:http://www.micompetencia.com (muestra los llamados ‘backlinks’, los sitios web que lo enlazan con un PR mayor que 3 ó 4). Así sabrás en qué sitios ha conseguido tu comentencia sus enlaces. Tú puedes hacer lo mismo.

¿Se pueden colocar enlaces en libros de firmas?
Por supuesto. Puedes firmar en los ‘guestbooks’ con el enlace que mejor te convenga, eligiendo las mejores palabras. Es gratis, y existen libros de firmas de algunos sitios web con un PageRank realmente apetecible.

Pero es poco ético. Además de conseguir ganarte la enemistad de la mayor parte de los webmasters, podrás lograr que algún día Google te penalize. De hecho, ya está comenzando a no tener en cuenta los enlaces de algunos sitios web sospechosos de albergar enlaces sin el consentimiento de su webmaster, como los libros de firmas.

¿Me pueden penalizar por enlazar determinadas páginas?
Sí. Evita insertar enlaces a sitios web que sospeches que realicen prácticas fraudulentas (bien para aumentar su PageRank, u otro tipo de fraudes). Está claro que Google les puede penalizar, pero también puede disminuir tu PageRank.

Google no te podrá penalizar por los enlaces que reciban tus sitios web, ya que tú no eres responsable de ello. Pero sí que lo eres de los enlaces dentro de tu sitio web.

No enlaces a otro sitio web simplemente porque han insertado un enlace al tuyo o porque te lo hayan pedido. Infórmate bien de quién te pide que le enlaces.

¿Me pueden penalizar por tener demasiados enlaces rotos?
Revisa los enlaces rotos (‘broken links’ que pueda haber en tus páginas web. Muchas veces, escribimos mal los enlaces y dirigimos a los visitantes a páginas que no existen. También hay ocasiones que las páginas a las que apuntamos han dejado de existir.

Se sospecha que Google penaliza a las páginas web con excesivos enlaces rotos. Imagínate que encuentras una página en Google con información que te puede interesar, pero que la mayoría de los enlaces están rotos, y te dirigen a errores 404 (‘Page Not Found’. Seguramente no te haría mucha ilusión tener que volver atrás, y echarías la culpa al webmaster de la página web y a Google por tener en las primeras posiciones a esa página.

Google estima que lo que es malo para el usuario, también es malo para Google.

¿Se pueden comprar enlaces?
Una de las bases del éxito de Google ha sido la filosofía del PageRank, que se basa en la popularidad de una determinada página web en función de los enlaces que tenga.

Estos enlaces siempre se han realizado en función de la calidad de las páginas que se enlazaban, por lo que Google confia en que los webmasters inserten los enlaces siguiendo estos criterios, y no por haber recibido una cantidad de dinero.

Por supuesto, Google no va a tolerar que nadie cobre dinero por insertar enlaces desde sus páginas gracias al PageRank conseguido, y lo que está haciendo en algunas ocasiones es penalizar a estos sitios web que insertan los enlaces.

En estos casos, no los elimina de los resultados, y quizá tampoco reduzca su PageRank, ya que Google considera que la información que contiene puede resultar valiosa para algunas búsquedas. Lo que hace sencillamente es impedir la posibilidad de que estas páginas web ‘transmitan’ el PageRank. Simplemente, no sigue los enlaces desde ellas.

Por ello, si decides conseguir enlaces pagando por ellos a un webmaster que tenga páginas web con PageRank alto, ten en cuenta que Google puede anular estos enlaces.

¿Tiene en cuenta Google los enlaces de las AdWords?
AdWords es el sistema publicitario de Google, en el cual el anunciante paga por aparecer en los resultados de Google. Sin embargo, estos enlaces no son tenidos en cuenta para el cálculo del PageRank, ya que Google no rastrea sus propios resultados.

No pienses que Google te va a premiar con un mayor PageRank si pagas por la publicidad AdWords, ni siquiera que va a dar de alta tu sitio web.

Tampoco va a seguir los enlaces que aparecen en la publicidad ‘AdSense’ (los anuncios de Google aparecidos en páginas privadas), ya que están generados mediante JavaScript, y el robot de Google no sigue este tipo de enlaces.

Tengo cientos de páginas en mi sitio, ¿cómo puedo enlazar todas?
Crea una página con enlaces a todas las de tu sitio web. A esto lo puedes denominar el ‘mapa’ de tu sitio web. A Google le gustan estos ‘mapas’, porque accede a todas las páginas del sitio sin tener que perderse por todas las demás. Y tú podras asegurarte que tienes todas tus páginas indexadas en Google.

Si las páginas de tu sitio web superan las 100, es mejor que este ‘mapa’ lo dividas en varias partes. Cada una de ellas debería contener menos de 100 enlaces. Hay quien sospecha que si tienes una cantidad elevada de enlaces en una sola página, Google puede considerarlo como una ‘link farm’ (una ‘granja de enlaces’, y penalizarte.

¿Debo utilizar los sistemas automáticos de envío a buscadores?
Nuestra recomendación es que no utilices los sitemas automáticos que prometen dar de alta tu sitio web en cientos o miles de buscadores. Es mejor que lo hagas personalmente, porque muchos buscadores detectan envíos automáticos, y desestiman las páginas web enviadas por estos métodos.

Además, estos sistemas automáticos son diseñados para un determinado momento. La mayoría de los buscadores modifican los formularios y requerimientos para darse de alta en ellos, y los sistemas automáticos no lo modifican a la vez. Puede ocurrir que simplemente no funcione o que, por ejemplo, no te des de alta en la categoría adecuada.

Recuerda que el posicionamiento web requiere mucho esfuerzo y dedicación. Ten paciencia, y hazlo todo personalmente.

¿Debo hacer intercambio de enlaces?
El tener algún tipo de contacto con otro webmaster y decidir que “yo te enlazo a ti y tú me enlazas a mi” puede ser beneficioso para aumentar el PageRank de tus páginas web (aunque quizá Google disponga de algún filtro para atenuar su importancia).

Pero, sin embargo, no debes abusar de esta práctica (llamada también ‘crosslinking’ y mucho menos debes comprar o vender estos enlaces. Google puede detectar que la mayoría de los enlaces que recibe tu sitio web proceden, por casualidad, de un sitio web al que tú enlazas en todas tus páginas. Entonces puede llegar a penalizarte.

Si posees ya bastantes enlaces de sitios web de parecida temática a la tuya, no debieras tener ningún problema en realizar intercambio de enlaces con otro sitio web. Hay muchos sitios web que, de manera natural, realizan intercambio de enlaces.

De todas maneras, infórmate de con quién vas a intercambiar tus enlaces. Recuerda que tú eres responsable de las páginas web a las que enlazas.

Si eres el administrador de varios sitios web, y quieres hacer enlaces entre las páginas de los mismos, ten mucho cuidado con lo que haces, e intenta no abusar de esta práctica. Y, por supuesto, no conviertas una de tus páginas en una ‘Link Farm’.

¿Se tienen en cuenta los enlaces internos?
Para la transmisión del PageRank se tienen en cuentra tanto los enlaces internos como los externos.

Por lo tanto, debes planear el número de enlaces que diriges hacia páginas de tu propio sitio web, porque va a ser el PageRank que se quede dentro de tu sitio web.

También deberías estudiar hacia qué páginas enlazas y cómo las enlazas (ver ‘cómo deben ser los enlaces’. De esta manera, puedes promocionar una determinada página sobre otras (por ejemplo, la principal, u otra que en determinado momento estimes que va a generar un importante número de visitas).

En ningún momento una página va a perder PageRank por realizar muchos enlaces fuera de tu sitio web (enlaces externos). En todo caso, y si no realizas ningún enlace interno, no transmitirás nada de PageRank dentro de tu sitio.

Dos consejos:

1) Intenta que una página que quieras posicionar consiga al menos un enlace externo. Si Google comprueba que todos los enlaces que recibe son internos, podría estimar que estás realizando ‘spam’ y podrías obtener una penalización en esta página.

2) A Google le gusta que realices enlaces externos fuera de tu sitio web. Eso sí, intenta que sean hacia sitios que no cometan irregularidades (tú eres responsable de tus enlaces) y el texto del ‘anchor’ debería ser una serie de palabras con las que dicha página tenga relación (mira en los resultados de Google).

Posted in Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | 3 Comments »

Parámetro BIW de Google.

Posted by diseño web madrid en junio 29, 2005

No se sabe bien porqué, pero últimamente en las búsquedas que se hacen vía web de Google, ha aparecido un nuevo parámetro en la URL.

Dicho parámetro, el BIW parece ser el ancho del navegador que se utiliza, o sea, el ancho de la pantalla que se está utilizando.

Se está especulando ya el porqué de comprobar que resolución de pantalla tienen los usuarios, aunque lo más probable es que Google quiera adaptar el ancho de sus servicios a la mayoría de los usuarios. Simplemente hay que entrar en http://www.google.com con una pantalla con resolución a 640×480 y a 1280×1024 y veremos que en una falta espacio y en otra sobra demasiado… ¿querrá Google adaptarse a los nuevos tiempos después de más de 8 años?

http://www.inicio.parquempresarial.info                                                                      

Posted in Noticias Buscadores, Posicionamiento web, Teoría SEO | Leave a Comment »

¿Que debes hacer para que tu sitio aparezca en una buena posición cuando el usuario hace busquedas en los buscadores?

Posted by diseño web madrid en marzo 30, 2005

La respuesta es larga y compleja, para lo cual te aconsejamos leer con atencion este foro o los manuales de posicionamiento antes citados por Javier.

De modo resumido te diré que deberias tener muy en cuenta dos variables:

a) La cantidad y calidad del texto en tu sitio web.

Esto significa que Google tomara como primer criterio el analisis de tu propio sitio, fundamentalmente el texto (aunque tambien le da importancia al titulo de la pagina, el nombre del dominio, el ALT o texto descriptivo en las imagenes, etc).
Las palabras o keywords en las que deseas aparecer bien posicionado deben evidentemente estar contenidas en el texto de tu pagina web, de preferencia tambien incluidas en los elementos descritos antes.

b) El texto contenido en los enlaces que apuntan hacia tu sitio.

Otro modo para que Google considere un keyword asociado a tu sitio es si este aparece como parte del anchor o texto contenido en los enlaces que apuntan hacia tu sitio.
Esto es muy logico, pues se supone que quien ponga en su sitio un enlaces hacia el tuyo, utilizara en ese texto algo muy descriptivo y Google lo valora mucho.

Un ejemplo:

<a href=”http://tusitio.com”>posicionamiento de sitios web</a>

El ‘anchor’ del link o enlace anterior “posicionamiento de sitios web” hara que Google tome ese sitio como uno de los resultados ante la busqueda “posicionamiento de sitios web”.

El lugar en que aparecera en esa busqueda dependera de muchos factores, como el texto del propio sitio, el texto de otros enlaces, quiza el PageRank (Eso es algo que se discute mucho hoy dia), etc.

Como conclusion sobre estos dos puntos (hay otros al hablar de posicionamiento, consulta los manuales para informaciones mas detalladas), es muy importante cuidar que tus paginas tengan un texto de calidad, claro, que emplee un lenguaje rico y correcto y que contenga los terminos que te interesa posicionar en Google.

Hacer trampa queriendo introducir texto oculto, etc. ademas de alejar a los usuarios, suele hacer que Google te penalize.
Por otro lado, conseguir enlaces desde sitios que tengan mucho trafico, sin llegar nunca a hacer SPAM, con un buen texto en esos enlaces ayuda tambien.

Un buen sitio, pleno de texto, serio, bien escrito, que sea interesante y bien estructurado, es siempre la mejor opcion para salir bien posicionado en Google, a fin de cuentas Google lo que intenta es mostrarle al usuario los sitios que mas satisfecerian su busqueda.                       Lee el resto de esta entrada »

Posted in Posicionamiento web | Etiquetado: , , | 1 Comment »

Alta y registro en algunos de los principales buscadores.

Posted by diseño web madrid en marzo 30, 2005

Aquí os pongo las URLs de las páginas de indexación de los cuatro, a mi juicio, más importantes buscadores en el munod hispano, aunque la mejor indexación es una página regularmente visitada por los robots, que enlace a la página a indexar.

No obstante tienes:

Google
http://www.google.es/addurl.html
Yahoo (Solo hace falta tener un correo yahoo para entrar)
http://submit.search.yahoo.com/free/request
Msn
http://beta.search.msn.com/docs/submit.aspx
Hispavista
http://guia.hispavista.com/alta/?&tipo=1

Se puede predecir que, en los próximos años estos cuatro buscadores se repartirán en porcentajes importantes el servicio de búsqueda en internet, salvo sorpresas, que en internet pueden ocurrir en poco tiempo.

Un saludo. Lee el resto de esta entrada »

Posted in Herramientas Posicionamiento, Posicionamiento web | Leave a Comment »

Una propuesta: intercambiar enlaces de tu URL.

Posted by diseño web madrid en marzo 29, 2005

Intercambiar Enlaces:

El intercambio de enlaces es algo bastante simple, es básicamente que un sitio enlace a otro y ese enlace al primero (es decir, un sitio A enlaza a un sitio B, el cual le “devuelve” el enlace al sitio A). Pero no necesariamente debe ser sólo entre dos sitios, se ha popularizado hace no mucho el intercambio de enlaces unidireccional, el cual se contrapone al recíproco.

El intercambio unidireccional implica que deben ser más de dos sitios los que participen en el intercambio, normalmente tres o cuatro. En el caso que sean tres, el sitio A enlaza al B, y el B enlaza a un sitio C, generalmente del mismo propietario que el sitio A. El beneficio de este tipo de intercambios no recíprocos no es muy grande ni está confirmado, pero muchos argumentan que este tipo de intercambio no será tan obviamente artificial, sino que se verá como más disimulado de cara a Google. Pero hay otros que reflexionan que esto no tiene mucho sentido y que Google toma en cuenta perfectamente los intercambios recíprocos, y por el momento parece que asi es (y no parece que vayan a haber cambios, ya que no tendría demasiado sentido).

En el intercambio de enlaces generalmente se utiliza un texto a manera de palabra clave, la cual lograremos posicionar mejor con el intercambio, es decir el texto del enlace:

<a href=”http://www.dominio.com”>texto del enlace</a>

Si bien se beneficia la posición de la palabra clave que actúa como texto del enlace, es bueno no utilizar en todos los intercambios las mismas palabras, si no que es mejor ir variando.

Al momento de elegir con qué sitios intercambiar enlaces hay que tener varios aspectos en cuenta. Uno de ellos, y quizás el más importante, es la temática, siempre es mejor que el intercambio sea entre páginas de temáticas iguales o similares. Y mejor aún si esta página con la que realizas el intercambio es “importante” dentro de la temática, es decir, estar bien posicionada para la búsqueda que más caracterice o defina ese tema determinado (se podría definir bien posicionado a un sitio que aparezca entre los primeros 50 ó 100 resultados). Otro factor importante a tener en cuenta es el número de enlaces que tenga la página, no enlaces entrantes, sino enlaces a otros sitios o enlaces a otras páginas dentro del mismo sitio, es preferible que este número se mantenga siempre menor que cien, y cuantos menos sean será mejor.

También se debe tener en cuenta el número de enlaces que tenga el sitio en donde queramos colocar el enlace, para saber esta cantidad podemos utilizar tanto Google como Yahoo!, en ambos debemos colocar en el espacio de búsqueda el comando “link:http://www.dominio.comCon esto obtendremos las páginas que enlazan al sitio cuya dirección especificamos en la búsqueda. Así tendremos una visión de qué sitios lo enlazan y cuántos son en número aproximado. También podemos tener en cuenta otros factores como: diseño del sitio, proligidad del código, si el enlace será colocado dentro de la etiqueta <strong> o no, PageRank del sitio, y otros muchos factores.

Posted in Artículos Posicionamiento, Posicionamiento web | Leave a Comment »

Los Buscadores: clave del éxito en Internet.

Posted by diseño web madrid en marzo 29, 2005

Clasificar y encontrar websEn los inicios del www no había demasiadas páginas web, había poca información y todo el mundo sabía donde encontrarla. Además, los nombres de dominio acostumbraban a tener relación con el sitio y viceversa, así que buscar una determinada cosa (si estaba en la red) no resultaba difícil. A medida que fueron pasando los años el número de páginas existentes fue creciendo a velocidades exponenciales. Este aumento del volumen de información hizo que se complicara cada vez más la localización de información relevante sobre un tema. Los nombres de dominio ya no resultaban triviales y “adivinar” dónde encontrar determinada información resultaba imposible. Aparecieron entonces los directorios. Su estructura, organizada jerárquicamente en subdirectorios perfectamente clasificados por temas, permitía (y permite aun hoy), navegando por una estructura de árbol, localizar webs relevantes sobre la información buscada.

Pero el tamaño de los directorios se hizo cada vez más grande, con lo cual buscar información se hizo cada vez más difícil. Así, algunos de estos directorios empezaron a integrar buscadores sencillos, minimizando el tiempo de búsqueda. Sin embargo, mantener un directorio es una tarea laboriosa que implica revisar una gran cantidad de páginas e ir añadiéndolas o eliminándolas (cuando la web deja de existir) de las categorías adecuadas.

El paso siguiente fue crear robots que se encargasen de recopilar información en la web. Nacen entonces los buscadores, que representan una gran ventaja frente a los directorios: sus robots visitan las páginas web de forma automática incorporándolas a sus índices, y a la hora de dar los resultados la velocidad es mucho mayor; el usuario solicita información y en pocos segundos se le proporcionan un conjunto de direcciones relacionadas con la consulta. Como contrapartida, los robots, por sofisticados que sean, no pueden organizar la información ni entenderla como una persona. Sin embargo los usuarios acostumbran a utilizar más los buscadores que los directorios, y estos últimos han incorporado un buscador a su directorio.

¿Qué es el posicionamiento en buscadores?

Cuando una persona utiliza un buscador para localizar información sobre un determinado tema no suele ver más allá de 2 ó 3 páginas de resultados, pero muchos se quedan ya con la primera. Teniendo en cuenta que en cada página de resultados hay 10 o 20 enlaces (dependiendo del buscador), que una página esté bien posicionada en un buscador es muy importante.

Se habla de posicionamiento en buscadores como la aplicación de una serie de normas a las páginas web conforme a los algoritmos que utilizan los buscadores, con la finalidad de salir en las primeras posiciones por los términos de búsqueda que nos interesen. En inglés se denomina SEO (Search Engine Optimization), y está muy ligado a lo que se conoce como marketing en uscadores (SEM – Search Engine Marketing).

Ningún webmaster puede conocer el algoritmo exacto de un buscador, pero con el estudio de los resultados se puede hacer una aproximación de aquellos factores que está tomando en cuenta.

¿Por qué es importante estar bien posicionado?

Los buscadores actuales cuentan con un gran número de páginas indexadas. Google tiene más de 4000 millones de páginas web en sus bases de datos. Entre semejante cantidad de webs, lo más normal es pasar completamente desapercibido. Cualquier página es susceptible de ser mostrada en el buscador si se buscan sus contenidos de una forma muy concreta. Por ejemplo, seleccionando una frase de 6 o 7 palabras exactas lo más normal será que el buscador nos devuelva en la primera posición la página que contenga esa frase. Los usuarios suelen utilizar entre 2 y 4 palabras para realizar sus consultas, que normalmente son bastante genéricas; salir listado en las primeras posiciones por las palabras más utilizadas por los internautas será un objetivo que nos dará un alto número de visitas. Un buen tráfico web se puede lograr de otras formas no relacionadas con el posicionamiento; sin embargo los buscadores ofrecen un tráfico web de calidad, ya que ante cualquier consulta tienen como objetivo devolver las páginas web más relevantes relacionadas con la búsqueda. Si nuestra página web habla de impresoras, salimos bien listados por la búsqueda impresoras, y también por diferentes búsquedas relacionadas que también llevan la palabra impresoras, estaremos obteniendo una buena cantidad de visitas interesadas en nuestra página web. Esto es lo que se llama atraer visitas de calidad, interesadas en nuestra web.

Vendemos impresoras y atraemos hacia nuestra web gente que busca impresoras; los buscadores pueden ser más efectivos que un anuncio en televisión.

La diferencia de estar en los primeros lugares de Google o más allá de los 30 primeros es abismal. Los primeros conseguirán visitas diarias, que por pocas que puedan ser, son visitas contínuas e interesadas en la web. Cuando el número de visitas que provienen de los buscadores es alto – por las palabras claves que nos interesan – el éxito de nuestra web está garantizado.

Visibilidad de las empresas

Pocas empresas con presencia en Internet pueden permitirse el lujo de no ser encontradas fácilmente. Los buscadores representan uno de los principales objetivos para atraer un tráfico web de calidad, los visitantes que llegan hasta la web de una empresa desde un buscador normalmente estarán interesados en los servicios o productos de esa empresa.

Las campañas de Pago Por Click – mostrar anuncios de una web cobrando por cada visita que se le proporciona – son muy utilizadas; en Google se pueden ver estos anuncios a la derecha. Los precios de Pago Por Click dependen de la competitividad de la palabra clave para la que queramos anunciarnos y la posición en la que deseamos aparecer. El mínimo (en Google) son 0,05 euros por Click, hasta algunas palabras claves tan competitivas que superan el euro por Click para aparecer en la primera posición. Normalmente pueden resultar un buen método de promoción, pero si estamos bien posicionados en los resultados no patrocinados nuestras posibilidades de éxito son mucho mayores. Salir en primera posición de Google y Yahoo! es, cada vez más, el primer objetivo publicitario de muchas empresas.

Un caso frecuente es el de cualquier web pequeña, en la que se ofrezca algún tipo de servicio sin pensar en las grandes posibilidades de los buscadores. Esta web puede conseguir 20, 30 o hasta 40 visitas diarias. Pero de esas visitas, las que realmente tengan interés en el servicio que se ofrece serán, como mucho, 2 personas cada 30 días. Trabajando el posicionamiento en Google durante unos meses se pueden alcanzar 200, 300 o hasta 400 visitas diarias, de la cuales aquéllas que realmente tengan interés en el servicio que se ofrece serían 2 o 3 personas todos los días.

El futuro:

Europa suele seguir los pasos de EE.UU. en todo a lo que buscadores se refiere, de esta forma lo que pasa allí normalmente es fiel reflejo de lo que pasará aquí unos meses después. El idioma abre muchas más puertas al posicionamiento del futuro, es mucho más difícil posicionarse para cualquier búsqueda en inglés que en la búsqueda correspondiente en castellano. Si además tenemos en cuenta la evolución de Internet, la posibilidad de usar Google (u otro buscador) en móviles, como dispositivo de voz, televisión o incluso en dispositivos que todavía hoy no podemos ni imaginar, todo lleva a pensar que los buscadores tengan un gran futuro como medio publicitario.

Hoy en día, en EE.UU., el éxito de cualquier empresa en Internet depende de su visibilidad en este medio, y sin duda su posicionamiento en buscadores juega un papel crucial.

¿Cómo funciona Google? (o cualquier otro buscador)

Un programa al que llamamos robot se dedica a recorrer las páginas web, quedarse con una copia y seguir todos sus enlaces. Gracias a los enlaces puede ir de una web a otra constantemente, de esta forma el buscador tiene la capacidad de encontrar nuevas páginas web siempre que hayan sido enlazadas por alguna otra web que haya recorrido.

Una vez que el buscador tiene una copia de la página valora diferentes factores para clasificarla según la consulta que se realice. En sus bases de datos almacena copias de todas las webs que ha recorrido, y cada vez que se realiza una consulta aplica su algoritmo para devolver los resultados ordenados y clasificados, de manera que el algoritmo devuelve en las primeras posiciones los resultados que considera más relevantes para la consulta que hemos iniciado.

¿Qué factores valora un buscador para clasificar las webs?

Los buscadores valoran que nos enlacen muchas páginas, que nuestra web sea conocida, lo que se llama tener popularidad web. El marketing juega un papel fundamental para conseguir enlaces. Hay varias estrategias que están utilizando las empresas para conseguir aumentar su popularidad y comunicación con el usuario, reportando grandes beneficios no sólo en los buscadores:

WebLog: Un blogger (profesional) se dedica a escribir sobre la empresa. El interés que suscitan muchos weblogs hace que se consigan enlaces gracias a lo que se escribe, pero no sólo eso, para una empresa puede representar un medio de comunicación sin precedentes. Una forma muy interesante de darse a conocer, que generará contenidos y enlaces, y eso repercutirá positivamente en los buscadores.

Copywriter: La idea es generar contenidos que nos den enlaces, y para ello se contrata a un buen escritor que esté reconocido en el sector. Los artículos, escritos y noticias de esta persona suscitarán el interés y los enlaces de otros. En lugar de contratar a alguien para que consiga enlaces, se contrata a alguien para generar contenidos que resulten útiles y lleven a los webmasters a enlazarnos. La idea del WebLog y del Copywriter no son tan diferentes.

Utilidades: Ofrecer en la web algún tipo de servicio o herramienta gratuita que repercuta en la popularidad y conocimiento de la empresa.

En general los factores más importantes para que los buscadores nos clasifiquen positivamente y lo más alto posible son los factores que se comentan a continuación:

El número de enlaces hacia esa web desde otras
El texto de los enlaces (anchor text) hacia esa web: <href=”pagina.html” mce_href=”pagina.html”>esto es anchor text</a>.
El título de una página es el factor más importante de todos los llamados on the page. No escoger un buen título – descriptivo y rico en palabras claves – sería perder muchas posibilidades.
La densidad de las palabras clave en el texto.
El peso de las palabras clave: negrita, encabezados (h1, h2), las primeras 25 palabras, etc.
Evitar Javascript, Flash… los buscadores todavía no lo interpretan correctamente.
Google dice que valora más de 100 aspectos diferentes en su algoritmo. Es muy conocido el término PageRank, que es una medida de 1 a 10 que asigna a las páginas en función del número de enlaces (y la calidad de los mismos) que recibe.

Contenidos y Enlaces

Las recomendaciones de los buscadores para mejorar nuestro posicionamiento son que añadamos contenidos que sean útiles para los usuarios, o lo que es lo mismo, que nuestra página sea relevante. En un entorno ideal, la página con más y mejores contenidos (la más relevante) sería la que recibiría más enlaces por parte de otros usuarios. Conseguir enlaces es muy importante a la hora de mejorar nuestras posiciones, pero si no ofrecemos al usuario lo que está buscando, si no tenemos contenidos relevantes para la búsqueda a través de la cual llega a nuestra web, habremos perdido el tiempo. Es importante tener los mejores contenidos posibles, a la larga nos darán enlaces de otras webs que van a ser muy valorados. Tal vez sea el mejor consejo que se pueda dar a alguien que desee posicionar su web: si quieres superar a la competencia ofrece más y mejores contenidos (servicios) que ellos.

¿Es tan importante el texto de los enlaces entrantes?

Sin duda, es lo más importante. Lo que se conoce por Google bombing no son más que enlaces con un texto exacto hacia una web. Normalmente esa web apuntada no contiene ese texto, por lo que no es relevante para esa búsqueda, ni tiene sentido que salga listada para consultas relacionadas. El año pasado se comenzó un Google bombing contra el Sr. George Bush, consistente en apuntar a la página de la Casablanca que contiene su biografía con el texto miserable failure. El código exacto sería el siguiente: <a href=”http://www.whitehouse.gov/president/gwbbio.html”> Miserable Failure</a>, después de que muchos webmasters enlazasen a esa web de esa forma, la biografía de Bush comenzó a salir primera en la mayoría de buscadores por la búsqueda miserable failure. Si lo miráis a día de hoy (en Google) veréis que sale la página de Michael Moore que tampoco tiene nada que ver con la búsqueda, es una lucha que sostienen desde hace unos meses demócratas y republicanos.La conclusión es que los enlaces hacia nuestra web son tan importantes que hasta sería posible posicionarnos para un término sin que nuestra web lo tuviese escrito o no tratase de nada relacionado con ese término.

Técnicas poco éticas

Salir en las primeras posiciones de los buscadores es tan atractivo y beneficioso que lleva a muchos webmasters a utilizar técnicas poco éticas. Los buscadores tienen dificultades para combatir estás técnicas, en su mayoría basadas en spam. No es fácil detectarlas de una forma automatizada, por lo que la lucha contra estos métodos se basa en revisiones manuales. Muchos de los cambios que se producen actualmente en los algoritmos de los buscadores están destinados a combatir este tipo de spam.

¿Cuáles son esas técnicas poco éticas?: Hay un gran número de variantes, pero en su mayoría se basan en las siguientes, que son las más conocidas:

Texto Oculto: Es muy fácil esconder texto en cualquier página web, utilizar el texto del mismo color que el fondo, situarlo en una zona no visible para la mayoría de los navegadores (noscript, noframes), etc.

Cloaking: Sabiendo la IP del robot de un buscador, cuando éste llegue a nuestra web, en vez de servirle la página que ve cualquier usuario le damos otra preparada especialmente para que obtenga un buen posicionamiento, rica en texto y en las palabras clave que nos interesen, hasta tal punto que resulte desagradable de ver para cualquier internauta.

Spamming GuestBook: Este tipo de spam se presenta de muchas formas. Si antes hablamos de lo bueno que era tener enlaces hacia nuestra web, cuantos más mejor, ¿qué forma más fácil de conseguir un enlace que firmar un libro de visitas?. Éste es el principal problema de los buscadores en la actualidad.

La gran cantidad de weblogs existentes en la red, que tienen unos resultados y una valoración excelente por parte de los buscadores, provoca que muchos spammers se dediquen a firmar cientos de weblogs con el único objetivo de conseguir enlaces hacia su web. Solucionar esto no es fácil, ¿cómo saber si un enlace es spam o no?

Google pone un formulario a disposición de todos para comunicar incidencias de webs que estén usando técnicas poco éticas, en algunos casos se produce una revisión manual y si se considera que la web está rompiendo las normas (que impone el buscador), será penalizada.

A principios de 2004 el conocido buscador realizó cambios drásticos en su algoritmo que afectaron a la gran mayoría de búsquedas, posiblemente para combatir el spam, quitando valor a algunos enlaces y dando más valor a los enlaces que provienen de páginas relacionadas con la temática de la web a la que apuntan.  Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Leave a Comment »

¿Cuantas páginas tiene google indexadas de mi dominio?

Posted by diseño web madrid en marzo 29, 2005

Para que google te diga el total de páginas indexadas del dominio que quieras le has de escribir por ejemplo:

allinurl:www.profesionalnet.net

Un saludo. Lee el resto de esta entrada »

Posted in Posicionamiento web, Preguntas SEO | Leave a Comment »

Chequeos de enlaces en Google.

Posted by diseño web madrid en marzo 29, 2005

Para preguntarle a google cuantas páginas linkan a la tuya, debes escribir en el blanco de búsqueda:

Por ej: link:www.profesionalnet.net

El resultado serán las páginas asociadas a ese link. Está bien para ver cómo google encuentra la página, a traves de otra URL.

Esta es la teoría, últimamente Google ofrece resultados parciales incluso en ocasiones, los perores enlaces a tu página, poco page rank, etc. Lee el resto de esta entrada »

Posted in Herramientas Posicionamiento, Posicionamiento web | Leave a Comment »