Posicionamiento y Optimización del WEB – SEO/ProfesionalNet

Un Blog gratuito sobre artículos, recortes de prensa, blogs, teoría y herramientas del posicionamiento web

Posts Tagged ‘posicionamiento’

Long Tail: El número de palabras por búsqueda ha pasado de 3 a 4.

Posted by diseño web madrid en febrero 28, 2008

long tail 

Según comentan en SEW, Avinash Kaushik de Google Analitycs comentó el fin de semana pasado que por primera vez el número de palabras por búsqueda ha pasado de 3 a 4.

Es decir, que la gente cada vez realiza búsquedas más precisas y concretas, con 4 palabras por búsqueda. Esto son buenas noticias para los que optimizan sus webs para el long tail, y para aquellos que ven imposible competir para determinadas palabras genéricas.

Yo soy de los que creo que es un error posicionar pensando en el long tail, principalmente porque si consigues posicionar una palabras genérica, es mucho más sencillo posicionar términos relacionados con dicha palabra. Sin embargo, hay blogs, especialmente blogs, que reciben miles de visitas diarias únicamente del long tail, lo que abre el juego a más webs, y parece que la tendencia es a ampliarse todavía más.

Esto son buenas noticias, especialmente para las webs más nuevas.

Fuente: AdSeok

Posted in Artículos Posicionamiento, Hábitos Internet, Noticias SEO, Posicionamiento web | Etiquetado: , , , , , , , , | Leave a Comment »

Nueva herramienta SEO: Website health check

Posted by diseño web madrid en enero 30, 2008

Recientemente, Aaron Wall ha desarrollado una nueva herramienta gratuita SEO.
Esta herramienta con el nombre de “Health Check Herramienta de sitios web” ha sido desarrollada especialmente para la revisión de una web en los códigos de título, descripción, URL y página de códigos de estado: 

http://tools.seobook.com/website-health-check/

El sitio Web de Health Check Tool revisa y demuestra los problemas que la URL en particular puede tener, tales como ausencia de códigos de título y descripción, nombre duplicado etiquetas o descripciones, www versus no-www, índice de salud de la página, o cualquier tipo de gestión de errores.

seobook.jpg

Esta herramienta tiene por objetivo proporcionar una interfaz simple e intuitiva para solucionar algunos de los principales temas de SEO – onpage.El sitio Web de Health Check Tool le da respuestas a preguntas como:¿Está su URL indexada en  Google? ¿la indexación de sus páginas nuevas se hace rápidamente?
¿Tiene contenido duplicado en sus páginas indexadas en Google?
¿Tiene problemas URL canónica?
¿Algunas de sus páginas en Google le faltan los títulos?
¿Su servidor envía mensajes de errores correctamente?
Aaron Wall también tiene previsto poner gratis la segunda versión de la herramienta a finales de este mes. Según el mismo nos comenta, la segunda versión tendrá características como:Le permite buscar no sólo un sitio, sino un lugar y una palabra clave, al igual [seobook.com seo]
Añadir indexación de su página en los principales motores de búsqueda (Google, Yahoo, Microsoft, Ask)
Permite a los webmasters recabar resultados de cualquiera de los más de 4 motores, o mezclar y combinar Una buena herramienta para utilizar y tener en cuenta!

Posted in Herramientas Posicionamiento | Etiquetado: , , , | Leave a Comment »

Enlaces Recíprocos.

Posted by diseño web madrid en enero 22, 2008

Enlaces Recíprocos

Uno de los temas más comentados en cualquier foro en los últimos meses es el papel que juegan los enlaces recíprocos en Google. Un tema de consideración ya que el carácter recíproco de los enlaces es algo muy común en muchos intercambios de enlaces. Desde la conocida actualización Florida, que Google llevo a cabo hace un año, han surgido diversos rumores sobre los intercambios de enlaces y las posibilidades de que los enlaces recíprocos estén devaluados o hayan perdido todo su valor.

Los enlaces recíprocos no están devaluados, ni penalizados, ni han perdido valor. Los intercambios de enlaces (recíprocos o no) siguen jugando un papel fundamental en la metodología SEO.
¿Páginas o Webs?
Debemos distinguir entre web y página (o página web). Web es un conjunto de páginas alojadas bajo un mismo dominio. Página es cada uno de los documentos individuales -normalmente con URL propia- de un dominio (de la web). Google, a la hora de proporcionar los resultados de una búsqueda, nos devuelve páginas concretas, no dominios (webs). Google posiciona las páginas de las webs individualmente. El papel de otras páginas del mismo dominio puede jugar a nuestro favor, pero a la hora de que una página sea listada en Google, el resto de páginas del dominio son vistas como factores externos. Nosotros, en nuestras webs, podemos verlas como factores on the page, porque están bajo nuestro control, y podemos jugar con la estructura de la web, con el anchor text que apunte a una página determinada, con el número de enlaces que reciba a nivel interno del propio dominio, etc. Pero Google, ve una página, y en sus resultados la posiciona individualmente, independientemente del resto de los contenidos del dominio. Si todo el dominio habla del mismo tema que esa página, sólo jugará a su favor, si tiene enlaces hacia esa página desde otras páginas (si están relacionadas mejor) del dominio. A efectos de posicionar una sola página de una web, tener 1000 páginas en el mismo dominio que hablen de lo mismo, pero que no estén enlazadas entre ellas, sería como tener 1000 páginas diferentes en dominios diferentes sin enlazarlas.

Hay un caso en el que Google favorece a las páginas del mismo dominio. Cuando hay dos páginas de un misma web dentro de la página de resultados de búsqueda, Google agrupa la que ocupa el peor lugar justo después de la primera. Me explico: si tenemos configurado Google para mostrar 10 resultados por página, y yo tengo una página en la segunda posición de una búsqueda, si otra página de ese dominio alcanza la décima posición, automáticamente pasa al tercer puesto, es agrupada de forma consecutiva con la otra página del dominio. Si tenemos Google configurado para mostrar 100 resultados por página y tenemos la quinta posición y la nonagésimo novena, ésta última saldrá listada en la sexta posición. Podemos establecer como regla general:

Cuando en la misma página de resultados de Google salen listadas dos páginas del mismo dominio en posiciones no consecutivas, Google agrupa las dos páginas, de forma que la que ocupa el peor puesto de las dos, es listada a continuación de la que ocupa el mejor puesto de ambas.
¿Qué es un Enlace Recíproco?
Ahora que hemos explicado que Google valora páginas individuales en sus resultados y no dominios, podemos establecer que un enlace recíproco es aquel que tiene sentido bidirecciónal entre dos páginas. Dicho de otra forma: La página “A” apunta a “B”, y la página “B” enlaza a “A”.

A veces se habla de enlaces recíprocos cuando hay enlaces bidireccionales entre dos dominios, pero no entre las mismas páginas. Explicado: Tenemos un dominio “D1” y un dominio “D2. “D1” tiene una página “A” que apunta a una página “C” del dominio “D2”. “D2” tiene una página “B” que enlaza a la página “A” de “D1”. Sean “D1” y “D2” dominios difentes, “A” una página del dominio “D1”, “B” y “C” páginas diferentes del dominio “D2”, y “z -> x” representa un enlace de “z” a “x”.

Tenemos: D1.A -> D2.C y D2.B -> D1.A

¿Podemos considerarlos enlaces recíprocos?
 Si bien son enlaces entre dominios, no deben considerarse enlaces recíprocos, ya que hay infinitas posibilidades de que se dé este caso, y es prácticamente imposible de controlar. No representa ningún riesto este tipo de intercambios. Pensemos en el mundo de los blogs, prácticamente todos los enlaces serían recíprocos, la mayoría hemos enlazado a casi todos los blogs que nos han enlazado en algún que otro post.
¿Qué se ha devaluado?
Hace una año eran muy comunes los intercambios de enlaces desde todas las páginas de una web hacia la página principal de otra web, y desde todas las páginas de esta segunda web también se enlazaba a la página principal de la primera web, con esto se conseguía un importante aumento del PageRank, así como un buen número de enlaces con el mismo texto. Era una forma rápida y efectiva de lograr miles de enlaces intercambiando con una sola web. Google ha devaluado los enlaces que provienen desde las IPs que tienen en común los tres primeros bytes. Así que ese método de intercambio ha perdido mucho valor, ya que se lograban sólo enlaces desde una misma IP por cada web con la que intercambiábamos. Ahora es mucho más interesante la idea de conseguir sólo 5 enlaces desde 5 IPs (variando los tres primeros octetos) diferentes, que 1000 enlaces desde una misma IP.

Éste fue uno de los motivos que impulsó la creencia de que los enlaces recíprocos estaban devaluados. Era fácil comprobar que esos enlaces no funcionaban para mejorar posiciones como lo hacían antes, pero lo devaluado no era el enlace en sí por el hecho de ser recíproco, era la procedencia de enlaces masivos desde la misma IP.
Recíprocos vs. No Recíprocos.
Es muy frecuente leer que es mejor un enlace unidireccional que bidireccional, que es mejor un enlace no recíproco que uno no recíproco. Esto es falso, y lo que debe imperar es el sentido común. Lo mejor son los enlaces que se ponen de forma natural, sin realizar intercambios, los enlaces entre páginas relacionadas, y que aportan algo al usuario que está leyendo los contenidos de la página donde va el enlace. Está comprobado que estos enlaces son siempre los que más visitas proporcionan a otras páginas web. Son los enlaces donde más fácil nos resulta hacer un click de ratón. El carácter recíproco del enlace no tiene nada que ver con su valor, hay muchos más factores: la posición del enlace, el texto que lo rodea, el tener más enlaces desde esa misma IP, etc.

Los enlaces entre páginas relacionados son la mejor forma de subir posiciones en Google, ya sean recíprocos o no. Simplemente porque el que sean recíprocos no perjudica en nada. Se pueden observar grandes beneficios con intercambios de enlaces entre páginas que compiten por la misma búsqueda. Estos enlaces son de gran valor para el usuario, y Google sabe valorarlos en su justa medida. Si lo que se valora son los enlaces naturales, lo adecuado es hacer intercambios de enlaces naturales. Tal vez no enlacemos a otra web por el simple hecho de que sea de la competencia, pero los usuarios, y por tanto los buscadores, saben valorar ese tipo de enlaces positivamente. Porque están relacionados, porque ofrecen una continuación a ese página, porque es una aportación de contenido útil, y si el enlace se hace recíproco… ¿Qué importa?
Peligros.
No representa ningún peligro utilizar enlaces recíprocos en intercambios de enlaces. Lo peligroso son los grandes anillos que a veces se forman. Las webs que intercambian enlaces suelen hacerlo siempre con las mismas, de forma que es una rueda que crece. Primero empiezan 10, luego 20, 30, etc, y más tarde Google detecta que hay una red de páginas con un número de enlaces entre ellas nada natural, y decide que pierdan valor. No llega a banear, o a realizar una penalización, detecta esas páginas como afiliadas, y todo el peso de los enlaces, todo lo positivo que nos aportaban en temas de posicionamiento, se pierde. Es algo normal, porque es poco natural que 50 páginas se enlacen todas entre sí, y no digamos si enlazan entre todas las páginas que contiene cada web, pero en su justa medida sigue siendo un arma muy efectiva en temas de posicionamiento en buscadores.

Las penalizaciones a grandes anillos de enlaces en los que participan un número muy elevado de páginas… ¿tienen algo que ver con los enlaces recíprocos?  No.

Autor: Fran Fernández
http://www.xeoweb.com/google/enlaces-reciprocos.php

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

Comandos adicionales, denominados “sintaxis especiales”, para nuestras búsquedas en Google.

Posted by diseño web madrid en enero 14, 2008

Comandos adicionales, denominados “sintaxis especiales”, para nuestras búsquedas en Google:

Después de varias charlas entre conocidos, familiares y amigos, a lo largo de mi experiencia profesional sobre las búsquedas a través de Internet, me doy cuenta que son pocos quines conocen estos comandos adiciones, también llamados “sintaxis especiales”.

Desde hace algún tiempo, Google ha permitido el uso de determinadas comandos que facilitaran nuestras búsquedas, restringiendo esos resultados irrelevantes y obtener aquellos que realmente nos interesan. En ese momento existían muchos comandos pero se han eliminado algunos e añadido de nuevos en sus algoritmos.
En este caso, voy a daros un resumen de las sintaxis que actualmente siguen funcionando y ser de ayuda aquellos “inexpertos” en la materia. Pero antes…

¿Cómo funciona Google?

Google, como motor de búsqueda de texto completo, incluye en su índice páginas Web completas, en lugar de incluir sólo los títulos y las descripciones. Mediante los comandos adicionales, denominados sintaxis especiales, nos permite realizar búsquedas en partes determinadas de páginas Web o tipos específicos de información. Esto resulta práctico cuando se está tratando con dos mil millones de páginas y necesitamos aprovechar cualquier oportunidad para restringir esos criterios.

Las opciones Booleanas

AND

Esta opción está establecida como predeterminada en Google, siempre que introducimos las palabras busca a lo largo de todo el contenido.
“palabras“

Si introducimos las comillas dobles, conseguimos que busque en las páginas que contengan esas palabras juntas.

OR
Puede mostrarnos páginas que contengan una palabra u otra.

-palabra / -”palabras”
Usaremos el signo de negación cuando queremos que esa palabra no aparezca en los resultados.

Fijaros que también es posible combinar estas opciones, pero hemos de tener en cuenta que Google solo reconoce un máximo de 10 palabras:

Netdebugger OR consejos
Netdebugger “consejos posicionamiento”
Netdebugger -“consejos posicionamiento”

Las sintaxis especiales

intitle:alquiler pals

Devuelve las páginas que contengan en su título ALGUNAS de las palabras especificadas.

allintitle:alquiler pals

Devuelve las páginas que contengan TODAS las palabras en el mismo título.
No se usa muy a menudo ya que no se combina muy bien con algunas de las otras sintaxis.

inurl:consejos google

Devuelve las páginas donde en su URL aparecen ALGUNAS de las palabras.
allinurl:consejos google
Devuelve las páginas donde en su URL están TODAS de las palabras.
Tampoco os aconsejo mucho su uso, igual que allintitle, no se combina muy bien con otras sintaxis.

intext:consejos netdebugger

Busca sólo en el cuerpo del texto que contenga ALGUNAS palabras, ignorando el texto de los vínculos, URL y títulos.
inanchor:casas canpericay
Busca entre los textos que describen los vínculos. Por ejemplo en nuestro caso, busca los textos que aparezcan como vínculos a “casas canpericay” y encontramos NetDebugger que tiene un enlace hacia Canpericay.

site:netdebugger.com
site:edu

Permite restringir esos resultados bien a un sitio Web bien a un dominio de nivel superior. Esta sintaxis se utiliza mucho en el posicionamiento ya que permite ver el número de páginas almacenadas en los buscadores.

link:www.netdebugger.com
link:www.netdebugger.com/Google_Condiciones_SEO.html

Devuelve una lista de las páginas que tienen vínculos al URL especificado. No hemos de olvidar las “www” pero sí podemos ahorrarnos el “http://” ya que Google parece que lo ignora.

cache:www.netdebugger.com

Encuentra una copia de la página que Google muestra en el índice incluso si esa página ya no está disponible en su URL original, o si ha cambiado su contenido completamente desde entonces. Os recuerdo que Google tiene las páginas almacenadas y cuando buscamos lo hacemos en su caché.

related:google.com

Encuentra páginas relacionadas con la página que especifiquemos, pero no todas las páginas están relacionadas con otras. En mi ejemplo, obtendríamos como resultado una variedad de motores de búsqueda.

info:netdebugger.com

Debajo los resultados nos proporciona vínculos que ofrecen más información sobre un determinado URL, como: la caché de Google, lista de páginas similares, tengan enlaces, aparezcan los términos… Hay que tener en cuenta que esta información depende de si Google tiene en su índice dicho URL o no. Si no lo tiene, la información será, obviamente, más limitada.

Si deseáis ampliar vuestras experiencias os recomiendo ver la “Ayuda para las búsquedas” de Google y a medida que las vayas usando, verás que no son tan difíciles de recordar.

Autor: Jordi Camps
http://www.netdebugger.com/Comandos_adicionales_sintaxis_especiales_b%FAsquedas_Google.html

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

Páginas hechas en Flash contra las técnicas de posicionamiento.

Posted by diseño web madrid en enero 9, 2008

Desde sus comienzos Flash ha tenido como grandes ventajas las posibilidades gráficas y de interactividad tanto con el usuario al principio, como cliente/servidor en sus últimas versiones, sin embargo siempre ha adolecido de importantes defectos que se hacen más visibles conforme crece la importancia que se da a la indexación de las páginas web en buscadores y al seguimiento y métricas sobre el tráfico y las visitas web.

Hay un dicho en internet que dice que si no sales en Google no eres nadie. Si bien esta afirmación puede resultar algo excesiva, si que es cierto que una parte fundamental para el exito de muchos proyectos web es la correcta realización de las páginas, de forma que los indexadores, sean Google, MSN, Ask Jeeves, o cualquier otro, sean capaces de indexar el mayor número de ellas y de forma correcta.

Hay diferentes técnicas que hay que tener en cuenta, como la utilización de url’s “legibles”, el uso de títulos apropiados en las páginas, el etiquetado “correcto” de enlaces e imágenes, por poner las principales. Todas estas técnicas forman parte de algo que se viene llamando SEO “Search Engine Optimization”, que no es más que un conjunto de metodologías orientadas a optimizar la visibilidad de un web en los listados de los buscadores. Sin embargo todas estas metodologías son difíciles o incluso imposibles de aplicar en los webs hechos con flash.

Las webs hechas en flash tienen su principal utilización en webs con grandes requerimientos multimedia, o en los últimos años, en webs en las que se necesitan determinadas caractarísticas de interacción con el usuario que son complicadas de conseguir con HTML, al menos hasta la llegada de mecanismos basados en XMLHttpRequest, principalmente aplicaciones en las que es necesario que la pantalla se reconfigure conforme el usuario genera eventos y si envía y recibe información al servidor en segundo plano. Sin embargo también es cierto que muchas empresas han abusado de flash para crear webs para todo tipo de empresas, al igual que se hizo al final de los 90 con la utilización masiva y desacertada de frames en todo tipo de webs.

Actualmente indexadores como Google son capaces de procesar los archivos swf y leer las cadenas de texto que contienen, de forma que permiten indexar páginas que contengan flash. El problema radica en que si todo el web está hecho en un único flash, residente en la página principal normalmente, los indexadores tienen únicamente una página para indexar, la cual contiene un flash con todos los textos del web. Esto provoca que el indexador indexe una única página y que el peso de las palabras que contiene se desvirtúe, ya que el indexador considerará que están asociados a esta página, él no es “consciente” de que el flash se divide en diferentes páginas internamente.

Hay alguna solución a este problema, aunque ninguna es tan óptima en cuanto a posicionamiento como sería disponer de un web realizado en (X)HTML puro. Una posible solución es no utilizar un único flash para todo el web, si no construir páginas html independientes que contengan cada una el flash que representa su contenido.

Otras soluciones se basan en la utilización de una versión html equivalente que sería la que el indexador utilizaría. En este caso cuando un indexador trate de indexar la página web, ésta podría detectarlo y servir la versión html en vez de la basada en flash. Esto tiene un problema relacionado con ciertos abusos que se han hecho en los indexadores orientados a trampear las posiciones. Los indexadores deben tratar de garantizar que los contenidos que indexan sean los mismos que verá el usuario cuando acceda a la página, en otro caso se estaría desvirtuando su trabajo y sería un agujero para la utilización de determinadas trampas. Es por esto que, aunque este método pueda funcionar, no se pueda considerar completamente válido.

Aparte hay que tener en cuenta una cosa más, que es el coste económico que implica preparar mínimamente una web en flash para que sea indexable. En los casos en los que se dé mucha importancia al posicionamiento en buscadores como una forma de atraer audiencia a la web, habrá que sopesar cuidadosamente la utilización de flash, en qué medida, cómo, y qué costes implica en cuanto a la optimización de la web resultante. Sin olvidarnos también de que en estos casos estaremos también interesados seguramente en realizar seguimiento de audiencias, trabajos sobre estadísticas de tráfico, etc…, puntos en los que las web hechas en flash adolecen de problemas similares.
Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web | Etiquetado: , , , | Leave a Comment »

Claves para posicionar tu web.

Posted by diseño web madrid en enero 8, 2008

1.- Lo primero que el propietario de un sitio web debe buscar con el posicionamiento es conseguir visitas de calidad que reviertan un beneficio. Conceptos como Popularidad de Enlaces, vistosidad y otros objetivos son secundarios.2.-Los buscadores cambian y evolucionan constantemente. Los algoritmos de búsqueda de los buscadores son cambiantes, con lo cual las páginas se deben adaptar a las nuevas circunstancias.

3.- Los buscadores valoran en gran medida el contenido, la originalidad y la sencillez de un sitio web. La simplicidad para el usuario y la simplicidad para el robot a menudo van de la mano.

4.- Los buscadores tienen en cuenta la antiguedad del dominio. Si hay dos sitios web de igual calidad, siempre aparecerá primero el más antiguo en los primeros puestos de las búsquedas.

5.- Debemos vigilar diariamente las estadísticas de acceso a nuestras páginas. Nos dan mucha información del tipo de visitas que recibimos y de lo que estamos haciendo bien o mal.

6.-Los metatags no son necesarios para el posicionamiento. Sólo las utilizan algunos directorios para indexarnos convenientemente.

7.-Los enlaces externos a nuestra web son realmente importantes. Sobre todo los de webs de calidad con temática parecida a la nuestra.

8.-La Popularidad de Enlaces (lo que Google llama PageRank, para entendernos…) no significa posicionarse mejor, es al revés, un buen posicionamiento suele implicar una buena Popularidad de Enlaces.

9.-Cuanta más tecnología se utilice en las páginas más dificil se lo ponemos a los buscadores. El abuso de JavaScript y Flash dificulta que un buscador nos “entienda”.

10.-Las altas automáticas sirven para muy poco. Un buen posicionamiento pasa por un trabajo manual de alta en directorios.

11.-La indexación hace que tu web pueda aparecer en los buscadores, toda página que el robot no haya rastreado ni indexado no figurará en los resultados.

12.-El código limpio es muy valorado por los buscadores. Los tag incompletos, conflictos en el código o un exceso de javascript pueden obstruir al robot a la hora de hacer su trabajo. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web | Etiquetado: , , | Leave a Comment »

10 reglas para básicas la optimización de páginas para los buscadores.

Posted by diseño web madrid en diciembre 12, 2007

Existen 10 factores importantes que se deben seguir para la optimización de páginas Web que ayudarán a que nuestro sitio se ingrese en mejor en los buscadores.

La etiqueta título
Esta etiqueta es importante porque aparecen en la página de resultados de los motores de búsqueda y además es la que aparece en la parte superior de color azul que se encuentran en nuestro explorador. La etiqueta título de tu sitio debe ser fácil de leer y debe describir la temática de tú sitio de un modo general y debe ser el tema principal ya que no disponemos de mucho espacio para escribir en esta etiqueta.

La etiqueta descripción
La etiqueta descripción en un párrafo que como su nombre lo indica se encarga de describir el contenido y la temática del sitio Web en este etiqueta debemos escribir una descripción que capturen la atención del otro visitante y le incite entrar a nuestra página de igual modo que el título debe ser fácil de leer y comprender.

Palabras clave
La importancia de las palabras claves en los buscadores varía constantemente ya que en cada algoritmo de búsqueda cambia la importancia de estas para el posicionamiento del sitio Web aún así las palabras claves son consideradas como una de las más importantes cosas a tomar en cuenta para los optimización de una página Web, las palabras claves que usemos en nuestro sitio debe estar relacionadas con la temática del contenido de cada una de las páginas.

Etiquetas ALT
Éstas etiquetas son las que se muestran cuando pasamos el ratón sobre una imagen son representadas por un cuadro amarillo con letras en negro este etiqueta son utilizadas para describir la imagen que se muestran nosotros para aprovechar más esta etiqueta la utilizaremos para reforzar las palabras claves, la descripción y el título de nuestra Web.

Etiqueta Header
Éstas son utilizadas para dar formato a títulos que se encuentran dentro de la página por ejemplo para un título principal debemos usar etiquetas H1 ya que éstas representan título y los motores de búsqueda la interpretan como tal como bien sabemos esta etiqueta nos muestra el texto en un tamaño grande y en negrita pero muchas veces este etiqueta no coincide con el diseño de nuestra página en cuanto a tamaño color y tipo del letra, pero qué podemos hacer para utilizar esta etiqueta y que mantenga el diseño de nuestra página, pues bien he aquí donde en unos interesa incluir las cascadas de estilo ya que mediante estas podemos dar formato a las etiquetas que ya están definidas como lo es la H1, como hacemos esto? la mejor manera es desde un documento de estilo declaramos la etiqueta H1 y le definimos nuestros valores donde podemos decir que tamaño, color y tipo de fuente queremos usar. Con esto logramos que los motores de búsqueda lea nuestros títulos como tales y visualmente nuestros visitantes puedan creer estos títulos incluido en el diseño de nuestra Web.

Vínculos
Muchas veces utilizamos imágenes como botones en nuestro sitio ya que todos dan una mejor apariencia pero para la optimización de buscadores esto no nos viene bien ya que los motores de búsqueda no pueden seguir los vínculos de las imágenes la mejor manera es usar vínculos de texto ya que todos se pueden aprovechar para describir el contenido al que nos dirige el vincula y si usamos palabra relacionada con el contenido de la página será mejor valorado por los buscadores y recordemos siempre que estas técnicas son para optimizar nuestra página y lograr mejorar nuestra posición en los buscadores,¿por qué ? por qué si estamos mejor posicionados tendremos más visitas a nuestro sitio y esto se transforma en clientes, subscriptores o lectores.

Mapa del sitio
El mapa del sitio en un archivo el cual contiene los vínculos de todas las páginas que existen en nuestro sitio Web, la función principal de este mapa es visualmente orientar al visitante sobre la estructura y organización de la página, pero además de esto y lo más importante para este caso es que cuando damos de alta nuestro sitio Web en un buscador y el robot que ingresa las páginas a llegar a el mapa va a seguir todos los vínculos que ahí se encuentra y esto asegura que el motor conozca la existencia de todas las páginas.

Vínculos a nuestro sitio
Otro factor importante que toman en cuenta los buscadores son los sitios que vinculen hacia él nuestro, pero no cualquiera lo más importante o relevantes son aquellos en los que su contenido se relacione con el norte ya que la manera de pensar del motor de búsqueda es si un sitio que tienen contenido de un tema importante y hacen vínculo así a otra página con un contenido relacionado quiere decir que esta información es importante también, por esto debemos tener en consideración la búsqueda de vínculos relevantes hacia nuestro sitio Web ya sea mediante intercambio, colocando o artículos en otra página o haciendo comentarios en blogs.

El contenido
Pues bien hasta el momento hemos visto algunos factores a tomar en cuenta para que nuestro sitio Web se posiciona mejor en los resultados de los motores de búsqueda pero todo esto debe venir acompañado de un buen contenido en nuestro sitio, así que no debemos olvidar ofrecer a los visitantes un contenido rico en información, recursos y servicios y siempre recordando utilizar dentro del contenido palabras relacionadas con el criterio de búsqueda que queremos que nos encuentren en los motores de búsqueda. Te quiero decir con esto veámoslo con un pequeño ejemplo si yo quiero escribir un artículo sobre “mesas” de tomar en cuenta que el contenido debe incluir la palabra Mesa en varias ocasiones, también lo ideal es que la palabra mesa aparezca en esta etiqueta de palabras clave, descripción, título e imagen. Con esto estamos reforzando toda la página para ese criterio de búsqueda.

Y por último y no menos importante debemos ser honestos y evitar hacer trampa para obtener mejores posiciones, a que me refiero con esto al uso de páginas elaboradas sólo por palabras claves y que redirección al artículo conocido también como “cloacking” cual uso de cualquier estrategia para engañar a los buscadores ya que en algún momento está en estrategias fallan y los motores de búsqueda no pueden sancionar.
Autor: César Pietri
optimización optimizacion optimizar buscadores buscador google

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | 1 Comment »

Una página de Cálculo SEO muy interesante…

Posted by diseño web madrid en diciembre 11, 2007

Hemos encontrado una página que me ha dado una serie de herramientas muy interesantes, aquí las dejamos:

http://www.iwebtool.com/tools/

Un saludo.

Posted in Herramientas Posicionamiento | Etiquetado: , , | Leave a Comment »

Encontrar los mejores enlaces para el intercambio.

Posted by diseño web madrid en diciembre 2, 2007

Dar a conocer una página web siempre es tarea difícil y uno de los primeros pasos consiste en lograr que los buscadores indexen adecuadamente el sitio web. Para ello solemos recurrir al intercambio de enlaces con el que no siempre logramos los resultados que esperamos.

En este artículo voy a comentar algunos trucos útiles para seleccionar los enlaces más adecuados para nuestro intercambio y evitar aquellos que puedan ser negativos para nuestra página.

Para encontrar buenos enlaces analiza siempre los siguientes aspectos antes de aceptar o solicitar un intercambio de enlaces.

Busca sitios con contenidos similares a los tratados en tu página. Aunque sobre este punto hay muchas discusiones y no parece que nos pongamos de acuerdo, lo cierto es que los usuarios agradecerán poder acceder a enlaces que sean de su interés y en consecuencia valorarán mejor tu sitio.

Evita los intercambios con páginas con un número excesivo de enlaces salientes. La regla es fácil: Importancia de la página / número de enlaces = importancia del enlace. Por tanto, menos enlaces salientes mayor importancia tendrá tu enlace para el buscador.

Comprueba la cantidad de enlaces entrantes. Un elevado número de enlaces entrantes es buena señal.

Comprueba también el número de páginas que tiene indexadas. A mayor número de páginas indexadas más profundiza Google en el sitio y más alta es la calidad del enlace para agregarlo al intercambio.

Verifica el posicionamiento para las palabras clave de la página. Si el resultado es bueno quiere decir que el responsable del posicionamiento está realizando un buen trabajo y esto también es beneficioso para ti.

Evita los intercambios con páginas que enlazan a páginas penalizadas que podrían perjudicar a tu sitio en un futuro.

Comprueba el código por si incluye enlaces ocultos o etiquetas prohibidas por las que pueda ser penalizado por Google. Evita siempre los enlaces con sitios que intentan engañar a Google.

Otros datos que puedes revisar son el número de visitas y el Page Rank.

No aceptes enlaces mediante scripts o metidos en marcos, redireccionamientos o similares. Los buscadores no siguen estos enlaces por lo que no sirven para dar a conocer nuestro sitio en el buscador.

Siguiendo los trucos descritos lograrás mejores enlaces para tu intercambio. Recuerda que cantidad no es sinónimo de calidad, limita tus intercambios a un número prudencial. Veinte enlaces son más que suficientes para un intercambio optimizado.

Autor: Carlos Bouza
http://www.contenidosgratis.com

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | 1 Comment »

¿Como saber si la página ha sido baneada por GOOGLE?

Posted by diseño web madrid en noviembre 29, 2007

Existen herramientas que nos permiten saber si Google ha banneado nuestra página.

Obviamente antes de usar esta herramienta podemos tener indicios como, que nos bajaron el PageRank a 0, que nos nos venga una mísera visita desde Google, etc, por ejemplo:

El punto mas cercano a conocer si tu web esta baneada es con el comando “site:www.tupaginasospechosa.com” y que no te devuelva ningun resultado.

Pero con Google Banned Tool podemos asegurarnos si estamos banneados o no:

http://www.123promotion.co.uk/tools/googlebanned.php

También hay una herramienta de iwebtool que te puede confirmar que estas baneada:
http://www.iwebtool.com/google_banned

También es bueno darse de alta en webmaster tools Google:
https://www.google.com/webmasters/tools/docs/es/about.html

Utiliza el formulario de reinclusion de las webmaster tools.

Por último, La mejor forma de realizar una solicitud de reinclusión es a través de Google Webmaster Tools. También puedes utilizar Google Webmaster Tools para identificar los problemas tales como redirecciones con javascript, páginas doorway y texto escondido. Librate de todos los problemas antes de solicitar la reinclusión. Incluye en tu petición algo que asegure a Google que no vas a reincidir
Suerte.

Posted in Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

Práctica página de herramientas SEO online…

Posted by diseño web madrid en noviembre 25, 2007

Hoy traemos una página de herramientas SEO Online muy útil y completa.

http://www.tools-live.com/    

Un saludo.

Posted in Herramientas Posicionamiento | Etiquetado: , , | Leave a Comment »

Las verdades y mitos sobre el buscador de Google.

Posted by diseño web madrid en noviembre 12, 2007

Aunque algunos piensan que las respuestas que Matt Cutts, jefe del equipo anti-spam de Google, ha dado en su blog no son interesantes u off-topic, yo pienso que son muy interesantes, ya mas o menos oficialmente corroboran o refutan muchas de las teorías que han estado circulando en el mundo SEO en los últimos meses.

Aquí les presento algunas de las lecturas que he podido interpretar:

Frecuencia de las visitas del googlebot – Confirmado
La frecuencia de las visitas del googlebot para escanear (crawlen) una web depende del valor del PageRank que tiene la página. Cuanto más alto sea el PR, la página será escaneada con más frecuencia.

Profundidad del escaneo de una web depende del PR – Confirmado
Cuanto mas alto sea el PR de una web, el web crawler escaneará la página mas profundamente. El uso de Google Sitemaps no garantiza que una web sea escaneada completamente.

A Google no le gustan las URLs con muchos parámetros – Confirmado
Según Matt, el numero de parámetros que Google le gustan varia ente 1 y 2.

Google no persigue enlaces que están en Flash, JavaScript o Frames – Confirmado
Todas las páginas que sean enlazadas mediante Flash, JavaScript o Frames no pueden ser indexadas. Aquí se deben usar enlaces estáticos.

La etiqueta nofollow es interpretada correctamente por Google – Confirmado
Indica al bot que no siga los enlaces marcados con esta etiqueta. Asi se puede evitar en muchos casos que Google crea que la página es una link farm.

Biggdady es una nueva infraestructura de hardware – No confirmado
Matt habla solo de una nueva infraestructura de software.

El parámetro RK ya no va a ser visible – Confirmado
Este parámetro era usado por las herramientas que mostraban el futuro PageRank. Ahora este parámetro solo va ha mostrar el valor 0.

El Mozilla googlebot es usado por Bigdaddy – Confirmado
El googlebot con el user-agent Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) es usado por Bigdaddy para escanear las páginas.

Proyectos en varios idiomas deben usar subdominios o dominios propios – Confirmado
Cuando el numero de páginas es pequeño, se pueden usar subdominios, como por ejemplo es.mi-dominio.com o en.mi-dominio.com En caso de que el número de páginas sea grande, se deben usar dominios propios como por ejemplo mi-dominio.es o mi-dominio.us

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , | Leave a Comment »

¿Que es y para que sirve un sitemap?

Posted by diseño web madrid en septiembre 20, 2007

¿Que es y para que sirve un sitemap?

El posicionamiento en buscadores de los sitios que diseñamos y realizamos tiene una enorme importancia en un entorno muy competitivo como la web de hoy. De este aspecto depende muchas veces el éxito o fracaso del sitio.

En el mundo del diseño web, el posicionamiento en los buscadores de los sitios que realizamos ha ganado una enorme importancia. Una medida de ello es la cantidad de tiempo y esfuerzo que dedicamos a optimizar los sitios primero y a conseguir buenos enlaces entrantes después.

Un requisito básico para que todo ese empeño rinda frutos es lograr que todas las páginas del sitio estén correctamente indexadas en los motores de búsqueda. Esto ocurrirá siempre y cuando los crawlers (arañas) de los buscadores importantes visiten e indexen esas páginas con la periodicidad adecuada y sin omitir ninguna.

Aún sin recurrir a ningún procedimiento extra, las arañas relevan las páginas de los sitios web simplemente siguiendo los enlaces (a menos que estos incluyan el atributo “no-follow”), pero hay más cosas que pueden hacerse. Una buena estrategia consiste en suministrar a los buscadores una “lista” de las páginas que nos interesa que se indexen, junto con alguna información adicional que haga la visita más eficaz. Concretamente, eso se logra mediante el uso de Sitemaps.

Un sitemap es un archivo XML que contiene una lista de las páginas del sitio junto con alguna información adicional, tal como con qué frecuencia la página cambia sus contenidos, cuándo fue su última actualización y qué tan importante es respecto al resto de las páginas del mismo sitio. La construcción del archivo XML debe seguir una serie de pautas especificadas en el protocolo de sitemaps, que describimos a continuación:

Contenidos obligatorios del sitemap
El protocolo Sitemap se construye en base a etiquetas XML (Tags) incluidas en un archivo con codificación UTF-8.

Los valores de datos (por contraposición a las etiquetas mismas) deben utilizar códigos de escape para ciertos caracteres especiales, tal como se acostumbra en HTML.

Por ejemplo, las comillas dobles (“) deben ser reemplazadas por &quot; y los signos menor (<) y mayor (>) por &lt; y &gt; respectivamente.

El archivo XML debe:
Comenzar con una etiqueta de apertura y terminar con una de cierre
Especificar el protocolo estándar al que responde dentro de la etiqueta de apertura (ver en el ejemplo)
Incluir una entrada por cada dirección URL (que corresponderá a cada una de las páginas del sitio) como nodo XML padre.
Incluir un nodo XML hijo para cada dirección URL (cada nodo XML padre ).

Resumiendo estos aspectos en un ejemplo (sitio con dos páginas):

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<url>
<loc>http://www.misitio.com/</loc&gt;
</url>
<url>
<loc>http://www.misitio.com/contacto.htm</loc&gt;
</url>
</urlset>

Contenidos opcionales del sitemap
Cada nodo <url> padre puede contener (además del nodo <loc> hijo obligatorio) cierta información adicional útil para que el proceso de indexación se realice más inteligentemente. Los nodos opcionales, aunque importantes, son:

<lastmod>Fecha</lastmod>
Se refiere a la fecha de la última modificación de la página que figura en

<changefrec>Frec</changefrec>
Se refiere a que tan a menudo cambia la página que figura en <loc> y será un dato que indicará a la araña con qué frecuencia volver a visitar el sitio. Es un valor orientativo, por lo que no quiere decir que deba cumplirse forzosamente.

Frec puede tomar alguno de los siguientes valores: always (siempre, para páginas que cambian cada vez que se muestran. Típicamente, las dinámicas), hourly (a cada hora), daily (diariamente), weekly (semanalmente), monthly (mensualmente), yearly (anualmente) o never (nunca, típicamente para páginas archivadas).

<priority>Valor</priority>
Se refiere a la importancia que tiene la página que figura en <loc> respecto de las demás que componen el sitio. Es simplemente una manera de indicar prioridades relativas dentro del sitio, sin ningún efecto hacia el exterior del mismo.

Valor puede tomar valores entre 0 y 1. El valor por defecto es 0.5

Volviendo al ejemplo anterior y agregando los atributos opcionales:

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<url>
<loc>http://www.misitio.com/</loc&gt;
<lastmod>2006-11-20</lastmod>
<changefrec>monthly</changefrec>
<priority>0.8</priority>
</url>
<url>
<loc>http://www.misitio.com/contacto.htm</loc&gt;
<lastmod>2006-08-01</lastmod>
<changefrec>yearly</changefrec>
<priority>0.3</priority>
</url>
</urlset>
El archivo XML así construido se aloja en el servidor como un archivo más del sitio, con la salvedad de que puede contener las URL contenidas en el mismo directorio en que se encuentra o en otros contenidos en él.

Por ejemplo, si ubicamos el archivo sitemap.xml en el directorio ejemplo.com/catalogo/ no podrá incluir URLs que se encuentren en ejemplo.com/ Por esta razón se recomienda enfáticamente colocar sitemap.xml directamente en el root del sitio.

A partir de este punto solo queda enviar el sitemap a los buscadores, que generalmente disponen de una página específica para aceptarlo.

Hace unas semanas, Yahoo, Google y Microsoft llegaron a un acuerdo (detalle poco común entre estas empresas) para que el formato Sitemaps 0.90 fuera el aceptado en sus motores de búsqueda.

A través de Google Webmaster Tools o de Yahoo Site explorer podemos proporcionarles la información de nuestro sitemap.
Autor: Fernando Campaña
http://www.maestrosdelweb.com/editorial/sitemap/
 

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , | Leave a Comment »

La Indexación, ¿Qué es?

Posted by diseño web madrid en septiembre 12, 2007

¿Qué es?

La indexación es el proceso por el que el buscador va rastreando el sitio y va incorporando a su base de datos esas el contenido de esas URLs.

¿Es importante?

Es MUY importante. La indexación es lo único que puede hacer que tu web, tu trabajo pueda aparecer en Google, toda página que el robot no haya rastreado ni indexado no figurará en los resultados.

Los ojos de un robot

Los buscadores poseen un robot que es una especie de programa que se dedica a rastrear las webs e incorporar lo que cree interesante a la base de datos de su buscador, tanto para indexar nuevas webs como para actualizar los contenidos de su base de datos.

Facilitar la indexación: lo básico

Los buscadores no indexan todo lo que recorren, sólo indexan lo que creen oportuno. Para mejorar nuestra indexación hay que conseguir que los robots pasen a menudo por nuestras páginas por lo que a más pasadas que de más probabilidades de que las acabe indexando. Para aumentar la frecuencia de paso de los robots por nuestra web hay que conseguir links entrantes y actualizar a menudo nuestra web.

Otras ayudas para la indexación
URLs dinámicas

Para facilitar la indexación se puede empezar por evitar o arreglar las variables en las URLs (URLs dinámicas) que por ejemplo puede generar el PHP. Estas variables hacen que el script muestre una u otra información en función de estas variables y a todos los efectos se consideran páginas diferentes. Variables en la URL serían por ejemplo esta:
http://www.davilac.net/foro/index.php?board=4.0
Generada en este caso por un script como el SMF, donde se ve que la variable se llama board y su valor es 9.0, y se aplica sobre el archivo index.php. En este caso hay sólo una variable, pero hay muchos otros casos donde aumentan más el número de variables, dificultando cada vez más la indexación, ya que si bien los buscadores pueden indexar páginas con varias variables, les es más fácil si no las tuviese. Para servidores que corran sobre Apache existe un mod llamado mod_rewrite que sirve para reescribir URLs, mediante el cuál y con un fichero .htaccess se puede convertir esa URL a ojos de los buscadores en esta:
http://www.davilac.net/foro/index.php/board,4.0.html
Más atractiva a los ojos de los buscadores. Consulta tu hosting para averiguar sobre la disponibilidad de este módulo. Ten en cuenta que muchos scripts conocidos incorporan módulos y sistemas para convertir URLs dinámicas en estáticas, por lo que te evitarás el trabajo a veces de hacerte tu propio sistema.

Google Sitemaps

Aparte de esto existe para Google un servicio llamado Google Sitemaps que está dando muy buenos resultados en cuánto a mejorar la indexación. Para aprender más ves al tema en el foro, donde también recibirás ayuda para hacerlos y podrás preguntar lo que desees.

Robots.txt

El robots.txt es un fichero destinado al uso de los buscadores. Mediante el uso de este fichero el encargado de la web le ordena a los buscadores ciertas cosas, como prohibirles el acceso a ciertas carpetas o ficheros para evitar que los buscadores los indexen o prohibirles un excewsivo acceso a la web, por ejemplo. En todo caso la existencia de este fichero en nuestro servidor no mejorará ni nuestra indexación ni posiciones.

El uso inadecuado de este fichero puede provocar desastres en nuestras posiciones en Google..

Autor: Davilac
http://www.davilac.net/web/posicionamiento/tutorial/indexacion/index.php

Posted in Artículos Posicionamiento, Preguntas SEO | Etiquetado: , , | Leave a Comment »

¿Quieres optimizar tu web? toma nota de …

Posted by diseño web madrid en agosto 25, 2007

Publicidad
var adlink_randomnumber=Math.floor(Math.random()*1000000000000); document.write(”);

1. No utilice palabras clave en el dominio. Elija un nombre de dominio fácil de asociar con la marca, pero no utilice una palabra clave en el dominio. Los dominios que utilizan la palabra clave están desfasados. Los motores de búsqueda devalúan las palabras claves cuando están situadas en un nombre de dominio.

2. Anime a Google a conocer su página. Si envía su sitio web al buscador desde la propia página de Google, utilizando el enlace “todo acerca de Google”, lo habitual es que el robot del buscador visite su página una vez al mes.

3. Tenga paciencia hasta que su página lleve tiempo operativa en Internet. Google valora el tiempo que su página ha estado almacenada en su base datos. Si el buscador lleva un año viendo su página en Internet tendrá más posibilidades de estar en los primeros puestos de los listados, cuando se trate de una página bien estructurada.

4. Seleccione sus palabras claves. Escoja una serie de palabras que identifiquen su negocio. Esas palabras deben figurar en el título de la página, en el contenido de la home y en las urls. Las palabras claves deben estar integradas en frases o en párrafos completos. La densidad de las palabras claves no debe superar entre el 5% y el 20% del total de palabras.

5. La actualidad es prioritaria. Añada una página de contenido de calidad al día. Google reconoce la calidad de los contenidos. Valora las páginas en permanente actualización.

6. La velocidad es importante. Su página debería de responder casi de forma instantánea a la petición de un usuario. Google lo valora. El sitio debería responder en un máximo de tres segundos a cualquier petición.

7. La ortografía puntúa. La comprobación de la ortografía es cada vez más importante en la medida que los motores utilizan autocorrectores durante las búsquedas.

8. No abarrote su sitio con elementos como “contadores” o “añadir a favoritos”. Las páginas deben ser sencillas y directas. Elimine toda la información superflua. Evite páginas con apariencia multitudinaria.

9. Los enlaces cruzados funcionan, pero no con todo el mundo. Haga un par de links desde cada página a terceras páginas con un pagerank alto, utilizando la palabra clave en el texto del enlace. Es un truco denominado links cruzados que consigue excelentes resultados de posicionamiento. Intercambiar vínculos con otros sitios es útil, pero tenga en cuenta que no merece la pena establecer links con páginas que carecen de interés.

Un saludo.

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | 2 Comments »

GOOGLE: objetivos del diseño.

Posted by diseño web madrid en agosto 10, 2007

Hacia 1994 se pensaba que un índice completo de un motor de búsqueda permitiría encontrar cualquier documento de forma fácil, siempre que todos los documentos se encontraran incluidos en la base de datos. Sin embargo, pocos años después, la Web puede considerarse muy diferente en tanto que cualquier persona que lleve a cabo una búsqueda puede atestiguar fácilmente que lo completo que se encuentre el índice no implica necesariamente una alta calidad en los resultados de la búsqueda, de hecho, por desgracia se encuentra mucha más “basura documental” que documentos vinculados con nuestras necesidades de información. Incluso resulta difícil encontrarlos entre los veinte primeros documentos recuperados y la mayor parte de los usuarios no suelen pasar de esos primeros veinte documentos en sus operaciones de consulta (incluso algunos motores de búsqueda sugieren que en caso de no encontrar nada en ese rango procedamos a modificar nuestra ecuación de búsqueda). Es por ello que el objetivo primordial de diseño de Google no es otro que mejorar estos índices de precisión en la recuperación de la información y, además, mejorar la presentación de los documentos recuperados de manera que, los primeros sean los más directamente relacionados con las necesidades de información planteadas por los usuarios. 

Destacan dos grandes características, en primer lugar hace uso de la conectividad de la Web para calcular un grado de calidad de cada página, esta graduación se denomina “PageRank” (coincide con el nombre del algoritmo de ranking empleado por este motor).

En segundo lugar, Google utiliza esta propia capacidad de conexión de los documentos webs para mejorar los resultados de búsqueda. Pagerank asume que el número de enlaces que una página proporciona tiene mucho que ver con la calidad de la misma, es por ello que este algoritmo se puede resumir de la siguiente manera:

“Si una página A tiene T1….Tn páginas que apuntan a ella por medio de algún enlace (es decir citas). El parámetro d es un factor que se puede fijar entre 0 y 1 (generalmente se fija en 0.85) . Sea C es número de enlaces que salen de la página A. Entonces, el PageRank de la página A vendrá dado por la expresión: PR = (1-d) + d(PR(T1)/C(T1) + ….. + PR(Tn)/C(Tn))”

Este cálculo puede realizarse por medio de un simple algortimo iterativo y corresponde al vector propio de una matriz normalizada de enlaces en la Web. PageRank puede ser pensado como un modelo del comportamiento del usuario. Si asumimos que hay un “navegante aleatorio” que pasa de una página a otra sin presionar nunca el botón de “back” y que, eventualmente él nunca se aburriera, la probabilidad de que este navegante visitara nuestra página es precisamente su PageRank. Es decir, se trata de un modelo basado en los enlaces de las páginas pero que pretende representar la forma de trabajar de los usuarios. Otra justificación intuitiva de PageRank es que una páigna puede tener un alto coeficiente de PageRank si existen muchas páginas que apuntan a ella, o si hay un número algo menor de páginas que apuntan a ella pero que posean, a su vez, un alto nivel de PageRank. De forma intuitiva, aquellas páginas muy citadas son páginas que vale la pena consultar y, en cambio, aquellas que sólo posean un enlace son páginas de poco interés para su consulta.

Hemos visto, a un nivel muy general, cómo busca información Google, vamos ahora a estudiar, también a un nivel muy general, cómo localiza la información. Para ello debemos recordar que el objetivo de la búsqueda no es otro que proporcionar una alta efectividad, y que el usuario lo primero que percibe es la precisión de los resultados de la búsqueda. El proceso de evaluación de la pregunta que lleva a cabo Google es el siguiente:

1. Descomposición (parsing) de la pregunta.
2. Conversión de las palabras a wordIDS (identificadores de palabras)
3. Localización de la posición de cada palabra en el barril de almacenamiento
4. Exploración de las listas de documentos hasta localizar un documento que contenga todos los términos de búsqueda
5. Cálculo del rango de este documento para esta pregunta
6. Una vez llegados al final del barril de almacenamiento, se vuelve al inicio repitiendo los pasos 4 y 5 para cada palabra de la ecuación de búsqueda
7. Una vez calculados todos los rangos, procede ordenarlos de mayor a menor y presentarlos al usuario.

Aunque se trata del motor de búsqueda de moda y pasa por ser el más completo de todos los que funcionan hoy en día en la Web, ya encontramos aportacines de algunos autores que critican parcialmente el diseño de Google y propugnan otros diseños más eficientes según su punto de vista. Este es el caso de Zhang y Dong (7) quienes propugnan diseñar los algoritmos de ranking a partir de la sinergia de las siguientes métricas:

Relevancia: métrica empleada por la mayor parte de los motores de búsqueda basados en el modelo del espacio vectorial. Mide la distancia entre el contenido de un recurso web (r) y una pregunta de un usuario cualquiera (q).
Autoridad: cuántos recursos webs poseen enlaces al recurso r.
Integración: mide cuántos recursos webs son enlazados por el recurso r
Novedad: en qué grado el recurso r es diferente de otros y proporciona información nueva

Por ZASQWAS.

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Optimización Web – los 4 aspectos básicos.

Posted by diseño web madrid en agosto 5, 2007

Es una estrategia de SEO, por lo que debemos controlar 4 aspectos básicos como es:

  1. El análisis de las palabras clave.

  2. Las acciones de optimización del código del sitio web.

  3. Acciones de optimización fuera del sitio web.

  4. El seguimiento de resultados y reajustes.

Análisis de palabras clave.
Este primer paso se debe llevar a cabo con mucho cuidado, ya que una mala selección de palabras o frases clave pueden provocar menos visitas. Sin embargo sí una palabra o frase está bien seleccionada va a optimizar nuestra web obteniendo un mayor tráfico hacia nuestro sitio web. Lo cual significa que nos visitarán personas que verdaderamente quieren ver el contenido que ofrece nuestra pagina web. La selección puede ser de una sola palabra, dos palabras o frases de 3 o más palabras.

Una correcta Optimización Web, consiste en generar una desindad del 3 al 5%. Así la densidad de palabras o frases dentro de la página web, es la clave prinicipal para una correcta Optimización Web, ya que un porcentaje menor implicaría bajar posiciones y un porcentaje mayor podría ser catalogado como Spam, lo que implica ser empujado a las últimas posiciones.

Acciones de optimización del código del sitio web.
Los términos (palabras clave) deben aparecer en los textos, y mejor si es en negrita o con etiquetas de titular. Las palabras clave deben ser lo más buscadas posible pero también lo más específicas, y que haya una concordancia clara entre lo que el usuario está buscando y lo que le ofrecemos. La situación ideal se optimiza así: una palabra clave, una página dedicada.

Debemos asegurarnos de que permitimos el acceso al sitio web a los robots o spiders mediante el archivo robots.txt. De esta forma conseguimos que se indexe la web completa.

También es imprescindible que la palabra que queramos posicionar esté en la etiqueta Title . Si tenemos varias páginas dentro de un sitio web, cada una deberá llevar su correspondiente Title.

Por lo general se suele decir que Google no tiene en cuenta las etiquetas . Pero lo cierto es que no es así, ya que podemos ver en ocasiones extractos de texto de estas etiquetas en las páginas de respuesta. También las etiquetas semánticas “h1” nos aportan un valor añadido.

En cuanto a la estructura del texto; éste debe contener las palabras clave a lo largo del texto sin forzarlas, y es conveniente que aparezcan en el primer párrafo.

Por todo ello, a la hora de desarrollar la estrategia de optimización debemos pensar siempre en que el usuario pueda leer lo mismo que el robot de búsqueda. Así el usuario no se va a sentir defraudado con el buscador y además encontrará nuestra página web. Por tanto, el contenido y las palabras clave que se optimicen deben estar relacionadas temáticamente.

Acciones de optimización fuera del sitio web.
Se debe tener en cuenta el PageRank , que es el cálculo basado en el número de páginas que apuntan a una página. Un enlace de una página vale más si ésta a su vez recibe muchos enlaces. Se tienen en cuenta unos 100 factores, pero los enlaces son el principal, debido a la estabilidad de los resultados a largo plazo.

Factores de PageRank que valora Google:
El formato del texto.
La densidad de la palabra de consulta en título y body.
Presencia de la consulta de URL.
Texto de los enlaces que apuntan a la página.
Número de enlaces que recibe la página.
Existen diversas técnicas conocidas para obtener enlaces de interés, como es el netweaving , se trata de la creación de redes de enlaces. Y es una de las mejores maneras de asegurarse buenas posiciones y un alto PageRank.

Seguimiento de resultados y reajustes.
Cualquier proyecto de optimización necesita un seguimiento. Por lo que hay que evaluar los progresos obtenidos, de forma que podamos saber sí estamos avanzando hacía la dirección correcta; conocer si obtenemos accesos desde palabras clave que no habíamos posicionado de forma intencionada; así como ver sí no estamos logrando los resultados previstos, de forma que todo aquello se pueda cambiar. La optimización en buscadores es un proceso lento pero seguro. Por mucho que mejoremos la página o cambiemos cosas en el código, etc., no obtendremos resultados a corto plazo. El robot nos debe visitar a nosotros, pero también a todos los demás competidores, rehacer sus cálculos y reestablecer el PageRank de cada página. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

20 Factores que influyen en la optimización web.

Posted by diseño web madrid en julio 29, 2007

Existen una serie de factores directos como la tipología de búsqueda, la popularidad de la página, el formato, el perfil de los usuarios, entre otros; y unos factores indirectos como la estructura, la accesibilidad, usabilidad y credibilidad; para ser valorados por los buscadores tanto de forma positiva como negativa.

Factores directos:

  1. Palabras clave al principio y al final de la página.
  2. IDF, medida que depende del tamaño del documento.
  3. La búsqueda booleana con OR suele beneficiar al que más palabras diferentes tiene.
  4. Clusters de conceptos asociados.
  5. Tamaño de la página, cuanto más pequeña mejor.
  6. URL con los términos de búsqueda.
  7. Posición de los términos de búsqueda al principio.
  8. Proximidad de los términos de búsqueda en el texto.
  9. Título, presencia del término de búsqueda en el título.
  10. Presencia de las frases de búsqueda en las frases del documento.
  11. Crear nuestras páginas escribiendo el código “a mano” y comprobar que el código no tenga tags abiertos o incorrectos.
  12. Factores indirectos, que bajan la popularidad:
  13. Usabilidad:
    Poner una página de bienvenida.
    Páginas con muchos colores, sin claridad, sin contrastes.
    No poner las conclusiones al principio, ni escribir de forma esquemática.
    Se valora: la facilidad de aprendizaje, de recuerdo, la eficiencia del usuario, la tasa de errores y satisfacción.
  14. Accesibilidad:
    Presentaciones flash.
    Páginas dinámicas. Actualmente sólo algunos buscadores son capaces de indexar las páginas con contenidos creados dinámicamente, por lo que se considera problemático en cuanto a la optimización en buscadores .
    Todo lo que afecta al tiempo de descarga.
    No poner barreras al público (invidentes, daltónicos,etc.)
  15. Contenido:
    Evitar palabras no específicas del contenido, texto subjetivo, metáforas, sin juegos de palabras, etc.
    Estructurado: párrafos cortos, páginas cortas, subtítulos informativos, etc.
    No dividir un mismo texto en páginas con “continuación”.
    Redacción del texto breve.
  16. Credibilidad:
    Estudia como se relaciona la credibilidad y el nivel de compromiso, enlaces recibidos-ofrecidos y diseño web.
    Depende de la mención de autoría, de la institución, de la política de confidencialidad, y de la fecha de actualización.
  17. Credibilidad positiva:
    Prestigio de la organización que avala el sitio.
    Rápida respuesta.
    Actualización reciente.
    El sitio parece diseñado por profesionales.
    La usabilidad es correcta.
    Internet invisible.
  18. Credibilidad negativa:
    Dificultad para distinguir los anuncios del texto.
    Falta de actualización.
    Enlaces erróneos u obsoletos.
    Falta de usabilidad.
  19. Legibilidad:
    Selección de colores con contraste
    Alinear a la izquierda.
    No usar tablas anidadas.
  20. Hoja de estilo:
    El formato es recomendable en hojas de estilo.
    No usar más de dos fuentes.
    La página debe ser legible aunque desaparezca la hoja de estilo. Lee el resto de esta entrada »

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Conoce todos los secretos SEO con BRUCE CLAY.

Posted by diseño web madrid en julio 14, 2007

Visita la página en la dirección:

http://www.bruceclay.com/

Muy recomendada. En Inglés.

Posted in Artículos Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

TÉCNICAS PARA UN BUEN POSICIONAMIENTO EN LOS BUSCADORES.

Posted by diseño web madrid en julio 12, 2007

En una columna escrita por Mike Greham, vicepresidente de desarrollo de negocio internacional de Bruce Clay inc., para Clickz, se dan algunos consejos para conseguir un buen posicionamiento en buscadores.

En primer lugar, hay que concienciarse de que Google no es el único buscador de la red. También hay que contar con Yahoo! y MSN, ya que ambos tienen planes de incorporar el sistema de posicionamiento SERP. Lo que sí es cierto, es que Google es el que hace los posicionamientos más interesantes con sistemas como por ejemplo FeedBurner.

El que los buscadores incorporen nuevas tecnologías para efectuar sus posicionamientos es una gran noticia, no sólo para los bloggers, sino también para los podcasters. Google será capaz de detectar, con una gran serie de parámetros basados en datos y analíticas, todos los blogs y podcasts de audio y vídeo. También podría integrar esos elementos en la tecnología SERP, al igual que hace con los resultados normales.

Cómo conseguir un buen posicionamiento
Un documento RSS 2.O usado para los blogs y podcast contiene un espacio de programación: ése es el lugar indicado. Lo que hay que hacer es llenarlo con palabras clave e información relativa al contenido de la página en cuestión.

Como ocurre con una página creada mediante lenguaje HTML, el podcast también tiene un title-tag. El texto que se expone en ese espacio explica con exactitud qué es lo que contiene el podcast. En ese lugar se encuentra un enlace ideal para conectar con otras páginas web. Además, existe, a la hora de subir la web, una descripción con algunas palabras clave que será la que se utilice a la hora de realizar los posicionamientos en los buscadores.

Quizá la entrada más importante al canal del posicionamiento es pubDate. Esta entrada indica la última vez que el documento fue renovado. Los contenidos frescos propios de los blog y podcast no suelen tener esta tecnología a punto. Hay que estar seguro de que el pubDate funciona correctamente para entrar en los posicionamientos.

De todos modos, si se es nuevo a la hora de publicar un podcast o un blog que se quiere que tenga repercusión, lo ideal es comenzar con un tutorial de inicio adecuado sin reparar en gastos. No es bueno tener un blog si luego nadie va a entrar en él.

Posted in Artículos Posicionamiento, Marketing en Internet, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

PPC o SEO ¿cuál es el equilibrio correcto?

Posted by diseño web madrid en julio 3, 2007

Hasta ahora las campañas de pago por clic habían sido las estrellas en los departamentos de marketing. Con la entrada del SEO todo el mundo se ha embarcado en intentar optimizar la web en ese sentido pero ¿dejo de usar el PPC? ¿qué cosas buenas tiene cada método? ¿son métodos compatibles?

…………………………………………………
Ventajas del PPC (Pago por Clic)

Más rápido. Los listados de PPC aparecen mucho más deprisa, habitualmente en pocas horas (o días si se requiere la revisión de un editor)
Más flexible. Las creatividades y las pujas son fácilmente modificables o desactivables en cualquier periodo de tiempo. Los resultados generados por SEO pueden tardar semanas o meses en ser conseguidos
Más predecible. Tráfico, ranking, retorno y costes tienden a ser más estables y predecibles que en SEO. Es inmediatamente contabilizable, en términos de ROI, mientras que la evaluación del SEO puede llevar mucho más tiempo.
Más directo para conseguir posiciones altas. Solo se tiene que pujar más que el competidor (aunque Google además tiene en cuenta la calidad del anuncio).
Más automático. Los sistemas de puja pueden ayudar a predecir los costes/beneficios relacionados, al usar filtros para controlar las pujas en los ratios de conversión para conseguir un apropiado coste por venta.
Efecto Branding. Parece existir un efecto Branding con el sistema de PPC, incluso sin que los usuarios lleguen a hacer clic en el anuncio.

…………………………………………………
Desventajas del PPC

Muy competitivo. A medida que el PPC ha incrementado su popularidad como sistema efectivo de publicidad online, y dado que se basa en un sistema de pujas, se está haciendo cada día más caro al fomentar la competición entre anunciantes. Tan caro que ciertas palabras clave son objeto de guerra de pujas, llegando a un coste por clic solo apto para grandes anunciantes.

Complejidad en la gestión de grandes campañas. PPC requiere conocimientos de configuración, de las opciones y del control de las pujas en los sistemas de anuncios. Gestionar una cuenta de PPC puede requerir, para ser competitivo, un control de las pujas diario o incluso por horas.

Ventajas para los grandes actores. Empresas con un bajo presupuesto o con pocos productos les es imposible competir con los grandes. Además los grandes actores pueden llegar a mejores acuerdos mediante sus agencias.

Clic Fraud. Sigue siendo visto por muchos como un problema.

…………………………………………………
Ventajas del SEO (Search Engine Optimization)

Los costes son fijos. Independientemente del volumen de tráfico que se atraiga. Además estos costes tienden a descender una vez se realiza la optimización inicial para acometer una fase más de mantenimiento
Bajo coste. Si el SEO es efectivo casi siempre dará un bajo coste por clic a largo plazo.

Más atracción. Los estudios revelan que los usuarios hacen clic muchísimo más en los listados naturales que en los de pago, siendo una proporción habitual que el 60% de las búsquedas provengan de los listados orgánicos.

No se le paga al buscador. Solo se paga el esfuerzo en SEO, se evita la puja con otras empresas competidoras.

…………………………………………………
Desventajas del SEO

Más esfuerzo inicial. SEO requiere trabajo técnico complejo a largo plazo en la página a optimizar, reestructuración del site y gestión de enlaces (link-building), que puede tardar meses en ser implantado y en obtener resultados.
Técnicas fraudulentas. Es posible que muchos de los competidores utilicen estas técnicas para situarse por encima del resto, a riesgo de ser penalizados pero perjudicando a la competencia.

Competitividad. Aunque no se puja por palabras clave como con el PPC si que es verdad que se compite por las mismas palabras, ganando el que mejor técnicas aplique para “gustar” al buscador. En ese sentido cuanto más competitivo sea el sector más difícil será conseguirlo.

Falta de control. Se depende de los algoritmos de los buscadores. Estos al estar siendo continuamente modificados requiere un trabajo de SEO constante, además de saber responder a estos cambios.

Falta de predicción de resultados, posición en los buscadores, volumen de tráfico adquirido y retorno de la inversión ya que no se puede saber como cambiarán los algoritmos de los buscadores.

Alto nivel de conocimiento tanto a nivel técnico (para realizar ingeniería inversa sobre los algoritmos sin caer en técnicas fraudulentas) como a nivel contenidos (para encontrar el equilibrio entre el contenido hecho para los usuarios y para el buscador)

…………………………………………………
¿Cuál es el equilibrio entre PPC y SEO?

Una de las estrategias seguidas para sacar el máximo de ambas disciplinas es:

Aplicar SEO para palabras clave muy buscadas o populares, con muchas impresiones pero poca conversión y por tanto normalmente muy caras.

Aplicar PPC para el resto de palabras cuya puja tiende a ser baja y su número muy alto (impracticable para SEO llegar a tantas palabras).

Posted in Artículos Posicionamiento, Preguntas SEO | Etiquetado: , , , , , | Leave a Comment »

¿Por qué hablamos de PageRank™ antes que de Relevancia Web?

Posted by diseño web madrid en mayo 20, 2007

Porque desconocemos el potencial de nuestro sitio web. Porque no entendemos que antes de conseguir enlaces debemos preguntarnos que ofrecemos. Porque no sabemos mirar a nuestro sitio como nuestro negocio.

/noticias.info/ A la hora de establecer una estrategia de posicionamiento web para una empresa, debemos tener en claro, como mínimo, tres cosas:

– Hay que generar links entrantes.
– Hay que crear una estructura web altamente indexable.
– Pero antes que estos dos puntos, hay que tener un claro producto que vender y una estrategia de marketing online adecuada para ello.

Este último punto opera como un requisito fundamental para comprender y empezar a utilizar la red en todo su potencial.
Internet es un nuevo canal de comercialización que está entrando a su etapa de madurez. Es momento que las empresas empiecen a tomar decisiones importantes con respecto al futuro de su negocio y la relevancia de controlar las nuevas tecnologías. Disponer de un simple sitio web ya no supone ninguna estrategia publicitaria. Una correcta estrategia online hoy es la que busca integrar en Internet todos los procesos publicitarios y comerciales de su negocio.
Debe partirse de concepto mucho más agresivo y que solo puede ser sostenido desde una eficiente y perdurable acción de marketing online.

Esto se traduce en un axioma innovador: una web necesita de contenido creativo permanente.
Recién a partir de aquí es donde evaluaremos como será la estructura web más óptima y a donde iremos a buscar links entrantes.

Una teoría proactiva: Su web es negocio.

Un approach teórico al marketing online actual se presenta como un recurso necesario para comprender y utilizar la red en todo su potencial.

Posted in Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | Leave a Comment »

Buscadores: El fin del viaje gratis.

Posted by diseño web madrid en abril 22, 2007

Cuando el Nasdaq manda y los accionistas presionan para conseguir llegar al umbral de la rentabilidad y generar los “números negros” en las empresas punto com, los modelos de negocio se replantean.

Los buscadores que están en constante cambio no son ajenos a esta dinámica. Si ha gestionado el alta en los principales buscadores recientemente, habrá observado que muchos de los más importantes directorios y motores de búsqueda están en este momento cobrando por el alta de los sitios web. Lo que antes era totalmente gratis, puede costarnos en la actualidad 199 dólares, y este precio no supone una clasificación en los primeros puestos de estas herramientas de búsqueda, sino simplemente ser indexado en el buscador. Lo crea o no alguno de ellos le pedirá este dinero garantizándole sólo que su sitio será revisado, pero no asegurándole la inclusión en el directorio. Veamos cuales han sido los pasos que han seguido los principales actores de este mercado:

  1. Excite. Al gestionar las altas, estas se incorporan también a la red de LookSmart, que contiene buscadores asociados como Altavista, MSN, WebCrawler y Magellan.
    Ofrece tres niveles de registro de altas. El registro express, que garantiza la revisión de nuestro sitio en dos días laborables al precio de 199 dólares. El registro básico, con un coste de 99 dólares pero con un retraso en la revisión de nuestro sitio de aproximadamente ocho semanas. Excite continúa ofreciendo un servicio gratuito, pero sin garantizar los resultados.
  2. Altavista. Tal y como a uno de los socios de la red LookSmart corresponde, mantiene los mismos precios que Excite. Coste de 199 o 99 dólares y la posibilidad de la inclusión gratuita sin garantía.
  3. Hotbot. El alta en este buscador incorporará nuestro site a la base de datos de Inktomi, con la que está asociado. Otra forma de aparecer en este buscador es enviar nuestro sitio al “Open Directory Project”. Las altas siguen siendo gratuitas.
  4. Open Directory Project. Una buena razón para aparecer en este directorio es el gran número de buscadores que se alimentan de sus contenidos, como AOL o Hotbot. Recordemos que es un directorio y por lo tanto las altas son revisadas por personas. Cuando realicemos el alta necesitaremos encontrar la categoría apropiada, y nuestro registro será revisado por personal especializado en la misma. Las altas siguen siendo gratuitas.
  5. Northern Light. Este veterano de la Red, continúa igual después de tantos años; no exige un pago por las altas pero mantiene el enlace para realizarla muy escondido.
  6. Lycos. Alta gratuita, pero puede tardar dos o tres semanas hasta que nuestro sitio sea incorporado.
  7. Yahoo.com. El rey de los directorios no acepta más altas gratuitas de sitios comerciales. El alta Business Express nos costará 199 dólares y si nuestro sitio tiene una orientación para adultos, 600 dólares por el privilegio de aparecer en su base de datos. Los sitios son revisados tras siete días y no se garantiza la inclusión en el directorio tras su revisión.
    No debemos confundir el directorio de Yahoo, ordenado por categorías y subcategorías, con el motor de búsqueda al que se accede a través del formulario de búsqueda donde introducimos las palabras clave, que utiliza la base de datos de Google.
  8. Google. Alta gratuita sin garantía de que nuestro sitio sea indexado en la base de datos.
  9. Ask Jeeves. Este buscador permite a los usuarios las búsquedas en lenguaje natural, o formulando preguntas. Al ser mantenido por personas es necesario enviar el sitio web por correo electrónico, incluyendo la dirección URL y una breve descripción. Le sugerimos que además incluya alguna pregunta que la gente suela formular para encontrar sitios como el suyo. No se garantiza la inclusión.
  10. Terra. El portal más visitado de España mantiene su propio directorio ordenado por categorías y subcategorías al estilo de yahoo, en el que nos podemos dar de alta de forma gratuita. Requiere encontrar la categoría adecuada para ubicar nuestro sitio y dependemos de un proceso de revisión humano para ser o no aceptado. No se aceptan páginas con contenido para adultos. Terra mantiene un servicio de pago (1,2,3) para la aparición de un sitio en los primeros puestos. Esta opción fue incorporada en Altavista hace dos años, aunque tuvo que retirarse tras las numerosas críticas de los usuarios del motor de búsqueda.

Autor: Marketalia
http://www.marketalia.com/articulos/000021.html

Posted in Artículos Posicionamiento, Noticias Buscadores | Etiquetado: , , | Leave a Comment »

Posicionamiento web en Google: 8 verdades:

Posted by diseño web madrid en febrero 15, 2007

Aquí te presentamos un pequeño manual de posicionamiento web en Google. Con él podrás conseguir aparecer en las primeras posiciones de los resultados. Recuerda que solamente podrás ser la primera posición si te esfuerzas mucho.

El posicionamiento en buscadores se ha convertido en los últimos tiempos en una de las herramientas más cotizadas por los webmasters. En particular, aparecer en las primeras posiciones en Google es algo indispensable si quieres generar tráfico hacia tu sitio web, ya que Google responde a casi el 60% de las búsquedas de Internet.

El tutorial que te proponemos te ayudará a conseguir un buen posicionamiento web, pero no esperes resultados en unos días, ni en unas semanas, ni quizá en meses. Se trata de un trabajo constante -generando contenidos, optimizando páginas web y buscando enlaces- cuyos resultados son a largo plazo.

:: 1 :: Buenos contenidos.
Este es el punto principal, ya no solo para aparecer en los primeros puestos en Google, sino para que la gente visite tu sitio web.

:: 2 :: Tecnología web.
Éstate informado de las últimas novedades en cuanto a servidores o lenguajes de programación. Te harán la tarea de gestionar los contenidos mucho más amena, y puedes “gustar más a Google”.

:: 3 :: Sencillez.
Al robot de Google no le gustan las páginas con excesivas decoraciones y simplemente busca textos legibles y contenidos claros.

:: 4 :: Alta en Google.
El primer paso para conseguir una buena posición en Google es aparecer en el buscador. Descubre cómo hacerlo.

:: 5 :: Conseguir enlaces.
Es el pilar fundamental para obtener un PageRank alto. Intenta aparecer en los principales directorios (Yahoo! y DMOZ) y que te enlacen desde otros sitios web.

:: 6 :: Evitar penalizaciones.
Google sabe que muchas personas le intentan engañar, y está empezando a tomar medidas contra páginas web que realizan prácticas poco éticas para mejorar su posicionamiento. Infórmate de cuáles son y cómo evitarlas.

:: 7 :: Conseguir ayuda.
El posicionamiento requiere estar informado constantemente. Sigue nuestro foro y la Google Dance.

:: 8 :: Términos SEO.
Algunos de los términos y palabras con los que podrás entender más fácilmente toda la documentación referente al posicionamiento en buscadores.

Posted in Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Mejoremos nuestra posición en buscadores, pero ¿Cómo?

Posted by diseño web madrid en febrero 12, 2007

Mejoremos nuestra posición en buscadores, pero ¿Cómo?

Conseguir que otras páginas webs de temática relacionada enlacen con su página web, para ello es interesante realizar una búsqueda para aquellos términos que consideras deberían llevar tráfico a su página web y estudiar cuáles de ellos tienen un contenido complementario. Por ejemplo si quieres posicionar tu página web por el término “tu servicio o producto” debes conseguir enlaces de otras páginas web con una temática similar al suyo.Poniendo nuestro término de búsqueda en los enlaces significa ir indicando a los buscadores que el contenido de la página web es referente a “tu producto o servicio” y los motores de búsqueda darán más prioridad por estos términos a la página web que recibe los enlaces.

  • El texto que utilices en un enlace dirigido a una página web se llama “Anchor Text” y es un factor muy importante en el algoritmo de los motores de búsqueda más populares. Además de mejorar su posicionamiento a la vez también aumentara su Google PageRank.
  • PageRank es un indicador del valor de dicho página web en el buscador de Google. Puedes visualizar el PageRank de cualquier página web, instalando el Google Toolbar. Utilizando el Google Toolbar es una buena forma de saber cuáles paginas tienen un buen PageRank y poder pedirles o intercambiar enlaces.
  • Darse de alta en directorios importantes como Dmoz, Yahoo!.
  • Los directorios han perdido mucho valor en los buscadores pero siguen siendo un buen método para conseguir enlaces o un primer rastreo de su página web por los buscadores. Ambas requieren de un filtro humano para su inclusión lo que asegura la calidad de las paginas añadidas, pero también ralentiza y dificulta su inclusión.
  • Hacer nuestra web lo más accesible posible: limitar contenido en flash, frames, javascript…
  • Los frames, el javascript o las páginas en flash no permiten el rastreo / seguimiento de la información por parte del robot en las diferentes páginas o secciones. Para ellos son un espacio blanco por el cual no se puede navegar.
  • Crear títulos únicos y descripciones pertinentes del contenido de cada página.
  • Cada página es una tarjeta de presentación para el buscador. Los Title y Description son puntos de partida para la identificación de los términos relevantes a lo largo de la web por los buscadores.
  • Ten en cuenta que los palabras que aparece en su descripción, titulo y keywords (si es que lo utilizas) deberían aparecer en el contenido de la pagina web también. Si no aparecen en el contenido de la página, no le dará ningún beneficio y tampoco podrán encontrar su página web por dichos palabras en los buscadores. Inclusive, puedes ser penalizado por utilizar keywords que no aparecen en su contenido. Esto se considera Keyword Spamming.
  • Enlazar internamente las páginas de nuestro sitio de manera ordenada y clara.
  • Un Sitemap (tanto el de Google como uno presente en el site) nos permitirá dar paso al buscador por las diferentes secciones del site de una forma ordenada, mejorando su visibilidad.
  • Actualizar la página con contenido original de calidad y con frecuencia.
  • Un poco de paciencia y “comprender” la sensibilidad antispam de los buscadores …

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , , | Leave a Comment »

Herramienta WEBWAIT

Posted by diseño web madrid en febrero 4, 2007

Una útil herramienta web que nos calcula cuanto tiene que esperar un usuario para poder visualizar nuestra página web, es decir, nos calcula el tiempo de espera del usuario:

WEBWAIT

Posted in Herramientas Posicionamiento | Etiquetado: , , | Leave a Comment »

La etiqueta META DESCRIPTION y dos herramientas SEO.

Posted by diseño web madrid en diciembre 9, 2006

Se dice que la Etiqueta META Descripción (Meta TAG Description), no deben superar los 150 caracteres (incluyendo los espacios en blanco), para evitar posibles penalizaciones de cualquier tipo.

Conozco sitios Web que no la aplican y aparecen en las primeras posiciones pero, como sabrás, el Posicionamiento Web al depender de una fórmula que evalúa diferentes parámetros para establecer una mejor o peor relevancia de tu Web o Blog; dichos sitios lo compensan con los otros parámetros.

Si quieres un consejo, no facilites la tarea SEO a tu “competencia” (sean personas, profesionales, tiendas, empresas, portales Web u ONG), perdiendo puntos, por pocos que puedan ser, por estos detalles que son fáciles de solventar, sobre todo si tienes la ayuda de software SEO como:

 Web CEO  o  IBP de Axandra.

Un saludo.

Posted in Artículos Posicionamiento, Herramientas Posicionamiento, Posicionamiento web, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Lo mejor de lo mejor para calcular tus BACKLINKS.

Posted by diseño web madrid en diciembre 29, 2005

Pruebala y luego me cuentas que tal…

http://www.555webtemplates.com/backlinks-tool.asp

Saludos!

Posted in Herramientas Posicionamiento | Etiquetado: , , | Leave a Comment »

La importancia de los enlaces I.

Posted by diseño web madrid en noviembre 21, 2005

Cuál es el método oficial para dar de alta mi web en Google?

El método más sencillo es acudir a esta página de Google:
http://www.google.com/intl/es/addurl.html

Pero, como bien afirma Google, no se asegura en cuánto tiempo aparecerá en Google, ni tan siquiera se garantiza que aparezca. Google recibe miles de sugerencias de URLs (direcciones de sitios web) al día, y su robot no tiene capacidad para rastrear todas.

¿Cómo puedo darme eficazmente de alta en Google?
La respuesta es fácil: consiguiendo enlaces. Si consigues un enlace en un sitio web que sí que aparece en Google, puedes estar seguro que en el plazo de unos días tu sitio web será dado de alta en Google. Esto es así porque ‘Googlebot’, el robot de Google, rastrea periódicamente las páginas web que ya están en la Base de Datos de Google, y sigue los enlaces que ya aparecen en estas páginas.

¿Cómo puedo saber si una página está dada de alta en Google?
Para saber si tu página web ha sido dada de alta en Google, o bien para conocer otras páginas web donde intentar que inserten un enlace hacia tu sitio web, realiza la siguiente búsqueda: site:www.direccion-web.com Donde ‘www.direccion-web.com’ es la dirección web (URL) del sitio web que desees. De esta manera, aparecerán todas las páginas web de ‘www.direccion-web.com’ que están dadas de alta en Google.

¿Cuánto tarda en aparecer mi página web en Google?
Google asegura que, si utilizas el método oficial de alta, el proceso transcurrido hasta que pase el robot y la página es dada de alta suele ser de unas ocho semanas. Aunque Google no asegura nunca que el proceso se realice con éxito. Sin embargo, si consigues enlaces de calidad (por ejemplo, en páginas web por las cuales pase el robot de Google con frecuencia), puedes lograr aparecer en Google al día siguiente de crear tu sitio web.

¿Por qué hay que conseguir enlaces?
Google otorga un valor numérico a cada página web que inserta en su base de datos. Este valor numérico lo denomina PageRank. Cuanto mayor sea el PageRank de una página, mayor importancia le habrá dado Google.

Este valor crece cuantos más sitios web enlacen a tu página. Tienes que pensar que cada enlace es para Google como si fuera un ‘voto’. Además, si estos sitios web que te enlazan tienen un PageRank elevado, el valor crecerá más, porque el ‘voto’ es de mayor calidad.

¿Cómo deben ser los enlaces?
Cada vez que insertes un enlace dentro de tus páginas o intentes que otros sitios enlacen hacia el tuyo, debes intentar que el sea del tipo:

Palabra clave

De esta manera, Google interpretará que el ‘voto’ que te están otorgando se refiere a esa palabra clave, y te premiará cuando el usuario las busque. Es decir, las palabras claves (keywords) deben estar dentro del ‘anchor’ del enlace.

¿Tiene en cuenta Google los enlaces hechos con JavaScript?
No. Googlebot -el robot de Google- no interpreta JavaScript, por lo tanto no sigue este los enlaces hechos en este lenguaje.
Tampoco sigue los enlaces del tipo ‘www.directorio.com/link.cgi?id=300’. Así, intentaremos que los enlaces que nos hagan sean tal y como se propone anteriormente.
 

¿Dónde puedo conseguir que me enlacen?
El principal sitio donde puedes conseguir un enlace es en los directorios. Deberías intentarlo en DMOZ. Se trata de un directorio de carácter público y abierto, y está gestionado por editores voluntarios.

Además, deberías intentar contactar con los responsables o webmasters de otros sitios web de temática parecida a la tuya, para conseguir que te enlacen.

No olvides que cada vez más Google está obteniendo los ‘conceptos’ de cada página web (mediante la tecnología que le sirve, por ejemplo, para crear los anuncios ‘AdSense’ y los enlaces en determinadas páginas tienen más valor si las palabras clave del ‘enlace’ tienen mucho que ver con la temática abordada.

El sitio ideal donde intentar conseguir enlaces sería en páginas web de temática parecida a la tuya y con un valor de PageRank elevado. Precisamente las categorías de DMOZ cumplen estos dos requisitos.

¿Cómo puedo conseguir aparecer en DMOZ?
Hay categorías de dmoz.org cuya página web tiene un PageRank de 7 ú 8, por lo que el conseguir un enlace en DMOZ es realmente valioso. Además, Google lo toma como referencia para construir su propio directorio ‘directory.google.com’. No escojas la categoría con mayor PageRank, sino la que más se ajuste a la temática de tu sito web.

Pero no te creas que es una labor fácil aparecer en dmoz.org, ya que los editores solamente incluyen sitios web de calidad y que realmente tienen que ver con la temática de cada categoría.

Navega por las categorías de DMOZ. Descubre cuál es la que más se ajusta a la temática de tu sitio web, y pulsa el enlace ‘agregar URL’. Si tienes un sitio web en español, lo más conveniente es que escojas una categoría dentro de ‘World > Español’.

Debes tener paciencia con tu solicitud. Suelen tardar varias semanas, pero no debes agobiar a los editores. Si en el plazo de seis meses no has conseguido que te enlacen, deberías volver a sugerir tu sitio web.

Conviene que esperes a tener el sitio web realmente listo antes de sugerir a la gente DMOZ un enlace. Si les sugieres un sitio web ‘en construcción’ seguro que no te lo van a aceptar, y posiblemente no te lo revisarán la próxima vez que se lo sugieras. No te precipites y haz las cosas con calma.

¿Tienen algún tipo de relación Google y DMOZ?
No. DMOZ es un proyecto propiedad de Netscape, que a su vez forma parte de la multinancional del entretenimiento ‘Time Warner’. DMOZ permite la reproducción libre de sus directorio (con una licencia especial), y Google simplemente se limita a recoger sus contenidos desde el año 2000.

Otros muchos sitios hacen lo mismo que Google en su ‘directory.google.com’, y recogen en sus páginas web un directorio de categorías con los enlaces de los que dispone DMOZ. Google trata estos enlaces de la misma manera que el resto de los enlaces pero, al aparecer en más sitios web -debido a estos ‘clones’ de DMOZ-, el número de enlaces se multiplica.

¿Cómo consigo enlaces desde otros sitio web?
Esta se trata de una de las tareas que más esfuerzo y dedicación requiere. Debes echar un vistazo a todos los sitios web de temática parecida la tuya, y comprobar en cuáles de ellos podrías conseguir algún enlace.

No dudes en escribirles un correo electrónico para informarles sobre tu sitio web, y dar a conocer sus contenidos. Recuerda que al otro lado hay una persona: trata de ser cortés y amigable. Si tu sitio web es de calidad, probablemente insertará un enlace más tarde o más temprano.

Como en todas las campañas de márketing debes ser perseverante, pero sin llegar a agobiar. Intenta seguir manteniendo relaciones (aunque no te hayan enlazado) con los webmasters de otros sitios web, e intercambiar opiniones e información. Despliega toda tu red de contactos (amigos y familiares, incluidos) para conseguir más enlaces a tu sitio web.

Aprende de tu competencia. No hay nada de ilegal en buscar en Google ‘link:http://www.micompetencia.com (muestra los llamados ‘backlinks’, los sitios web que lo enlazan con un PR mayor que 3 ó 4). Así sabrás en qué sitios ha conseguido tu comentencia sus enlaces. Tú puedes hacer lo mismo.

¿Se pueden colocar enlaces en libros de firmas?
Por supuesto. Puedes firmar en los ‘guestbooks’ con el enlace que mejor te convenga, eligiendo las mejores palabras. Es gratis, y existen libros de firmas de algunos sitios web con un PageRank realmente apetecible.

Pero es poco ético. Además de conseguir ganarte la enemistad de la mayor parte de los webmasters, podrás lograr que algún día Google te penalize. De hecho, ya está comenzando a no tener en cuenta los enlaces de algunos sitios web sospechosos de albergar enlaces sin el consentimiento de su webmaster, como los libros de firmas.

¿Me pueden penalizar por enlazar determinadas páginas?
Sí. Evita insertar enlaces a sitios web que sospeches que realicen prácticas fraudulentas (bien para aumentar su PageRank, u otro tipo de fraudes). Está claro que Google les puede penalizar, pero también puede disminuir tu PageRank.

Google no te podrá penalizar por los enlaces que reciban tus sitios web, ya que tú no eres responsable de ello. Pero sí que lo eres de los enlaces dentro de tu sitio web.

No enlaces a otro sitio web simplemente porque han insertado un enlace al tuyo o porque te lo hayan pedido. Infórmate bien de quién te pide que le enlaces.

¿Me pueden penalizar por tener demasiados enlaces rotos?
Revisa los enlaces rotos (‘broken links’ que pueda haber en tus páginas web. Muchas veces, escribimos mal los enlaces y dirigimos a los visitantes a páginas que no existen. También hay ocasiones que las páginas a las que apuntamos han dejado de existir.

Se sospecha que Google penaliza a las páginas web con excesivos enlaces rotos. Imagínate que encuentras una página en Google con información que te puede interesar, pero que la mayoría de los enlaces están rotos, y te dirigen a errores 404 (‘Page Not Found’. Seguramente no te haría mucha ilusión tener que volver atrás, y echarías la culpa al webmaster de la página web y a Google por tener en las primeras posiciones a esa página.

Google estima que lo que es malo para el usuario, también es malo para Google.

¿Se pueden comprar enlaces?
Una de las bases del éxito de Google ha sido la filosofía del PageRank, que se basa en la popularidad de una determinada página web en función de los enlaces que tenga.

Estos enlaces siempre se han realizado en función de la calidad de las páginas que se enlazaban, por lo que Google confia en que los webmasters inserten los enlaces siguiendo estos criterios, y no por haber recibido una cantidad de dinero.

Por supuesto, Google no va a tolerar que nadie cobre dinero por insertar enlaces desde sus páginas gracias al PageRank conseguido, y lo que está haciendo en algunas ocasiones es penalizar a estos sitios web que insertan los enlaces.

En estos casos, no los elimina de los resultados, y quizá tampoco reduzca su PageRank, ya que Google considera que la información que contiene puede resultar valiosa para algunas búsquedas. Lo que hace sencillamente es impedir la posibilidad de que estas páginas web ‘transmitan’ el PageRank. Simplemente, no sigue los enlaces desde ellas.

Por ello, si decides conseguir enlaces pagando por ellos a un webmaster que tenga páginas web con PageRank alto, ten en cuenta que Google puede anular estos enlaces.

¿Tiene en cuenta Google los enlaces de las AdWords?
AdWords es el sistema publicitario de Google, en el cual el anunciante paga por aparecer en los resultados de Google. Sin embargo, estos enlaces no son tenidos en cuenta para el cálculo del PageRank, ya que Google no rastrea sus propios resultados.

No pienses que Google te va a premiar con un mayor PageRank si pagas por la publicidad AdWords, ni siquiera que va a dar de alta tu sitio web.

Tampoco va a seguir los enlaces que aparecen en la publicidad ‘AdSense’ (los anuncios de Google aparecidos en páginas privadas), ya que están generados mediante JavaScript, y el robot de Google no sigue este tipo de enlaces.

Tengo cientos de páginas en mi sitio, ¿cómo puedo enlazar todas?
Crea una página con enlaces a todas las de tu sitio web. A esto lo puedes denominar el ‘mapa’ de tu sitio web. A Google le gustan estos ‘mapas’, porque accede a todas las páginas del sitio sin tener que perderse por todas las demás. Y tú podras asegurarte que tienes todas tus páginas indexadas en Google.

Si las páginas de tu sitio web superan las 100, es mejor que este ‘mapa’ lo dividas en varias partes. Cada una de ellas debería contener menos de 100 enlaces. Hay quien sospecha que si tienes una cantidad elevada de enlaces en una sola página, Google puede considerarlo como una ‘link farm’ (una ‘granja de enlaces’, y penalizarte.

¿Debo utilizar los sistemas automáticos de envío a buscadores?
Nuestra recomendación es que no utilices los sitemas automáticos que prometen dar de alta tu sitio web en cientos o miles de buscadores. Es mejor que lo hagas personalmente, porque muchos buscadores detectan envíos automáticos, y desestiman las páginas web enviadas por estos métodos.

Además, estos sistemas automáticos son diseñados para un determinado momento. La mayoría de los buscadores modifican los formularios y requerimientos para darse de alta en ellos, y los sistemas automáticos no lo modifican a la vez. Puede ocurrir que simplemente no funcione o que, por ejemplo, no te des de alta en la categoría adecuada.

Recuerda que el posicionamiento web requiere mucho esfuerzo y dedicación. Ten paciencia, y hazlo todo personalmente.

¿Debo hacer intercambio de enlaces?
El tener algún tipo de contacto con otro webmaster y decidir que “yo te enlazo a ti y tú me enlazas a mi” puede ser beneficioso para aumentar el PageRank de tus páginas web (aunque quizá Google disponga de algún filtro para atenuar su importancia).

Pero, sin embargo, no debes abusar de esta práctica (llamada también ‘crosslinking’ y mucho menos debes comprar o vender estos enlaces. Google puede detectar que la mayoría de los enlaces que recibe tu sitio web proceden, por casualidad, de un sitio web al que tú enlazas en todas tus páginas. Entonces puede llegar a penalizarte.

Si posees ya bastantes enlaces de sitios web de parecida temática a la tuya, no debieras tener ningún problema en realizar intercambio de enlaces con otro sitio web. Hay muchos sitios web que, de manera natural, realizan intercambio de enlaces.

De todas maneras, infórmate de con quién vas a intercambiar tus enlaces. Recuerda que tú eres responsable de las páginas web a las que enlazas.

Si eres el administrador de varios sitios web, y quieres hacer enlaces entre las páginas de los mismos, ten mucho cuidado con lo que haces, e intenta no abusar de esta práctica. Y, por supuesto, no conviertas una de tus páginas en una ‘Link Farm’.

¿Se tienen en cuenta los enlaces internos?
Para la transmisión del PageRank se tienen en cuentra tanto los enlaces internos como los externos.

Por lo tanto, debes planear el número de enlaces que diriges hacia páginas de tu propio sitio web, porque va a ser el PageRank que se quede dentro de tu sitio web.

También deberías estudiar hacia qué páginas enlazas y cómo las enlazas (ver ‘cómo deben ser los enlaces’. De esta manera, puedes promocionar una determinada página sobre otras (por ejemplo, la principal, u otra que en determinado momento estimes que va a generar un importante número de visitas).

En ningún momento una página va a perder PageRank por realizar muchos enlaces fuera de tu sitio web (enlaces externos). En todo caso, y si no realizas ningún enlace interno, no transmitirás nada de PageRank dentro de tu sitio.

Dos consejos:

1) Intenta que una página que quieras posicionar consiga al menos un enlace externo. Si Google comprueba que todos los enlaces que recibe son internos, podría estimar que estás realizando ‘spam’ y podrías obtener una penalización en esta página.

2) A Google le gusta que realices enlaces externos fuera de tu sitio web. Eso sí, intenta que sean hacia sitios que no cometan irregularidades (tú eres responsable de tus enlaces) y el texto del ‘anchor’ debería ser una serie de palabras con las que dicha página tenga relación (mira en los resultados de Google).

Posted in Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , , , , | 3 Comments »

Posted by diseño web madrid en abril 1, 2005

Con esta herramienta de análisis de densidad de palabra te proporcionan los resultados no solo tu densidad y tus peligros si te pasas de porcentaje, sino posible herrores y porteriormente las posiiones que ocupas respecto a estos términos.

http://www.googlerankings.com/ultimate_seo_tool.php

Sencillamente genial. Os animo a que pegueis aquí vuestros resultados.
Saludos!
SEO/ProfesionalNet.

http://www.googlerankings.com/ultimate_seo_tool.php
http://www.googlerankings.com/ultimate_seo_tool_2.php

Posted in Herramientas Posicionamiento | Etiquetado: , , | Leave a Comment »

¿Dónde puedo encontrar manuales de Posicionamiento Web?

Posted by diseño web madrid en marzo 29, 2005

Visita estos sitios:

http://www.1-en-buscadores.com
http://www.guia-buscadores.com/posicionamiento/
http://www.maestrosdelweb.com/editorial/usarmetas/
http://www.mundomaster.com/posicionamiento
http://google.dirson.com/posicionamiento.net/

Muy recomendados, cuéntanos aquí que te han parecido para poner más o quitar alguno.
Saludos. Lee el resto de esta entrada »

Posted in Preguntas SEO, Teoría SEO | Etiquetado: , , , , | Leave a Comment »

Alta en GOOGLE NEWS.

Posted by diseño web madrid en enero 31, 2005

Alguien me podria decir donde encontrar las sugerencisa de google news para indexar un sitio. Porque tengo un sitio de noticias que google no lo toma ha pesar de haber sido seleccionado. muchas gracias.  

Posted in Preguntas SEO | Etiquetado: , , , , , | 3 Comments »