Posicionamiento y Optimización del WEB – SEO/ProfesionalNet

Un Blog gratuito sobre artículos, recortes de prensa, blogs, teoría y herramientas del posicionamiento web

Archive for 29 septiembre 2007

Google ya no almacenará las Cookies durante 30 años.

Posted by diseño web madrid en septiembre 29, 2007

El gigante de los buscadores, Google, ha sido criticado por almacenar demasiada información sobre sus usuarios, por demasiado tiempo. Respondiendo a las críticas, la compañía ha decidido reprogramar sus galletas, de forma que se venzan en sólo dos años. Anteriormente, el año de vencimiento ha sido 2038.Una galleta es un archivo de texto almacenado en la computadora, y contiene información sobre configuración y movimientos realizados por el usuario al visitar un sitio web. Este archivo también puede contener la identidad del usuario para inicio de sesiones, y puede ser, por lo tanto, usado para identificar al usuario en cuestión. El archivo es transferido al sitio web cada vez que el usuario visita el sitio que instaló la galleta en la computadora.

La duda ha estado en cuanto tiempo al archivo debe estar guardado en la computadora, antes de ser automáticamente borrado. Anteriormente, Google ha programado las galletas para vencerse el año 2038, lo que en la práctica significaba que el archivo nunca sería borrado. Es decir, si un usuario visitaba Google al cabo de cinco años, el archivo sería nuevamente transferido hacia el sitio web. Con nueva política de Google, la galletas se vencerá definitivamente al cabo de dos años.

El elemento decisivo parece ser si el archivo automáticamente será renovado cada vez que el usuario visita Google. Es decir, el archivo podría vencerse únicamente si pasan más de dos años entre cada visita al Google.

Cabe señalar que es relativamente fácil borrar todas las cookies del navegador.

Un saludo.            

Anuncios

Posted in Noticias Buscadores, Noticias Google | Etiquetado: , | Leave a Comment »

Buscadores: Para no perder de vista a Google, Microsoft renueva Windows Live.

Posted by diseño web madrid en septiembre 27, 2007

Para no perder de vista a Google, Microsoft renueva Windows Live.

El mayor fabricante de software del mundo dijo que el buscador Windows Live ahora está tecnológicamente igualado con lo que ofrecen sus rivales, después de años de haberse esforzado por alcanzar ese nivel desde que comenzó a ofrecer el servicio en 2003.

Su nueva presentación está en línea con la tendencia de la industria de dar un paso más allá de los tradicionales vínculos de texto, con resultados unificados para acceder a otros sitios web, noticias, imágenes y vídeos en una misma búsqueda.

Sus rivales Google y Ask.com realizaron modificaciones similares este año, y Yahoo se está moviendo en esa dirección.

“Microsoft es realista. No prevé que se va a despertar mañana y va a destronar a Google”, comentó Allen Weiner, analista de la firma de investigaciones Gartner. “En este momento, Microsoft quiere fortalecer su posición con sus actuales usuarios”.

La compañía de Seattle dio ventaja a Google en las búsquedas de Internet y luego vio cómo esta última levantó un negocio multimillonario mediante la venta de anuncios vinculados a los resultados de las búsquedas.

Ahora Google es uno de sus principales rivales, ya que utiliza el dinero de su red publicitaria para invertir en amenazas al negocio clave de Microsoft, los programas para ordenadores de sobremesa, al ofrecer como un “servicio” el software entregado a través de la red.

El trimestre pasado, Google informó de unas ganancias netas de 925 millones de dólares, casi completamente de la venta de publicidad.

La cifra está muy por debajo de los beneficios totales de Microsoft, que alcanzaron los 3.000 millones de dólares, pero el negocio de servicios en línea de Microsoft anotó una pérdida y los ingresos de la división crecieron a un tercio del ritmo de Google.

Microsoft se ubicó en agosto en un distante tercer lugar en la lista de los buscadores líderes de Internet, con sólo el 11,3 por ciento del mercado estadounidense, frente al 56,5 por ciento de Google y al 23,3 por ciento de Yahoo, según la consultora ComScore.

Sin embargo, los analistas indican que es una de las pocas compañías con los medios para cerrar esa brecha.

Posted in Noticias Buscadores, Noticias MSN Live | Etiquetado: , | Leave a Comment »

¿Que es y para que sirve un sitemap?

Posted by diseño web madrid en septiembre 20, 2007

¿Que es y para que sirve un sitemap?

El posicionamiento en buscadores de los sitios que diseñamos y realizamos tiene una enorme importancia en un entorno muy competitivo como la web de hoy. De este aspecto depende muchas veces el éxito o fracaso del sitio.

En el mundo del diseño web, el posicionamiento en los buscadores de los sitios que realizamos ha ganado una enorme importancia. Una medida de ello es la cantidad de tiempo y esfuerzo que dedicamos a optimizar los sitios primero y a conseguir buenos enlaces entrantes después.

Un requisito básico para que todo ese empeño rinda frutos es lograr que todas las páginas del sitio estén correctamente indexadas en los motores de búsqueda. Esto ocurrirá siempre y cuando los crawlers (arañas) de los buscadores importantes visiten e indexen esas páginas con la periodicidad adecuada y sin omitir ninguna.

Aún sin recurrir a ningún procedimiento extra, las arañas relevan las páginas de los sitios web simplemente siguiendo los enlaces (a menos que estos incluyan el atributo “no-follow”), pero hay más cosas que pueden hacerse. Una buena estrategia consiste en suministrar a los buscadores una “lista” de las páginas que nos interesa que se indexen, junto con alguna información adicional que haga la visita más eficaz. Concretamente, eso se logra mediante el uso de Sitemaps.

Un sitemap es un archivo XML que contiene una lista de las páginas del sitio junto con alguna información adicional, tal como con qué frecuencia la página cambia sus contenidos, cuándo fue su última actualización y qué tan importante es respecto al resto de las páginas del mismo sitio. La construcción del archivo XML debe seguir una serie de pautas especificadas en el protocolo de sitemaps, que describimos a continuación:

Contenidos obligatorios del sitemap
El protocolo Sitemap se construye en base a etiquetas XML (Tags) incluidas en un archivo con codificación UTF-8.

Los valores de datos (por contraposición a las etiquetas mismas) deben utilizar códigos de escape para ciertos caracteres especiales, tal como se acostumbra en HTML.

Por ejemplo, las comillas dobles (“) deben ser reemplazadas por &quot; y los signos menor (<) y mayor (>) por &lt; y &gt; respectivamente.

El archivo XML debe:
Comenzar con una etiqueta de apertura y terminar con una de cierre
Especificar el protocolo estándar al que responde dentro de la etiqueta de apertura (ver en el ejemplo)
Incluir una entrada por cada dirección URL (que corresponderá a cada una de las páginas del sitio) como nodo XML padre.
Incluir un nodo XML hijo para cada dirección URL (cada nodo XML padre ).

Resumiendo estos aspectos en un ejemplo (sitio con dos páginas):

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<url>
<loc>http://www.misitio.com/</loc&gt;
</url>
<url>
<loc>http://www.misitio.com/contacto.htm</loc&gt;
</url>
</urlset>

Contenidos opcionales del sitemap
Cada nodo <url> padre puede contener (además del nodo <loc> hijo obligatorio) cierta información adicional útil para que el proceso de indexación se realice más inteligentemente. Los nodos opcionales, aunque importantes, son:

<lastmod>Fecha</lastmod>
Se refiere a la fecha de la última modificación de la página que figura en

<changefrec>Frec</changefrec>
Se refiere a que tan a menudo cambia la página que figura en <loc> y será un dato que indicará a la araña con qué frecuencia volver a visitar el sitio. Es un valor orientativo, por lo que no quiere decir que deba cumplirse forzosamente.

Frec puede tomar alguno de los siguientes valores: always (siempre, para páginas que cambian cada vez que se muestran. Típicamente, las dinámicas), hourly (a cada hora), daily (diariamente), weekly (semanalmente), monthly (mensualmente), yearly (anualmente) o never (nunca, típicamente para páginas archivadas).

<priority>Valor</priority>
Se refiere a la importancia que tiene la página que figura en <loc> respecto de las demás que componen el sitio. Es simplemente una manera de indicar prioridades relativas dentro del sitio, sin ningún efecto hacia el exterior del mismo.

Valor puede tomar valores entre 0 y 1. El valor por defecto es 0.5

Volviendo al ejemplo anterior y agregando los atributos opcionales:

<?xml version=”1.0″ encoding=”UTF-8″?>
<urlset xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<url>
<loc>http://www.misitio.com/</loc&gt;
<lastmod>2006-11-20</lastmod>
<changefrec>monthly</changefrec>
<priority>0.8</priority>
</url>
<url>
<loc>http://www.misitio.com/contacto.htm</loc&gt;
<lastmod>2006-08-01</lastmod>
<changefrec>yearly</changefrec>
<priority>0.3</priority>
</url>
</urlset>
El archivo XML así construido se aloja en el servidor como un archivo más del sitio, con la salvedad de que puede contener las URL contenidas en el mismo directorio en que se encuentra o en otros contenidos en él.

Por ejemplo, si ubicamos el archivo sitemap.xml en el directorio ejemplo.com/catalogo/ no podrá incluir URLs que se encuentren en ejemplo.com/ Por esta razón se recomienda enfáticamente colocar sitemap.xml directamente en el root del sitio.

A partir de este punto solo queda enviar el sitemap a los buscadores, que generalmente disponen de una página específica para aceptarlo.

Hace unas semanas, Yahoo, Google y Microsoft llegaron a un acuerdo (detalle poco común entre estas empresas) para que el formato Sitemaps 0.90 fuera el aceptado en sus motores de búsqueda.

A través de Google Webmaster Tools o de Yahoo Site explorer podemos proporcionarles la información de nuestro sitemap.
Autor: Fernando Campaña
http://www.maestrosdelweb.com/editorial/sitemap/
 

Posted in Artículos Posicionamiento, Posicionamiento web, Preguntas SEO, Teoría SEO | Etiquetado: , , | Leave a Comment »

La Indexación, ¿Qué es?

Posted by diseño web madrid en septiembre 12, 2007

¿Qué es?

La indexación es el proceso por el que el buscador va rastreando el sitio y va incorporando a su base de datos esas el contenido de esas URLs.

¿Es importante?

Es MUY importante. La indexación es lo único que puede hacer que tu web, tu trabajo pueda aparecer en Google, toda página que el robot no haya rastreado ni indexado no figurará en los resultados.

Los ojos de un robot

Los buscadores poseen un robot que es una especie de programa que se dedica a rastrear las webs e incorporar lo que cree interesante a la base de datos de su buscador, tanto para indexar nuevas webs como para actualizar los contenidos de su base de datos.

Facilitar la indexación: lo básico

Los buscadores no indexan todo lo que recorren, sólo indexan lo que creen oportuno. Para mejorar nuestra indexación hay que conseguir que los robots pasen a menudo por nuestras páginas por lo que a más pasadas que de más probabilidades de que las acabe indexando. Para aumentar la frecuencia de paso de los robots por nuestra web hay que conseguir links entrantes y actualizar a menudo nuestra web.

Otras ayudas para la indexación
URLs dinámicas

Para facilitar la indexación se puede empezar por evitar o arreglar las variables en las URLs (URLs dinámicas) que por ejemplo puede generar el PHP. Estas variables hacen que el script muestre una u otra información en función de estas variables y a todos los efectos se consideran páginas diferentes. Variables en la URL serían por ejemplo esta:
http://www.davilac.net/foro/index.php?board=4.0
Generada en este caso por un script como el SMF, donde se ve que la variable se llama board y su valor es 9.0, y se aplica sobre el archivo index.php. En este caso hay sólo una variable, pero hay muchos otros casos donde aumentan más el número de variables, dificultando cada vez más la indexación, ya que si bien los buscadores pueden indexar páginas con varias variables, les es más fácil si no las tuviese. Para servidores que corran sobre Apache existe un mod llamado mod_rewrite que sirve para reescribir URLs, mediante el cuál y con un fichero .htaccess se puede convertir esa URL a ojos de los buscadores en esta:
http://www.davilac.net/foro/index.php/board,4.0.html
Más atractiva a los ojos de los buscadores. Consulta tu hosting para averiguar sobre la disponibilidad de este módulo. Ten en cuenta que muchos scripts conocidos incorporan módulos y sistemas para convertir URLs dinámicas en estáticas, por lo que te evitarás el trabajo a veces de hacerte tu propio sistema.

Google Sitemaps

Aparte de esto existe para Google un servicio llamado Google Sitemaps que está dando muy buenos resultados en cuánto a mejorar la indexación. Para aprender más ves al tema en el foro, donde también recibirás ayuda para hacerlos y podrás preguntar lo que desees.

Robots.txt

El robots.txt es un fichero destinado al uso de los buscadores. Mediante el uso de este fichero el encargado de la web le ordena a los buscadores ciertas cosas, como prohibirles el acceso a ciertas carpetas o ficheros para evitar que los buscadores los indexen o prohibirles un excewsivo acceso a la web, por ejemplo. En todo caso la existencia de este fichero en nuestro servidor no mejorará ni nuestra indexación ni posiciones.

El uso inadecuado de este fichero puede provocar desastres en nuestras posiciones en Google..

Autor: Davilac
http://www.davilac.net/web/posicionamiento/tutorial/indexacion/index.php

Posted in Artículos Posicionamiento, Preguntas SEO | Etiquetado: , , | Leave a Comment »