Google no penaliza el contenido duplicado

septiembre 15, 2008

En el blog de googlewebmastercentral han realizado un artículo en el cual dicen que : “Google no penaliza el contenido duplicado en una misma web”, pero si puede afectar al posicionamiento en google

En adseok, han realizado un extenso artículo explicándolo…


Multibuscador nuevo

septiembre 10, 2008

Search.io se trata de un multibuscador nuevo que nos permite hacer consultas de búsqueda a través de diferentes motores de búsqueda como (google, yahoo, live, ask. Aol, dogpile, altavista, lycos y alltheweb) a la vez.

Multibuscador

Multibuscador

Las ventajas que tiene, son que al realizar una búsqueda, se encuentran todos los diferentes motores de búsqueda en una misma página, sin necesidad de abrir otras pestañas en el navegador, de una forma muy rápida, así podremos comparar las posiciones para nuestras palabras clave .


La tecnología Flash es indexable por los buscadores

julio 2, 2008

Ayer anunciaron que la tecnología Flash es indexable por los buscadores ( google y yahoo) , ya que han realizado un nuevo algoritmo que permite leer el contenido en Flash. Hace unos años apareció el boom de que todos querían desarrollo web en flash, por su originalidad y era la pesadilla de la empresas de posicionamiento web , ya que era bastante complicado pero no imposible lograr una optimización.


Seminario online gratuito de google

junio 28, 2008

Google ofrece un seminario online gratuito con sus tres herramientas más utilizadas por los webmasters:

Herramientas para webmaster de google

Google Analytics

Optimizador de páginas web


Google nos muestra nuestra indexación

junio 27, 2008

Google nos muestra nuestra indexación ¿Cómo, se pueden ver las horas o los días en que google ha indexado las últimas páginas de nuestro sitio web? ¿Cómo saber la última vez que Googlebot pasó por nuestras páginas ? Esta información se puede saber utilizando la búsqueda avanzada de Google con la búsqueda temporal.Esta es una nueva actualización de google en la búsqueda avanzada, que puede ser muy útil.

Se obtiene así, una información clara que se encuentra delante de cada título de los sitios web (que también es el vínculo para acceder a las web) es la información del tiempo. Se muestran en color gris claro. Se puede saber cuándo fueron indexadas las páginas por periodos de tiempo de 24 horas a 365 días.

Más información sobre esta novedad:
No es necesario registrarnos en nuestra cuenta de google para verlo
Funciona para búsquedas de 24 horas a 365 días.
Los sitios no se muestran por orden cronológico.

Gracias poète por compartir conmigo tu hallazgo!!


Google necesita SEOs como los políticos a los periodistas

abril 21, 2008

Google admite que necesitan SEOs como los políticos a los periodistas. Optimizar los sitios web, garantiza la calidad de los resultados. Los Seos ayudan a los sitios web a definir el mensaje que quieren ofrecer, sus productos y sus servicios.
Realizando una previa selección de las palabras clave, dentro de un contexto que hable de una temática especifica, ayuda a los motores de búsqueda en la indexación de los sitios web y ayuda al posicionamiento en las Serps ( los resultados de las búsquedas).
¿Qué consigue un seo al optimizar el contenido de un sitio web? Mejorar los resultados de búsqueda para ofrecer un mejor contenido al usuario. En definitiva, el usuario va a encontrar lo que realmente está buscando, que es lo mismo que google quiere ofrecer al usuario. Así que casi podríamos decir que google nos adora!!
¿Son conscientes las grandes empresas de la necesidad de un seo en su plantilla ? Y ¿tu qué opinas?

Fuente: Submitawebsite


Tipos de contenido duplicado

marzo 12, 2008

Existen dos tipos de contenido duplicado: contenido que se repite en varios sitios web y el contenido que se repite en diferentes páginas dentro de un mismo sitio web. La pregunta es ¿harán los motores de búsqueda diferencia entre los diferentes tipos de contenido duplicado? Hay que tenerlo muy presente, ya que afecta al posicionamiento en google .

Joseph que tiene una empresa de centralitas , me comentó el otro día que poco a poco se va complicando la cosa, por la posible patente de “contenidos parecidos” , y que lo mejor es mantener un robots.txt .

¿Y tu que opinas?