|

Pagina nueva 1
Optimizar la web
Introducción a los buscadores
Elegir
Nuestro objetivo
Optimizar la web
Conseguir links
Alta en buscadores
Introduccion a los buscadores
La mayor parte de los
internautas usan un buscador para encontrar información. Es
algo habitual y en todo el mundo se realizan millones de
búsquedas al día. Estos internautas, al usar un buscador
acaban visitando los resultados para encontrar lo que
buscan, y normalmente encuentran lo que buscan en la primera
página de resultados. Aparecer entre estos diez primeros
resultados para términos de búsqueda ligeramente
competitivos proporcionará a una web una fuente elevada de
visitas gratuitas.
El posicionamiento web en
buscadores, muy conocido también por SEO (Search Engine
Optimization) son un conjunto de técnicas destinadas a
posicionar una web entre los primeros resultados, mediante
una optimización del diseño, estructura, popularidad y
contenido de una web. Gracias al posicionamiento web en
buscadores una web recibirá muchísimas visitas que podrán
ser aprovechadas para vender publicidad o los servicios de
una empresa, entre otros; y todo eso al precio del
posicionamiento en buscadores. Además, las visitas que
proporcionan los buscadores proporcionan las visitas de unos
internautas altamente interesados en nuestra web, ya han
llegado a nuestra web buscando información sobre la temática
de nuestra web.
Actualmente son sólo tres los
buscadores que nos proporcionarán visitas regularmente, que
son Google (que tiene más de la mitad de la cuota del
mercado en todo el mundo, especialmente en Europa y América
del Sur), Yahoo! (el segundo buscador más usado del mundo y
cuyo portal es uno de los más visitados del mundo) y Msn, el
buscador de Microsoft, que cuenta con un pequeño porcentaje
de las búsquedas. Estos tres buscadores acaparan más del 90%
de búsquedas mundiales. A parte de estos hay otros
buscadores, pero que cuentan la mayoría con los resultados
que les proporcionan estos tres grandes buscadores, por lo
que si nos posicionamos en los tres grandes, estaremos igual
de posicionados en la mayoría del resto de buscadores.
Al contrario de lo que pueda
parecer, el posicionamiento web en buscadores no es una
técnica muy difícil de aprender, por lo que es recomendable
que todo webmaster tenga una noción básica.
Desde la invención
relativamente reciente de los buscadores allá por el 1993,
la manera de ver Internet indudablemente ha cambiado. Poco a
poco los usuario empezaban a entender que la mejor manera de
navegar entre tanta información era a través de buscadores
web. En septiembre de 1998 dos estudiantes,
Larry Page y Sergey Brin fundaron Google, el
mayor buscador de la actualidad.
Hoy en día un sitio web
normal recibe una gran parte de sus visitas a través de los
buscadores, y no es para menos, las páginas wen de los tres
mayores buscadores son de las más visitadas del mundo. Es
por eso muy importante optimizar nuestra web para que los
buscadores la encuentren y la posicionen en el lugar que se
merece.
Los susariso provenientes de los
buscadores pueden llegara suponer un 90 % de nuestras visitas lo
cual añadido a un buen contenido de neustra web puede hacer crecer
muy rapido y constante el rendimiento de esta.
Elegir Nuestro objetivo
Para conseguir buenos
resultados es básico escoger un buen objetivo. Dedicaremos
nuestros esfuerzos a un objetivo concreto. De su elección
dependerá el éxito o fracaso de la web en cuanto a
posicionamiento se refiere.
Se llama keyword (o palabra
clave) a la palabra por la que intentaremos posicionar
nuestra web. Por ejemplo, la keyword de esta
búsqueda
es Muchapasta.
Un sitio web se puede
posicionar para varias palabras a la vez. La mejor
estrategia es que el sitio web entero trate una temática
concreta, por eso la estrategia fundamental debe de ser la
de posicionar la página de inicio para una búsqueda
importante y luego posicionar las páginas interiores para
búsquedas más específicas. Tal como veremos más adelante, el
posicionar la página principal del dominio nos atraerá más
enlaces a nuestra página web, ya que la gente suele enlazar
siempre a la página de inicio del dominio y no a páginas
interiores. Por eso, tal como se ha dicho, posicionaremos la
web para aparecer bien en la búsqueda por esa
temática, y luego posicionaremos las páginas interiores para
búsquedas más concretas sobre esa temática y alguna que otra
que no tenga que ver.
La importancia de las
palabras clave
Si realmente queremos
conseguir todas las visitas que puedas, es muy importante
escoger bien tus palabras clave. Por un lado, puedes
intentar competir por una búsqueda tan difícil por la que
jamás conseguirás posicionar alto y no recibirás visitas.
Por otro lado puedes escoger una palabra poco buscada y aún
siendo primero no conseguirás demasiadas visitas.
Cómo elegir sus palabras
clave
Como ves, por un lado hay que
conseguir búsquedas asequibles pero que nos proporcionen el
número de visitas deseadas.
Para saber la dificultad de
posicionarse por una palabra no hay un método exacto ni una
escala exacta, pero se puede deducir la dificultad de
diversas maneras. Después de leer el tutorial entero sabrás
más para poder determinar la dificultad de una palabra, pero
aquí van unas sugerencias:
- Mira el PR de las páginas
de esa búsqueda. EL PR no significa posicionarse mejor, es
al revés, un buen posicionamiento suele implicar un buen PR.
(Comprobador de pagerank)
- Mira cuántos links
entrantes tienen las primeras webs.(Comprobador
de backlinks)
Para saber lo buscada que es
una palabra, por suerte hay muchos métodos y herramientas.
Google AdWords:
Google nos hará una selección de palabras interesantes con
esta herramienta originalmente pensada para AdWords pero que
ya es muy utilizada con este propósito.
Google Suggest: No
diseñado para esto, puede servirnos.
Google Zeitgeist:
Lo más buscado. Apto para saber las tendencias. Ofrece las
búsquedas más frecuentadas.
MIVA, antes
Espotting, también ofrece herramientas para generar keywords.
Tambien es interesante
conocer la posicion que ocupa una palabra de nuestra web en
los
buscadores.
Optimizar la web
Los buscadores se fijan en
ciertos aspectos de una web y le dan importancia a ciertos
factores. Por eso es muy importante saber qué valoran los
buscadores en una página y optimizarlos.
Para comenzar, mucha gente
cree que los buscadores le dan mucha importancia a las
"metas", especialmente la meta keywords y la meta
description:
<meta name="Keywords"
content="Posicionamiento en 10 pasos, tutorial, manual, SEO"
/>
<meta name="Description" content="Posicionamiento en 10
pasos" />
Esto hoy en dia no es
verdad (desafortunadamente
circulan muchos bulos por Internet). La meta keywords los
buscadores grandes la ignoran hoy en día. Ni Google, Msn ni
Yahoo! la valoran desde que se convirtió en puro spam. Hoy
en día se sigue usando básicamente por costumbre y porque
hay algunos pequeños buscadores que aún las usan, pero esta
meta carece de gran valor a lo hora de la verdad. La meta
descripción no cuenta para posicionar una web, no obstante
es importante tenerla, ya que por ejemplo Google la usa a
veces para realizar el "Snippet" de sus resultados (al
buscar una web en Google, aparece su título, que es a la vez
un link, y luego aparece el snippet, que es una pequeña
descripción o fragmento de texto de la web; luego aparece la
URL y otros datos). Una meta descripción atractiva puede
atraer visitantes si es usada como snippet.
Para hacer una meta keywords
introduce unas 30 palabras clave relacionadas con tu página.
Para la meta description usa una descripción de la web que
sea atractiva para quien la lea.
Generador
de METATAG ( Una gran herramienta que te ayudara a
realizar tus metataks)
Estractor de METATAG ( Con esta herramienta puedes ver
los metataks de cualquier pagina)
A esta tag los buscadores le
asignan mucho valor. De hecho esta tag es el título de la
página, el que aparece por ejemplo en los navegadores, en
las pestañas y en la barra. Procura hacer un título muy
breve y con algunas de las keywords de esa página. Mejor si
no sobrepasa de 60 carácteres, así darás más densidad a tus
keywords.
También se dice mucho que
cuanta más densidad de las keywords tenga una web más alto
estará posicionada. Esto no es del todo verdad.
La densidad puede dar resultados en algunos buscadores (se
ha dicho mucho que Yahoo! la valora bastante), y es
recomendable que una web tenga un poco de densidad, pero que
no sea excesiva. Una muy elevada densidad podría hacer
pensar a los buscadores que eres un spammer.
Conseguir links
Por qué
Este es un punto crucial.
Para posicionar una web se valoran ciertos factores. Pues
bien, los enlaces que apuntan a una web es un factor muy
importante para esta valoración. Los links entrantes son
interpretados por los buscadores como una especie de voto a
esa web. Normalmente, a la hora de diseñar webs se enlaza a
webs interesantes, de buena calidad... en definitiva,
recomendamos al visitante una web, y eso es lo que más
valoran los buscadores.
Los buscadores básicamente
valoran más los enlaces que en su "anchor text" (es el texto
del enlace; en las imágenes se considera el atributo ALT
como su equivalente para los buscadores) tengan la keyword y
que vengan de webs de temática relacionada.
Cómo deben de ser los
enlaces
Es importante también la
forma de la que son los enlaces.
Un enlace típico sería:
<a href="http://www.muchapasta.com">Keyword</a>
O si es una imagen:
<a href="http://www.muchapasta.com">
<img src="../logo.gif" alt="Keyword" /></img></a>
¿Cuáles son los enlaces que
nos dan más valor?
Los enlaces más valiosos son
los que vienen de webs relacionadas nuestra temática. Al
contrario de lo que creen muchos, en esto el PR no vale para
nada.
¿Todos los enlaces valen?
No, muchos webmasters muchas
veces nos intentarán dar gato por liebre. Hay links los
cuales no siguen los buscadores (y por eso no cuentan). Hay
enlaces que incluyen el atributo nofollow en la etiqueta
<a>. Estos enlaces no son seguidos por los buscadores. Si
tienes Firefox, hay un plugin muy útil para detectarlos de
formá fácil:
http://www.mundogeek.net/archivos/2005/03/16/nofollowalert-01/
También se puede quitar el
valor de un enlace poniéndo en javascript (los buscadores no
leen javascript) o por robots.txt Es habitual en algunos
foros que los links tengan la forma http://sitioweb.com/o.php?http://www.muchapasta.com
y luego en el robots.txt tengan esta línea: Disallow: /o.php?
A tener en cuenta
No todos los links son igual
de válidos, y además nos pueden llegar a ser perjudiciales.
Por un lado, debemos de evitar una popularidad artificial,
que está
penalizada por los buscadores. Además, debemos de conservar una
cierta naturalidad a la hora de conseguir enlaces para no
ser sospechosos a la vista de los buscadores.
Por un lado buscaremos una
variación en el anchor text de los links, utilizando
nuestros anchors texts principales y consiguiendo otros
enlaces con otros anchor texts distintos.
También es de reseñar que es
bueno conseguir enlaces a un ritmo constante y tranquilo, ya
que conseguir links de golpe y en gran cantidad puede hacer
pensar a los buscadores que intentamos manipular sus
resultados.
Por otro lado, intentaremos
conseguir enlaces que no sólo vengan de IPs de la misma
Clase C. Cada web está relacionada con su IP, que es algo
así como la identificación (la matrícula) del ordenador que
la hospeda. Una IP está formada por números agrupados en 4
octetos (bytes), por ejemplo una Ip real sería
192.100.101.254. Al primer octeto (192) se le llamaría de la
clase A, el segundo (100) de la B, y el que nos interesa, la
clase C sería el 101. Y si debemos de variar los links que
provienen de la misma clase C es porque la clase C es común
entre mismos hostings y los buscadores pueden pensar que son
webs nuestras y que intentamos crear una popularidad
artificial.
Ideas para conseguir enlaces
Intercambios
Hay muchas formas de
conseguir enlaces. Hay sistemas de intercambios de enlaces
gratuitos. Además, buscando en la red encontrarás multitud
de webs deseosas de intercambiar enlaces contigo. Pero si
tienes que dar un link a cambio, evita intercambiar con
malos vecindarios.
Además, es normal entre
webmasters enviar emails a gente que ni conocemos para
intercambiar enlaces.
Directorios
En Internet hay multitud de
directorios webs donde podremos conseguir links sugiriendo
nuestras webs. Por ejemplo, Muchapasta.com tiene un
directorio propio de estos de intercanvio gratuito.
Además buscando en Google encontraremos muchos buscando por
palabras como "Directorio web", "añadir web" o "añadir URL".
Evitar penalizaciones
La penalización es un método
que tienen los buscadores para mejorar la calidad de los
resultados. Si detectan una web que hace trampas para
acceder a los primeros puestos lo que hacen es penalizarla,
que puede ser desde hacerla perder puestos hasta quitarla de
sus resultados o desindexarla.
Entre los motivos que existen
para ganarse una penalización figuran:
-
Texto oculto.
-
Webs duplicadas.
-
Popularidad artificial
-
Cloaking.
-
Doorways
1 - Texto oculto
El texto oculto es una
técnica que consiste en ocultar texto o links a los
visitantes de forma que sólo sea visible a los ojos de un
robot de un buscador como Googlebot, Msnbot.., etc.. Con
esto el webmaster llena de palabras claves la web (bien para
aumentar la densidad de palabras clave, bien para conseguir
nuevas palabras claves) o pone links ocultos a otras webs
(práctica muy común, sobretodo entre empresas SEO). Las
formas para ocultar texto son muchas, desde poner el texto
con el mismo color de fondo hasta los más sofisticados que
lo ocultan en el código, usando con malos fines etiquetas
como noscript o noembed entre otras.
2 - Webs duplicadas
Las webs o páginas duplicadas
consisten en crear webs idénticas, con el mismo contenido.
con esto consiguen links para la web que realmente quieren
posicionar.
Atención: aparte de que Google por ejemplo
detecta en muchas veces este caso y penaliza
automáticamente, es un error común entre webmasters que
cambian de dirección su web, que dejan online la misma web
en dos direcciones distintas.
3 - Popularidad artificial
La popularidad artificial son
técnicas para aumentar de forma articial los links entrantes
a una web. Hay diferentes modalidades:
Spam en weblogs y
libros de firmas
Consiste en aprovecharse de
blogs y libros de firmas para conseguir links.
FFA y granjas de
enlaces
Las FFA (Free For All) y
granjas de enlaces son webs dedicadas a dar enlaces sin
sentido de forma masiva. En unas puede ser gratis o pagando,
pero la única finalidad de estas webs es dar un enlace.
Cross-linking
Se trata de bien en webs
propias o junto a las de amigos u otros dedicarse
masivamente a enlazarse entre esas webs, como un anillo. Si
los buscadores entienden que eso es básicamente enlazarse
con fines puramente de conseguir enlaces puede llegar a
castigarlo.
4 - Cloaking
El cloaking es una
sofisticada técnica mediante la cual se consigue hacer webs
distintas en función de quién la visite. Esto de por sí no
pasa nada, ya que es útil para redireccionar a los
visitantes a las páginas de su idioma deduciéndolo según su
procedencia, por ejemplo.
El problema está si la única
misión de este cloaking es presentar a los usuarios una web
normal y a los robots de los buscadores una página
radicalmente distinta y optimizada con fines de posicionar
mejor.
5 - Doorways
Las doorways son páginas web
optimizadas para posicionar alto en los buscadores y
normalmente con una redirección que no ven los buscadores
para que cuando llega un visitante es redirigido a la pagina
buena.
También se puede ver el tema
de las penalizaciones específicamente por buscadores:
Conprueba si tu web esta
baneada.
Alta en buscadores
Una vez que tenemos hecha
nuestra página lo siguiente que queremos hacer es aparecer
en los buscadores. Nos podemos dar de alta en buscadores, y
casi todos los buscadores disponen de formularios para
hacerlo de forma fácil y sencilla. No obstante, el alta en
los buscadores nos puede llevar mucho tiempo y posiblemente
nos dejemos muchos buscadores relevantes que en el futuro
nos reporten grandes cantidades de usuarios.
Por ejemplo nosotros nos
damosd de alta en google, pero google ademas cuenta con
otros buscadores regionales como la extension google.es o ar....
para ello es interesante conocerlos todos una tarea bastane
dificil una forma sencilla es utilizar un sistema que los
hay recojido todos no ayudara siempre a conseguir que no
indexen antes pues si no pueden tardar muchos meses a
reconocernos uno por uno.
Recomiendo usar el sistema conjunto que e creado.
De todas formas, si aún se
quire probar los formularios de alta:
Alta en Google
Para darse de alta en Google
disponemos de un formulario, en
español
y en inglés (si
sabemos inglés es preferible siempre a las versiones
inglesas, ya que a menudo la información está más
actualizada y hay más servicios), entre muchos otros
idiomas.
Para darse de alta en este
buscador sólo hay que proporcionarle la dirección de nuestra
página web principal o un mapa de nuestro sitio, a partir
del cuál el robot rastreador del buscador podrá seguir los
enlaces hasta el resto de las páginas, en lo que consiste en
proceso de indexación.
Tal como decíamos el darse de
alta mediante formularios en estos grandes buscadores no
tiene ni mucho sentido ni tiene por qué llevar a que Google
nos incluya en su índice. Google lo
dice
con sus propias palabras:
NO es necesario que
envíe su sitio a Google para incluirlo en nuestro índice. De
hecho, la gran mayoría de los sitios listados no se envía
manualmente para su inclusión.
[...]
En Google, añadimos
miles de sitios nuevos a nuestro índice cada vez que
rastreamos la web. No obstante, también tiene la opción de
enviar su URL. El envío no es necesario así como tampoco
garantiza que el sitio vaya a incluirse en nuestro índice.
Dado el gran número de sitios que envían sus URL, es muy
probable que sus páginas durante un rastreo automático antes
de ser incluidas en nuestro índice a través del formulario
de envío de URL. NO añadimos todas las URL enviadas a
nuestro índice del mismo modo que tampoco podemos prever si
aparecerán ni cuándo lo harán.
Para saber si nos ha incluido
ya o no sólo hay que buscar en Google la dirección de
nuestra página web.
Alta en Yahoo!
El alta manual en Yahoo! no
difiere demasiado de Google. Disponemos igualmente dos
formularios de alta, tanto en
español
como en
inglés.
De la misma manera, sigue siendo más efectivo conseguir
enlaces hacia nuestra web.
Alta en Msn
El buscador de
Microsoft es el que cierra la lista de los buscadores más
usados por los hispanos. Como los anteriores también
disponemos de alta por
formulario.
Otros
buscadores
Aparte de
estos grandes buscadores existen otros también muy usados,
especialmente Altavista
o Alltheweb, por
ejemplo, pero estos buscadores usan los datos de Yahoo!, por
lo que si queremos aparecer en ellos la única forma es
aparecer en Yahoo!. Del mismo modo hay muchos grandes
portales con un buscador, como
Terra,
Ya.com o
AOL, que nos darán también
visitas, pero sus resultados son proporcionados por uno de
los tres grandes buscadores, en este caso estos tres reciben
los datos de Google y por ello también el proceso para
aparecer es aparecer primero en Google.
Controlar tu web
Controlar posiciones
Para el
posicionamiento es útil tener controladas las
posiciones de nuestra web
Con monitorizar
nuestras posiciones conseguiremos actuar a tiempo en
caso de pérdida de posiciones, por si nos hubiesen
penalizado u otros motivos. Herramienta para
comporbar la
posicion en buscadores.
Pero hay que tener en
cuenta a la hora de controlar posiciones por ejemplo
los movimientos bruscos. Es habitual encontrarse
sustos como pérdidas de posiciones enormes de golpe,
supuestas desindexaciones masivas o culaquier cambio
repentino. En posicionamiento esto habitual y
normal, especialmente para webs nuevas. Normalmente
los buscadores pueden darnos estos sustos que muchas
veces duran sólo unos días como máximo. Antes de
alarmarse es mejor esperar unos pocos días. En estos
movimientos bruscos juegan un peso importante los
datacenters de Google, por ejemplo.
Controlar las
visitas
Es también muy
importante ver como evolucionan las visitas y ver si
llegan a nuestras las visitas que esperamos, ver
nuestros logros, ver dónde vamos bien y dónde vamos
mal. Nos será útil también ver quién nos enlaza o
descubrir nuevas keywords interesantes para
posicionar páginas web.
Hay muchas formas de
controlar estas visitas. Para menos avanzados hay
muchos servicios online con los que copiando un
pequeño código en nuestras páginas conseguiremos
tener unas estadísticas sobre nuestras visitas. Para
más avanzados existen también scripts que instalando
en nuestro servidor también nos darán los datos que
deseemos, por ejemplo
phpMyVisites,
PowerPhlogger...
entre muchos otros. También nuestro hosting de pago
es posible que nos proporcione en nuestro panel de
control estadísticas más fiables (puesto que se
basan en los logs) como
Webalizer
o los atractivos a la vista
Urchin y
AWStats.
Controlar el
posicionamiento
Además de todo esto
también nos será muy útil controlar nuestro
posicionamiento más allá de nuestras posiciones,
controlando los backlinks y muchos otros datos
SEO.
Para ello emos creado
una gran cantidad de
herramientas que te ayudaran a controlarlo.
Además si quieres
realizarlo manualmente buscando en los principales
buscadores encontrarás información muy útil usando
unos ciertos comandos (ponlos en la caja de búsqueda
tal como aparecen aquí):
Google:
-
Link: Lista todos
los enlaces que apuntan la página especificada.
Estos datos actualmente se actualizan cada
cierto tiempo (meses) y actualmente Google sólo
muestra (si lo hace) una muy pequeña parte de
los links que conoce y valora. Para contar links
es mejor usar otros buscadores. Se usa:
link:www.dominio.com
-
@: Como el link,
también nos servirá para saber quién nos enlaza,
normalmente más útil que el link. Se usa: @www.dominio.com
-
Allinurl: Muestra
todas las páginas indexadas que contengan la URL
indicada en su URL, es decir, a la práctica nos
sirve para saber las páginas indexadas de un
dominio. Se usa así: allinurl:www.dominio.com
-
Site: Nos
devuelve los resultados para una palabra que
estén dentro del dominio indicado. Si ponemos un
dominio y no indicamos la palabra este comando
se convierte en el mejor para saber cuántas
páginas hay indexadas en un dominio. Si lo que
queremos es lo primero, se usa así:
site:www.dominio.com keyword. Si lo usamos para
saber las páginas indexadas, se usa:
site:www.dominio.com.
Yahoo!:
-
Link: Lista todos
los enlaces que apuntan la página especificada.
Se usa: link:http://www.dominio.com
-
Linkdomain: Lista
los enlaces al dominio especificado. Se usa:
linkdomain:www.dominio.com
-
Site: Nos
devuelve los resultados para una palabra que
estén dentro del dominio indicado. Si ponemos un
dominio y no indicamos la palabra este comando
se convierte en el mejor para saber cuántas
páginas hay indexadas en un dominio. Si lo que
queremos es lo primero, se usa así:
site:www.dominio.com keyword. Si lo usamos para
saber las páginas indexadas, se usa:
site:www.dominio.com.
Msn:
-
Link: Lista todos
los enlaces que apuntan la página especificada.
Se usa: link:www.dominio.com
-
Linkdomain: Lista
los enlaces que apuntan a cualquier página del
dominio especificado. Se usa:
linkdomain:www.dominio.com
-
Site: Nos
devuelve los resultados para una palabra que
estén dentro del dominio indicado. Si ponemos un
dominio y no indicamos la palabra este comando
se convierte en el mejor para saber cuántas
páginas hay indexadas en un dominio. Si lo que
queremos es lo primero, se usa así:
site:www.dominio.com keyword. Si lo usamos para
saber las páginas indexadas, se usa:
site:www.dominio.com.
Volver |
|
|