Por Charlie Ongay de Ongay Web
@charlie_ongay


Debemos comenzar definiendolo, una manera sencilla de explicarlo es:
 Un Trend Topic es una palabra o más que se repiten continuamente por los usuarios de twitter. 
tt
Estas palabras pueden ser temas, por ejemplo cuando son elecciones para presidente de la república (en México), es común mirar nuestra lista de TT y ver en ella palabras relacionadas con los candidatos, si son las olimpiadas seguro veremos en nuestra lista un hashtag que diga: olimpiadas 2012 esto se debe a que son temas que a mucha, mucha gente le interesan y por ello lo postean. Existen TT que son de chistes, quizá recuerdan los chistes de Ninel Conde, se viralizó en un par de horas, no tengo nada en contra de esta figura pública, sin embargo no creo que la gente que posteó sobre ella realmente les interese su vida, más bien lo que creo es que causó polémica, lo que motivó a miles de usuarios a postear sobre el tema, en este caso en particular Ninel Conde <-- Esto queridos amigos es generar que otros se relacionen con el término que buscas volver TT.

Imaginemos que comienza a llover dinero, es un tema del que mucha gente postearía, claro, después de tomarle fotos con su teléfono y tirarse en el piso para recolectar los más posible como si fuera piñata recién ponchada. Esto seguro se convertiría en minutos en TT.

¿Pero cómo logro hacer un TT?

Necesitas que mucha gente postee esa misma palabra (s), es decir, si quieres convertir en TT por fin es viernes debes conseguir muchos RT de tus seguidores, sin embargo lograrlo no es tarea fácil.

¿Cuántos tweets son necesarios?
La firma Buzzgain se cuestionó respecto a la cantidad de tweets que se necesitan para que un tema se posiciones como TT y así lo explica en su página Web:

De acuerdo con ellos, el promedio de tweets por día es de 1.9 millones, enviados por 631 mil 737 usuarios únicos, y el promedio de usuarios en línea es de 48 mil 233 por hora.
Señalan también que el número de tweets por hora es de 83 mil 394 y por minuto mil 350.
Luego, dicen que diariamente hay unas 8 mil 900 trending topics únicas, cada uno de ellos tiene una vida útil de 11 minutos.

Explican a continuación que para llegar a ser trending topic, todo depende de la cantidad de gente hablando del mismo tema (twitteando la misma palabra) y la hora del día.

Los resultados que obtuvieron de este análisis  indican que:

• De 4:00 a 10:00 se necesitan mil 200 tweets y 500 usuarios para llegar a ser trending topic.
• De 10:00 a 16:00 se necesitan mil 700 tweets y 734 usuarios.
• De 16:00 a 22:00 se necesitan mil 500 tweets y 811 usuarios.
• De 22:00 a 4:00 se necesitan mil 900 tweets y 923 usuarios
Imagen tomada de entrebits.com
[ Read More ]

Por Charlie Ongay de Ongay Web
@charlie_ongay

Es la más escuchada frase hoy en día: ya tengo twitter ahora ¿qué hago? Pues tweetear! Pero no se trata de hablar si te lavaste los dientes o si viste a la mosca pasar, bueno si la mosca traía un ipod entonces si, le agregas un hashtag y seguro se convierte en TT. Pero hablando en palabras terrenales, se trata de generar contenido útil para tus seguidores. Es decir, si vendes carros entonces quizá a tus seguidores les interese saber sobre cosas mecánicas, combustible o algo similar. Si vendes comida, quizá les interese saber más acerca de los ingredientes que utilizas en la elaboración de los alimentos y sus bondades para nuestro organismo. Si aún no te ha quedado claro, lo podemos resumir en un par de palabras:
A la gente no le gusta que le vendas, quiere que le informes para que pueda tomar la mejor decisión de compra. 
Pero no te pongas a describir tu producto en 20 tweets al día, hay que generar ese deseo de compra, si alguien a quien yo sigo no para de subir notas de lo bueno que es su producto lo más seguro es que lo elimine y deje de seguirlo, si quiero que me ofrezcan productos mejor prendo la televisión y espero los infomerciales de la madrugada.



[ Read More ]


por Iñaki Tovar PUROMARKETING.COM

Cuando el río suena agua lleva. Desde principios de año Google ha estado inquieto, probando cambios, actualizando algoritmos, asustando a webmasters, barruntando nuevas formas de mejorar la calidad de sus resultados, y de paso sus beneficios. Voy a analizar qué ha pasado en este tiempo, cómo ha afectado a los resultados y qué se puede hacer de cara al futuro del SEO.

Por si este año 2012 no se presentaba ya bastante negro con el apocalípsis maya esperándonos en Diciembre, Google parece empeñado en que el fin del mundo comience por su buscador, al menos el mundo SEO al que muchos somos adictos y del que tantos dependen.

Los de Mountain View, conocedores de su supremacía prácticamente a nivel mundial, y en países como España líderes indiscutibles con el 98% de las búsquedas, no buscan precisamente el consenso a la hora de definir qué es una página de calidad o qué parámetros son los adecuados a la hora de valorar un sitio web.

La gracia del SEO

Este es su juego, lo saben, y hacen lo que quieren cuando quieren. Esta vez han vuelto a romper la baraja y han sacado una nueva. A los que nos gusta jugar con ellos nos toca adivinar de qué va el juego esta vez y empezar a aprendernos las reglas de nuevo para poder volver a apostar y tener alguna oportunidad frente a la banca.

Por mucho que le disguste a algunos, aquí radica la gracia del SEO y su magia, siempre en constante evolución, forzándonos a estar a la última si queremos tener opciones. No nos engañemos, debido a esta inestabilidad reinante en el sector, son las mejores agencias de posicionamiento las que sacan partido de estos cambios gracias a su experiencia, a sus recursos y a su capacidad de adaptación. Que el SEO sea una profesión difícil beneficia a los verdaderos profesionales y los distingue del resto.

¿De dónde viene todo esta historia de los cambios en el algoritmo?

Google, en su afán por mejorar la calidad en sus resultados de búsqueda, está continuamente implementando cambios y actualizaciones de sus algoritmos. Podéis echar un vistazo a todos los cambios que introdujo el buscador en 2011. Lo cierto es que la calidad de las SERPs (Seach Engine Result Pages) de Google está en entredicho desde hace mucho tiempo y da la impresión de que últimamente van dando palos de ciego.

Y vaya con los palos, desde la primera venida de Google Panda allá por Febrero del año pasado, han sido muchos los que han perdido todo en internet y, en más ocasiones de las que Google reconocería, han pagado justos por pecadores.

Repasemos todos los cambios, ajustes, optimizaciones y anuncios que ha ido haciendo Google desde principios de año:

Enero de 2012

Google anuncia más de 30 cambios respecto al mes anterior entre los que se encuentran optimizaciones en la búsqueda y detección de imágenes de calidad y site-links mejorados y más relevantes.

Este mes también lanzó la polémica personalización de sus resultados en función de los datos sociales de usuarios logueados con sus cuentas de Google Plus, aunque más tarde, ante las quejas, añade un botón que permite desactivarlo a voluntad.

El día 18 Google Panda se actualiza a su versión 3.2 sin que queden muy claras las novedades introducidas más allá de arreglar desaguisados previos.

Al día siguiente anuncia penalizaciones para las webs con demasiados anuncios por encima del contenido, algo que entra en conflicto con las recomendaciones de Google Adsense de poner cuantos más bloques de anuncios mejor.

Febrero de 2012

Google vuelve a recalcar nuevas influencias de Panda en el índice principal y aplica parámetros para tener en cuenta velocidad de carga de las páginas, frecuencia de actualización de contenidos y comprobar errores ortográficos.

Este mes llegó la actualización llamada Venice que venía a reforzar la presencia de resultados locales, en algunos casos inundando literalmente la primera página.

Termina el mes con la actualización 3.3 de Google Panda y 40 nuevos indicadores de calidad implementados.

Marzo de 2012

Google nos da algunas pistas sobre la calidad y el funcionamiento de las búsquedas a través de un vídeo donde se demuestra que Google es cada vez más listo. Cierra el mes con la actualización 3.4 de Panda y avisando de que afectará al 1,6% de los resultados.

Abril de 2012

Este ha sido el mes más activo y relevante en cuanto a lo que ha supuesto para muchas webs que se han visto, de un día para otro, condenadas a los infiernos o elevadas a las primeras posiciones celestiales del buscador.

Comenzaron avisando de 40 nuevos cambios en Panda 3.4 entre los que destacaban unas extrañas insinuaciones sobre la forma en que valoraban el texto ancla de los enlaces.

A mitad de mes metieron la pata confundiendo algunas webs legítimas con dominios aparcados y tuvieron que solventarlo rápidamente ante las reclamaciones de los furiosos webmasters afectados.

El día 19 se lanzó silenciosamente la actualización a Panda 3.5 para culminar el día 24 con la madre de todas las actualizaciones. La que el propio Google empezó llamando “Penalización por sobreoptimización” derivó en “Actualización del WebSpam” para acabar denominándola finalmente “Penguin Update”

Supuestamente esta actualización está destinada a combatir el Spam que puebla los resultados de búsqueda de Google. Y aunque es cierto que para determinadas búsquedas los de Mountain View han hecho un buen trabajo, es un hecho que otros resultados han empeorado mucho ya que el algoritmo tiene fallos y también ha afectado a páginas que no habían incurrido en ninguna técnica considerada como Spam.

¿Pero en qué consiste esto del Pingüino?

Aunque aún es pronto y medio mundo SEO está investigando el tema, hay algunos datos
que podemos aventurar como posibles causas de que un sitio web se haya visto afectado:

  • Keyword Stuffing o sobre optimización de palabras clave en los contenidos de una página web.
  • Abuso de textos ancla sobre optimizados para enlazar las páginas internas de nuestro sitio.
  • Contenidos duplicados.
  • Contenidos de muy baja calidad.
  • Bloques de enlaces relacionados o “webs amigas” plagados de palabras clave.
  • Intercambio de enlaces agresivo.
  • Poca o ninguna variación de los textos ancla en los enlaces entrantes a la web.
  • Detección de grandes cantidades de enlaces considerados no naturales.
  • Detección de evidencias de haber participado redes privadas de compra-venta de enlaces.
Éstos son solo algunos de los factores que por sí solos o en combinación con otros pueden estar detrás de una web afectada por Google Pinguin, Google Panda 3.5 o una mezcla de ambos.

Los dos últimos puntos sobre los enlaces están siendo muy debatidos pues, de confirmarse, supondrían la entrada en escena del SEO negativo. Esto es, que cualquiera podría maliciosamente generar miles de enlaces a alguién de la competencia para que Google lo penalizará. El sentido común nos dice que Google nunca consentiría este tipo de prácticas pero de momento no podemos hacer más que conjeturas.

¿Cómo saber si he sido afectado por este cambio?

Si estás leyendo esto es porque seguramente has sido golpeado por el pingüino. Es fácil comprobarlo mirando tus estadísticas de visitas, si han caído drásticamente desde el día 24 de Abril tienes todas las papeletas. Si has aumentado el tráfico estás de enhorabuena porque seguramente es tu competencia la que ha caído cediéndote su puesto.

Si todavía no te ha afectado a estas alturas puedes respirar tranquilo (al menos de momento) puesto que Google ha confirmado que la actualización se hizo efectiva en todo el mundo el día 24 casi simultáneamente.

¿Qué pasa si soy inocente?

Si tienes claro que no has incurrido en ninguna técnica penalizada por Google puede que hayas sido víctima de otra terrible equivocación del buscador.

Afortunadamente son conscientes de que el nuevo algoritmo tiene fallos importantes y por ello han puesto a disposición de los webmasters afectados, un formulario para declararte inocente y que revisen manualmente tu sitio para comprobar que estás limpio.

Vale, y si he sido malo ¿qué puedo hacer ahora?

Siendo muy optimistas podemos pensar que Google, consciente de los fallos de este nuevo cambio, reconsidere algunos de los factores que ha tomado en cuenta y dé marcha atras, no sería la primera vez. Pero seamos realistas, eso es poco probable que ocurra, así que toca ponerse el uniforme de limpieza y ponerse a asear la página web hasta que quede inmaculada de cara a Google.

Para ello podemos empezar por:

  • Revisar nuestro centro de mensajes en Google Webmaster Tools para comprobar si nos han avisado de algo. Puede que ellos mismos nos digan qué es lo que hemos hecho mal y así poder solventar antes la situación.
  • Eliminar cualquier rastro de elementos sospechosos de Spam, como demasiados enlaces internos y externos con los mismos textos ancla, mucha densidad de palabras clave, textos de baja calidad que no guardan relación con los enlaces que contienen y en general cualquier bloque de enlaces tipo “blogroll”, “webs amigas”, “enlaces de interés” o similares.
  • Si has incluido a tu web en algún esquema de intercambio de enlaces intenta salir de ahí y que eliminen todos los enlaces que te hayan generado.
  • Si has comprado o alquilado enlaces en alguna red de blogs privada o en algún servicio “milagro” para posicionar tu web en dos días intenta que eliminen todos los enlaces que te hayan generado. Si no es posible recopila algunos de estos enlaces para demostrarle a Google que eres consciente del problema y de que no lo volverás hacer.
Sobre este último punto Google ha anunciado que la actualización Pingüino es totalmente automática y que no se puede arreglar mandando solicitudes de reconsideración. Por lo que, si has eliminado todas las causas posibles de tu penalización, el propio bot de Google se dará cuenta la próxima vez que te visite y te levantará la barrera.

Si aun así sigues sin dar con la causa o tu caso está más relacionado con Panda 3.5, te recomiendo que prepares una solicitud de reconsideración exhaustiva en la que detalles todo lo malo que has podido hacer en tu web para intentar manipular los resultados. Sé muy sincero en este punto y detalla qué soluciones has dado, cómo has corregido las infracciones y promete que no lo volverás a hacer.

Lo que dicen por ahí

A fecha de hoy hay mucha rumorología y pocos datos concretos sobre el estado actual de las SERPs y de los efectos y consecuencias de Penguin.

Algunos dicen que ahora los keyword domains (dominios que contienen una palabra clave) funcionan mejor que antes.

Otros dicen que las etiquetas de los blog se posicionan mejor y que las web 2.0 tipo subdominios de blogger.com o wordpress.com están alcanzando los mejores resultados.

La realidad sigue siendo que es muy pronto para asegurar nada y que hay mucho por investigar todavía. Esperamos que este artículo os haya servido al menos para arrojar algo de luz sobre este tema y daros una idea de por donde pueden ir los tiros. De todas formas saber que el mundo no se acaba en Google.

Formando yo parte de una agencia de SEO sería ilógico que no acabará diciendo con orgullo que, salvo dos casos muy concretos, todos los clientes deWebpositer han superado Penguin sin problemas, es más, muchos se han visto beneficiados por el cambio mejorando sus posiciones notablemente.

Os invito a usar los comentarios de este post para dejar vuestras dudas e intentaré ayudaros con vuestros casos concretos.
[ Read More ]


por Marina Alonso Álvarez PUROMARKETING.COM

Las empresas monitorizan las redes sociales con el fin de conocer las opiniones que los usuarios generan sobre las propias marcas, pero parece que en esto de monitorizar, no todas las redes cuentan igual y ni Facebook ni Google+ son tenidas demasiado en cuenta.

Un estudio reciente realizado por Market Intelligence y dirigido por Digimind revela cómo un 79,2% de las empresas lleva a cabo esa monitorización de las redes sociales con el fin de extraer información acerca de sus competidores, el desarrollo de la industria o las tendencias de los consumidores. El informe muestra cómo el 62,5% de las empresas monitorizatwitter y el 69,4% hace lo mismo con LinkedIn como parte de sus actividades diarias. Sin embargo, ni Facebook ni Google+ alcanzan la relevancia e importancia de Twitter como fuente de información por parte de las empresas que llevan acabo algún tipo de monitorización. Es evidente que en este sentido, Twitter le gana la partida a Facebook como fuente de monitorización de información y tendencias.

Esto es debido al alto flujo de información costante compartida en la red social de microblogging y su facilidad para detectar determinadas tendencias. A pesar de que su masa crítica de usuarios resulta menor que la de Facebook, la información compartida parece estar dotada de un carácter más relevante.

En momentos como los de ahora, en los que la información que se recoge de las redes sociales resulta vital para las empresas a la hora de decidir qué estrategias llevar a cabo y cuáles no, es interesante saber que el 21% de las empresas no están aprovechando esos beneficios que las redes sociales pueden aportarles como fuente de conocimiento de sus potenciales clientes. Eso sí, un 60,6% de los encuestados están ya en el proceso de planificar proyectos acordes a estos nuevos conocimientos.

Desde el punto de vista de Patrice François, director asociado de Digimind, existe una pequeña proporción de empresas que aún se mantienen cautos acerca del valor de monitorizar a las redes sociales pero la mayoría lo ve ya como un complemento que puede ayudarles a mejorar sus estrategias. A pesar de que algunas personas ven esta monitorización como algo que sólo puede beneficiar a determinadas tipos de negocios como las empresas B2C, lo cierto es que esta medida puede ser útil para casi todas las empresas y organizaciones, también internamente.

El informe por otra parte muestra una serie de datos un tanto sorprendentes. Por ejemplo, un 84,2% de los encuestados afirma que la situación económica no ha disminuido el tamaño de sus equipos de inteligencia, los dedicados a monitorizar las redes sociales. El hecho de que estos equipos tiendan a ser pequeños puede haber ayudado a evitar los recortes. Eso sí, un 28% de los encuestados admitió que su presupuesto ha disminuido en los últimos dos años.
[ Read More ]