UNIVERSIDAD PONTIFICIA DE SALAMANCA INGENIERIA EN ORGANIZACIÓN INDUSTRIAL Campus de Madrid ESTUDIO ACADÉMICO [ Inteligencia de Negocios ]
Analítica Web y BI en Social Media
Profesor: D. Luis Joyanes Aguilar Alumno: Gonzalo Plaza Chinchón Expediente: 086032 Email: me@gonzaloplaza.com
16 de junio de 2010
Resumen La evolución de Internet en los últimos años y el aumento exponencial del número de usuarios que interactúan sobre ésta está suponiendo no sólo cambios sociales sino además relacionales en la forma en la que las personas se comunican, dando por hecho que el modelo participativo y democrático sobre el cual está basada la Web 2.0 (o web social) ha sobrepasado todas las expectativas que se tenían de Internet tras el fracaso de los modelos de las llamadas "puntocom" de principios de siglo. La Web se ha convertido por lo tanto, y siguiendo un ritmo vertiginoso en la principal fuente de información actual a nivel mundial y según afirman los expertos, no tardará en ser el principal y más efectivo medio de comunicación creado jamás por el hombre. Con la llegada de la Web 2.0, han surgido cantidad de plataformas que permiten a los usuarios y a las empresas interactuar de manera social y comunicarse en tiempo real abriendo paso a una nueva era en la que la información ya no es difundida únicamente por unos pocos emisores, sino que todos los usuarios son participantes de un entorno colaborativo donde las reglas del mercado están cambiando. Las empresas que no utilicen las herramientas adecuadas y no participen en dicha evolución, no podrán subsistir en el nuevo modelo que se presenta.
Palabras Clave: Social Media, Web 2.0, Web en tiempo real, Redes Sociales, Analítica
Abstract The evolution of Internet in recent years and the exponential increase in the number of users who interact on its is not only relational but also social changes in the way people communicate, assuming that the model of participatory and democratic which is based Web 2.0 (or social web) has surpassed all expectations that had Internet after the failure of the models of so-called "dotcom" of the century. The Web has become so, and at a rapid pace in the current main source of information worldwide and experts say, will soon be the largest and most effective means of communication ever created by man. With the advent of Web 2.0, there have been many platforms that allow business users and interact socially and communicate in real time paving the way for a new era in which the information is no longer distributed by only a few emitters but that all users are participants in a collaborative environment where rules of the market are changing. Companies that do not use the right tools and do not participate in that development cannot survive in the new model presented.
KeyWords: Social Media, Web 2.0, Real Time Web, Social Networks, Analytics 2
Indice 1. Introducción .................................................................................................................. 4
2. ESTADO DEL ARTE .................................................................................................. 5 2.1. La Web en Tiempo Real ............................................................................................ 5 2.2. El caso de la Web en Tiempo Real y las catástrofes de Haití y Chile. ...................... 7 2.3. El Live Streaming u Online Broadcast como servicio .............................................. 7 2.4. Gestión del seguimiento de información en tiempo real en Twitter.......................... 8 2.5. Medición y Seguimiento del impacto de la marca en la Web 2.0 ........................... 18 2.6. Gestión de situaciones de crisis de marca en la Web 2.0 ........................................ 23 2.7. Herramientas Agregadores o Mashups de Contenidos en tiempo Real................... 25
3. INVESTIGACIÓN ACADÉMICA ............................................................................ 29 3.1. Analítica Web. Técnicas y Herramientas ............................................................... 29 3.2. Omniture SiteCatalyst ............................................................................................. 31 3.3. Google Analytics ..................................................................................................... 33
4. Conclusiones............................................................................................................... 38 5. Bibliografía ................................................................................................................. 39
3
1. Introducción La evolución de Internet en los últimos años y el aumento exponencial del número de usuarios que interactúan sobre ella está suponiendo no sólo cambios sociales sino además relacionales en la forma en la que las personas se comunican, dando por hecho que el modelo participativo y democrático sobre el cual está basada la Web 2.0 (o web social) ha sobrepasado todas las expectativas que se tenían de Internet tras el fracaso de los modelos de las llamadas "puntocom" de principios de siglo. La Web se ha convertido por lo tanto, y siguiendo un ritmo vertiginoso en la principal fuente de información actual a nivel mundial y según afirman los expertos, no tardará en ser el principal y más efectivo medio de comunicación creado jamás por el hombre. Para sustentar estas afirmaciones se puede comprobar fácilmente que la cantidad de información que en todo momento se está publicando y compartiendo en Internet es muy superior a cualquier otro tipo que use medios físicos o tradicionales para difundirse, incluyendo en estos los audiovisuales (televisión y radio). En el comienzo de Internet, el modo en el que se planteó la forma de transmitir y comunicara través de la Web no era más que una proyección de lo que ya se conocía solo que usando las nuevas tecnologías para hacerlo más rápido: existían unos pocos emisores que publicaban información para que fuera leída por un gran número de receptores. La comunicación en la Web por aquel entonces no era más que otro medio unidireccional y asíncrono en el cual los lectores, es decir, la gran mayoría de los usuarios no ejercían ningún tipo de participación: eran meros consumidores. Tras el paso de los años los avances tecnológicos en las redes de comunicaciones han permitido que la velocidad con la que la información es transmitida haya aumentado en el orden de unidades de medida, además de extenderse dicha tecnología a todo tipo de dispositivos móviles que actualmente pueden estar conectados eficientemente por casi todo el mundo. Este hecho sumado al aumento exponencial del número de usuarios que acceden a la Web, y al gran esfuerzo realizado por gran cantidad de empresas y personas innovadoras ha supuesto que en pocos años se hayan desarrollado no sólo nuevas tecnologías muy avanzadas sino que además se esté produciendo un verdadero cambio social en la forma en la que utilizamos y nos relacionamos a través de la red. La llegada de la Web 2.0 o social por lo tanto sitúa a los usuarios como el centro de la actividad en la Web y su participación en la misma es la que determina el éxito de la información publicada y compartida. El usuario de Internet como consecuencia ya no es tan sólo un consumidor o espectador, sino que forma parte de un sistema bidireccional en el que emisores y receptores interactúan formando una complicada red más parecida a la forma de relacionarse natural de la sociedad. La posibilidad de acceder a Internet de una forma más rápida y menos costosa junto con algunas características como la difusión del software libre, los modelos de negocio de servicios "freemium" y las pocas barreras de entrada existentes hacen de Internet un mercado que se encuentra hoy en día en plena ebullición (o renacimiento). Los usuarios han encontrado en la Web un medio lleno de posibilidades para satisfacer sus necesidades y muchas empresas se están encontrando con una gran oportunidad de ofrecer nuevos servicios adaptados a conceptos como compartir, comunicación, redes sociales, recomendaciones, geolocalización, etc.
4
2. ESTADO DEL ARTE 2.1. La Web en Tiempo Real Si nos basamos en datos reales de Internet World Stats y Google, el uso de Internet a escala mundial había alcanzado a inicios de 2010 a más de 1800 millones de personas, casí el 27% de la población total cuando un año antes era de un 22% y en 2007 del 16%. En sólo una década el incremento medio de uso de Internet en todo el mundo fue de casi un 400%. En 1996 existían apenas 250.000 páginas web, 2'6 millones en 1998, más de 74 millones en 2005 y actualmente hemos sobrepasado las 100 millones de webs activas en la red. Centrándonos exclusivamente en las redes sociales el 80% de los internautas pertenece a alguna red social, de los cuales el 60% accede todos los días dedicando un promedio de 50 minutos. Solamente la red social Facebook ha alcanzado este año los 350 millones de usuarios en todo el mundo, superando por primera vez a Google en tráfico de datos diario (en Estados Unidos) y creciendo a un ritmo del 999% en 2009 sólo en España. Por otro lado, se prevé que la red de microbloging Twitter se convierta, si no lo es ya, en el medio de comunicación que más información transmita a tiempo real y a nivel mundial. Con un número de usuarios superior a los 100 millones, ya se han sobrepasado los 12.000 millones de 'tweets' o mensajes de 140 caracteres que se publican a tiempo real por los usuarios. Un dato importante a destacar es que el 55% de dichos mensajes se transmitieron desde dispositivos móviles, una cifra que aumenta a medida que los fabricantes de los dispositivos y las compañías telefónicas ofrecen mayores facilidades y mejores avances en cuanto a conectividad. Un dato interesante de analizar, según la agencia 101 de medios sociales (Social Media) es que en España la red Social Tuenti ya ha superado los 7 millones de usuarios (un 80% de los jóvenes entre 16 y 26 años en España, según datos demográficos del INE). La aplicación para acceder desde el teléfono móvil a esta red social fue descargada por 43.000 personas en 3 días desde su lanzamiento, aumentando exponencialmente hasta alcanzar un 46% actual del total de usuarios. Este último dato refleja una clara tendencia al uso de Internet y concretamente de las redes sociales desde cualquier localización vía conexiones móviles. La Web en tiempo Real por lo tanto es la consecuencia de los aspectos comentados hasta ahora, reflejando de una forma cada vez más clara la necesidad que tienen las personas no sólo de relacionarse sino de compartir y retransmitir información y conocimiento. El gran volumen aparentemente descontrolado de información que se genera sin cesar en la Web se contrarresta mediante los algoritmos cada vez más complejos e inteligentes de los buscadores, que trabajan por ofrecer resultados lo más recientes e influyentes posibles. Es por ello que en los últimos meses se hayan producido por ejemplo acuerdos importantes con Twitter para poder mostrar información reciente publicada por los usuarios en los resultados de los principales buscadores (Google y Yahoo). La importancia de disponer de información reciente y veraz ha sido uno de los mayores objetivos de la sociedad a lo largo del tiempo. Las empresas requieren tener información actual de los mercados cambiantes para la toma de decisiones; los medios de comunicación tradicionales basan su estrategia en la obtención y difusión de noticias y acontecimientos recientes; y los gobiernos necesitan información actualizada para poder medir el impacto de sus políticas, por poner algunos ejemplos. Hasta la llegada de Internet y las nuevas tecnologías Web todo este tipo de información solo era accesible a grupos reducidos e influyentes que la utilizaban para beneficiarse económicamente y aumentar su poder. La Web no solo ha facilitado el acceso a información a todo el mundo sino que además ha proporcionado protagonismo 5
a todos aquellos que han querido expresarse. Sin entrar en conceptos como la Neutralidad de la Red, o libertad de expresión (que algunos gobiernos totalitarios tratan de censurar), en principio todas las personas que tengan acceso pueden obtener o publicar información y conocimiento sin ningún tipo de restricción. La información en tiempo real no sería posible sin este modelo distribuido en el cual los usuarios son los principales emisores de información y las redes sociales son las plataformas de comunicación utilizadas para este fin. Además, el gran avance que se está produciendo en cuanto a interconexión de redes (también llamado interconexión de nubes) facilita que toda esa información fluya más eficientemente por toda la Web, independientemente de donde se haya generado. Otro concepto importante que ya hemos mencionado es el de las redes sociales y la geolocalización. Según Enrique Dans, profesor de la EOI y experto en el tema, la Web en tiempo real no tendría sentido si no se pudiera publicar información en cualquier momento y desde cualquier lugar, y si no se facilitaran los medios tecnológicos adecuados para ello. Dado que esto último ya es una realidad, y existen tecnologías especialmente diseñadas para ello el incremento del uso de las redes sociales de geolocalización está siendo tan elevado como el de las propias redes. De hecho, en poco tiempo no existirá diferencia entre redes sociales y redes de geolocalización ya que todas ellas se están rediseñando para permitir un uso híbrido. Gracias a la filosofía del código abierto y la difusión por parte de los principales servicios de las llamadas API (Application Programming Interface) es posible actualmente integrar las ventajas que ofrecen estas plataformas en distintos dispositivos móviles, independientemente del fabricante o del sistema operativo donde se ejecuten. Este modelo además está siendo aprovechado por grandes compañías como Nokia, Apple y Blackberry en lo que se denominan "app stores", que son repositorios de aplicaciones de terceros (diseñadas por otras empresas o desarrolladores) con el fin de que los propietarios de sus terminales puedan disponer de un gran abanico de servicios y herramientas que se ajusten a sus necesidades. Las API no sólo facilitan el desarrollo de nuevas aplicaciones de escritorio y móviles para las redes sociales sino que además permiten que los servicios de las mismas estén interconectados de una forma segura entre ellos. Como ejemplo tenemos los protocolos de autentificación OAuth, OpenID, Google Authentication, Windows Live ID ó Facebook Connect, entre otros, que pueden ser utilizados libremente para identificarse con seguridad en servicios web de terceros sin necesidad de realizar un registro previo y único para el mismo. Esta estandarización de los protocolos de autentificación permite además que los datos ya disponibles en una red social puedan ser tratados desde otra y viceversa, lo que facilita a los usuarios la adaptación a un nuevo servicio. Siguiendo con el tema de la Web en Tiempo Real, las API abiertas suponen un gran avance en la rápida difusión de noticias y acontecimientos ya que los mismos pueden ser difundidos de manera automática a multitud de servicios, lo que llega a más gente.
6
2.2. El caso de la Web en Tiempo Real y las catástrofes de Haití y Chile. La completa globalización de Internet y en concreto de las redes sociales y los servicios de publicación en tiempo real está facilitando que casi cualquier acontecimiento político, social, deportivo o medioambiental esté siendo retransmitido por las propias personas que los siguen o que están interesadas. El claro ejemplo de la potente utilidad de las redes sociales en este aspecto se ha visto reflejado tras las últimas catástrofes que han acontecido tanto en Haití (12 de enero) como en Chile (27 de febrero) en 2010. En el primer caso, la noticia del terremoto viajó más rápidamente por todo el mundo a través de las redes sociales que por los propios medios de comunicación tradicionales. El colapso de la mayoría de los medios y el uso extendido del acceso a Internet desde los terminales móviles facilitó que cientos de personas afectadas por el terremoto utilizaran los servicios que la Web 2.0 ofrece para informar al resto del mundo, explicar sus relatos en primera persona y lo más importante: solicitar ayuda a través de la geolocalización. La repercusión fue tal, que miles de usuarios de las redes por todo el mundo ayudaron a difundir estas peticiones de ayuda logrando que todos los mensajes e información pudiesen llegar hasta los servicios de rescate y al resto de medios de comunicación. Por otro lado, aparecieron servicios online como el ChilePersonFinder de Google, que en 72 horas registró hasta 40.000 entradas de personas buscando a sus seres queridos u ofreciendo información acerca de otros. A raíz de la implicación de los usuarios en ayudar, mediante los social media, la U.S. Geological Survey (USGS) de Estados Unidos, organismo científico dedicado al estudio de los peligros naturales comenzó un proyecto bautizado como Twitter Earthquake Detection project (TED), que se centra en desarrollar un sistema que registrará todos los mensajes que aparezcan en twister relacionados con terremotos que acaban de suceder, ya que la ventaja frente a los estudios es que la información llega antes y permite conocer la magnitud de los seísmos y sus efectos en la población, a través de las reacciones públicas instantáneas de las personas que son testigos de la catástrofe. Con el fin de conocer el comportamiento de los usuarios de Twitter, la empresa SocialMetrix analizó también la información contenida en este sitio entre el 27 de febrero y el 2 de marzo obteniendo resultados notables. En su búsqueda de tweets relacionados con Chile, terremoto, búsqueda de personas, ofrecimiento o petición de ayuda, SocialMetrix detectó que 7.380 usuarios se involucraron, generando más de 23.313 tweets donde aparece la palabra Chile, 8.965 donde el tema principal es el la búsqueda de personas y 8.240 relacionados con ayuda a las zonas afectadas Otras iniciativas como Crisis Response, CrisisWiki, CrisisMappers o Map Maker fueron intensamente utilizadas en ambas catástrofes por los servicios de emergencia, voluntarios y ONG’s desplazadas gracias a la generación de mapas (ya existentes mediante la API de Google Maps) que indicaban las zonas donde se requería ayuda urgente, o bien donde ya se había prestado, lo que facilitó enormemente la organización de la ayuda en un escenario caótico como es un país semidestruido y sin comunicación. Además, a las pocas horas de los acontecimientos ya existían páginas en Wikipedia y Facebook con información completamente actualizada, lo que sirvió de fuente para informar al resto del mundo y al resto de medios. Los servicios de LiveStreaming que cada vez están teniendo más penetración en el entorno de las redes sociales también cobraron importancia durante los acontecimientos 7
catastróficos que estamos comentando. Como ya hemos visto, el aumento de la capacidad de transferencia de los datos y de la velocidad a través de la telefonía móvil ha facilitado que se desarrollen nuevos servicios para emitir videos en directo desde cualquier localización y sin necesidad de medios avanzados para ello. Algunos medios como el “Huffingston Post” habilitaron espacios para que cualquier persona afectada por el terremoto pudiese retransmitir las imágenes de lo que estaba sucediendo en directo desde sus terminales móviles, hecho sin precedentes que tuvo gran aceptación y sirvió de gran ayuda al igual que el resto de servicios. Como conclusión en estos casos podemos afirmar que el uso globalizado de las redes sociales y los servicios de publicación en tiempo real pueden ser aprovechados eficientemente para fines de ayuda en casos de emergencia, catástrofes naturales y apoyo en las tareas de rescate de personas. Por otra parte, la interconexión de las redes sociales y la facilidad de difusión de la información por los distintos medios sociales aumentan el potencial de los mismos demostrándose incluso que pueden resultar de mayor utilizad incluso que los medios de comunicación tradicionales. El reto por lo tanto de las plataformas y de los servicios web en tiempo real será el de promover aún más esta capacidad de interconexión entre los mismos además de desarrollar y mejorar las aplicaciones y herramientas que permitan canalizar los flujos de información que provienen de los millones de usuarios. El caso de los terremotos de Haití y Chile y el uso de las redes sociales parecen ser el comienzo de una tendencia que se repetirá en futuros y desgraciados acontecimientos similares ya que no sólo han facilitado a la difusión de la información en tiempo real, sino que además han servido como apoyo real a los servicios de rescate, a la planificación para la distribución de los recursos de ayuda por parte de las ONG’s y a la búsqueda de personas desaparecidas por parte de los usuarios. Las redes sociales por lo tanto se consolidan en este aspecto como un medio o plataforma de comunicación en la que todos los participantes son emisores y receptores de información. Además, la facilidad que supone transmitir información y relacionarse con otros usuarios promueve un entorno solidario en el que cualquier acontecimiento genera una cobertura mundial de ayuda sin precedentes. 2.3. El Live Streaming u Online Broadcast como servicio Web en Tiempo Real El Streaming se define como la tecnología capaz de retransmitir (descargar y ejecutar simultáneamente) audio y video desde entornos Web, sin necesidad de alojar los archivos contenedores de forma local. Los antecedentes de esta tecnología se remontan a 1995 con la aparición de RealAudio, con la cual los paquetes multimedia recibidos por el programa cliente desde el servidor eran reproducidos a la misma vez que los siguientes paquetes se recibían, utilizando una parte de la memoria local de forma temporal. Para ello, se utilizan protocolos ligeros como son UDP y RTPS, que facilitan en la medida de lo posible que se establezcan conexiones de flujo de datos continuos entre ambas partes. Desde su aparición, se han desarrollado multitud de aplicaciones y herramientas que han facilitado la disusión de contenido multimedia por Internet, pero no fue hasta la llegada del actual Adobe Flash Player y del servicio Youtube (2005) hasta que no se ha popularizado mundialmente. El streaming actualmente forma parte de la red como un elemento comúnmente utilizado en todo tipo de contenidos, pero al igual que la mayoría de las tecnologías Web que se están comentando, su uso se ha extendido en buena medida gracias al aumento del ancho de banda de las conexiones a la Internet.
8
La plataforma YouTube supuso un antes y un después en cuanto a la difusión de contenidos en la red, ya que los usuarios por primera vez disponían de un servicio eficiente sobre el cual poder visualizar contenidos multimedia sin necesidad de descargar los archivos localmente, además de tratarse de un medio social en el cual también se pueden alojar contenidos de manera sencilla y ágil. El uso de la tecnología Flash, gracias a la instalación del reproductor en cualquier navegador (independiente del Sistema Operativo) ha supuesto además una estandarización de facto del mismo, lo que permite una mayor difusión de los contenidos multimedia por todo el mundo. Según la Wikipedia, YouTube ha tenido un gran impacto en la cultura popular; prueba de ello es haber obtenido el premio al «Invento del año», otorgado por la revista Time en noviembre de 2006. El sitio se convirtió en un medio de retransmisión tan popular para la difusión de fenómenos de Internet de todo tipo que incluso ha sido utilizado por importantes personalidades como Barack Obama o Tony Blair, quien publicó allí su mensaje de felicitación al presidente de Francia, Nicolas Sarkozy, cuando éste resultó elegido. El sitio es también un medio de promoción para artistas y políticos en campaña electoral que cuentan con un espacio o canal (channel) propio; tal es el caso de Citizen Tube, un espacio donde los políticos en campaña para las elecciones de Estados Unidos exponen en blogs de vídeo sus propuestas y comentarios. De igual manera, la Comisión Europea puso en marcha un espacio dentro de YouTube para comunicarse con los ciudadanos. Entre los distintos factores que han influido en el éxito de YouTube, y de otros servicios de streaming como Vimeo o Blip.tv se encuentran su excelente ancho de banda para alojar y servir contenido multimedia, su carácter de red social donde los usuarios pueden interactuar entre ellos, puntuar y comentar los videos y su API externa y abierta para que los contenidos puedan ser incrustados fácilmente en cualquier sitio web, sin necesidad de tener conocimientos de programación. Estos factores se unen además a los acuerdos con los principales medios de comunicación y empresas discográficas con el fin de evitar problemas legales referentes a derechos de autor. Los acuerdos han permitido que los contenidos multimedia antes compartidos por los propios usuarios, se realicen de forma más ordenada por los medios propietarios que lo hacen aumentando la calidad de los videos y respetando su imagen comercial. El Streaming en tiempo real o Live Streaming es la evolución de los servicios que estamos comentando permitiendo la emisión de imágenes en directo vía Web desde un equipo remoto conectado a Internet. En principio cualquier equipo con una conexión de banda ancha puede transmitir video eficazmente, pero los últimos avances además permiten que se pueda hacer Live Streaming desde dispositivos móviles, lo que ha aumentado su atractivo, sobretodo en la Web en tiempo real. La posibilidad por lo tanto de publicar contenido multimedia en los principales servicios aumenta aún más el potencial del contenido compartido por los miles de usuarios activos en la Web 2.0.
9
A continuación se enumeran los principales servicios de Live Streaming:
Tabla 1. Comparativa servicios Live Streaming. Fuente: http://www.masternewmedia.org/
El Live Streaming móvil encuentra su aplicación en las redes sociales, orientadas como ya se ha comentado a publicar contenido lo más actualizado posible. De este modo, una persona puede estar grabando con su dispositivo móvil un acontecimiento y transmitirlo en directo a través de un servicio de Streaming en tiempo real, que automáticamente difunde el contenido, normalmente un enlace al video, por las principales redes sociales a las que el usuario esté conectado. Los servicios más importantes actualmente para realizar emisión en directo son UStream Live Broadcaster, Justin.tv y Qik, mundialmente utilizados para todo tipo de contenidos, acontecimientos, eventos y video blogs en directo, en algunos casos con una calidad excelente. Gracias a esta tecnología, cada vez es más común que los eventos, conferencias de empresas o universidades sean retransmitidos y seguidos en directo por un gran número de asistentes virtuales que no hayan podido desplazarse hasta los mismos. En España cabe destacar la primera agencia de noticias que basa su contenido en emisiones en directo de los principales eventos. Se llama Agora News y actualmente está teniendo un gran impacto entre los usuarios de las redes sociales que siguen los contenidos. Cada vez que hay un evento importante, las cámaras de esta agencia se desplazan hasta el evento y comienzan a emitir, además de publicar el enlace a la transmisión por las principales redes en tiempo real como Twitter.
10
2.4. Gestión del seguimiento de información en tiempo real en Twitter. En la última conferencia celebrada en San Francisco en abril de 2010 por Twitter, los fundadores (Ev Williams y Ryan Sarver) dieron a conocer los datos que reflejan la importancia de la red social que está revolucionando el mundo de Internet y de la comunicación. Algunos de los más importantes se enumeran a continuación: -
Más de 105 millones usuarios registrados 180 millones de visitantes únicos mensuales al sitio. 300.000 nuevos registros al día. El 60% del crecimiento de Twitter es exterior a EEUU. 3.000 millones de peticiones al API de Twitter al día. El 37% de los usuarios activos publican desde un teléfono móvil. 55 millones de tweets son enviados cada día, la gran mayoría de forma pública Se realizan 600 millones de búsquedas al día.
Estos datos, oficiales por primera vez llegan para justificar noticias como que la Biblioteca Nacional del Congreso de los EEUU haya adquirido la custodia de la base de datos de todos los mensajes enviados en la red social desde su lanzamiento en 2006 y en adelante, o que Google esté desarrollando importantes mejoras en su buscador que permitan mostrar resultados actualizados de los temas de tendencia (topic trends). Actualmente se puede afirmar que Twitter está revolucionando Internet y el mundo de la comunicación abriendo paso a un nuevo modelo de consumo y producción de información. Todos los medios de noticias ya referencian a la red social como fuente de información, además de publicar en la misma, y cada vez es más frecuente que el origen de muchas noticias sea el propio Twitter. Una de las principales razones que están acelerando estos hechos, aparte del exponencial aumento de usuarios de la red, es la capacidad que tiene Twitter de actuar como agregador de información desde cualquier parte de la web o aplicaciones externas. Gracias a su API avanzada y abierta, es posible publicar información en una cuenta de Twitter desde cualquier otra parte y de un modo sencillo, lo que permite difundir la información rápidamente por la red. Como consecuencia de esto, y debido a la limitación de 140 caracteres que se presenta, en los últimos dos años han aparecido diversos servicios de reducción del tamaño de las URLs (acortadores de direcciones), que permiten reducir largas rutas hacia un artículo, blog, noticia o video en unos pocos caracteres. Actualmente se calcula que el 95% de los millones de enlaces que se publican en Twitter están acortados por servicios como Bit.ly o Goo.gl. A continuación se muestran algunas ventajas e inconvenientes de éste tipo de servicios. -
Ventajas: Los acortadores de direcciones permiten gestionar largas direcciones con muchos caracteres de manera más ágil en el entorno de las redes sociales. Su reducido tamaño es más estético y fácil de difundir. Los servicios existentes permiten hacer un seguimiento estadístico del número de accesos al link, así como un estudio analítico de su difusión por las redes sociales.
-
Inconvenientes: Es evidente que la redirección a un sitio web concreto ralentiza la velocidad de acceso en lugar de hacerlo directamente. Pueden plantearse problemas de seguridad al acceder a un link del cual no se conoce el destino de antemano (es importante utilizar un servicio reconocido). La mayor parte de los 11
links en las redes sociales están acortados con un servicio, y dependen de éste para su funcionamiento: si el servicio se cae temporalmente o se cierra definitivamente, millones de enlaces quedarían inutilizados.
Realizar un seguimiento de la información de interés en Twitter es posible no sólo por la estructura funcional de la red social, sino que además alrededor de la misma han surgido multitud de servicios de terceros que ofrecen la posibilidad de utilizar toda la información que se publica en tiempo real, de una forma analítica para ser aprovechada por ejemplo para estudios de mercado o análisis de tendencias en la Web. La mayoría de estos servicios, algunos de ellos analizados a continuación, son utilizados actualmente por empresas para obtener sobretodo opiniones y comentarios de los miles de usuarios que publican en la red. Twitter se ha convertido por lo tanto en un punto de referencia para el estudio de los temas más importantes e intereses del momento. A continuación, se detallan algunos servicios que pueden ser utilizados por las empresas para realizar un seguimiento de información sobre cualquier temática, y para conocer en tiempo real cómo se desarrollan diferentes tendencias. 2.4.1. Twitter Search Se trata de la herramienta que la propia red social ofrece para realizar búsquedas internas a nivel mundial sobre cualquier palabra o conjunto de palabras claves. También es posible realizar búsquedas filtradas por localización, por fuente de publicación (propia web o aplicaciones externas), o incluso que mencionen a personas concretas de la red. Como ya se ha comentado anteriormente, Twitter ofrece una potente API para que estos datos puedan ser exportados a otro formato, aplicación o base de datos. Para diseñar búsquedas efectivas, se pueden utilizar además operadores condicionales, fragmentos de palabras, fechas y horas o referencias a frases exactas. La herramienta, además de ser la oficial es muy útil para ser utilizada en aplicaciones externas. A continuación se muestran los operadores de búsqueda dentro de la red: Operador Palabra1 palabra2 “frase uno” Palabra1 OR palabra2 Palabra1 –palabra2 From:usuario To:usuario Palabra near:”ciudad” Palabra since:yyyymm-dd Palabra until:yyyymm-dd Palabra filter:links Palabra source:app
Búsqueda Tweets con referencia a ambas palabras Tweets que contienen exactamente “frase uno” Operador condicional, tweets que contienen “palabra1” o “palabra2” Contienen “palabra1” pero no “palabra2” Tweets enviados por “usuario” Tweets que mencionen a “usuario” Tweets que contengan “palabra” enviados desde o cerca de “ciudad” Tweets que contengan “palabra” enviados desde una fecha concreta Tweets que contengan “palabra” enviados en una fecha concreta Tweets que contengan “palabra” y enlaces Tweets que contengan “palabra” y hayan sido enviados desde una aplicación concreta
Tabla 2. Operadores de búsqueda en Twitter. Fuente (Twitter Search)
12
2.4.2. Tweetzi Es una herramienta alternativa al buscador oficial de Twitter (Twitter Search), que permite realizar búsquedas rápidas, y a nivel global sobre determinados temas de conversación en Twitter, al estilo de un buscador tradicional como Google. También permite consultar los temas más populares del momento (Trending topics).
2.4.3. Tweet Volume A diferencia de otras aplicaciones de búsqueda de mensajes (tweets), ésta aplicación permite medir en tiempo real el número de veces que una palabra ha sido mencionada en la red social, pudiendo filtrar por fechas, y además comparar varias palabras y su evolución a lo largo del tiempo. 2.4.4. Social Ping Se trata de un servicio de monitorización de empresas y marcas en Twitter. Con esta herramienta, se puede realizar un seguimiento exhaustivo de todas las menciones que una o varias palabras clave en concreto tienen en la red social. El servicio permite un análisis gracias a su funcionalidad de informes y envío de alertas en tiempo real. Permite monitorizar los términos deseados, sobre los cuales va generando gráficos cronológicos que se envían por correo electrónico, o mediante mensajes directos en Twitter, e incluso SMS. Entre las funcionalidades proyectadas está la posibilidad de monitorizar clicks en las urls especificadas, lo que permite conocer la repercusión de una marca, producto o servicio. Para su uso será necesario dar de alta una palabra o frase a monitorizar, y los datos comenzarán a aparecer casi al instante en el Panel de Control o Dashboard, mostrando el número de tweets coincidentes en las últimas 24 horas, e incluso una estimación del número de seguidores a los que han llegado. Social Ping ofrece también datos estadísticos sobre los usuarios que más han mencionado las palabras clave, con lo que, en caso de estar monitorizando una marca, se dispondrá de una información muy valiosa sobre quiénes son los potenciales consumidores o clientes de la misma. 13
Imagen: Dashboard SocialPing. Fuente: SocialPing.com
Existen multitud de herramientas que permiten realizar una monitorización en tiempo real de una marca o palabra clave, y su uso aumenta al mismo ritmo que el de las redes sociales como Twitter. Cada vez las marcas están más concienciadas sobre ello, valorando el potencial que este tipo de herramientas ofrecen a la hora de tomar decisiones. La evolución del Web Mining, orientado a la Web 2.0 se encuentra en éste tipo de herramientas.
2.4.5. Trendistic Es una herramienta que permite analizar y realizar un seguimiento de los temas más populares en Twitter a nivel global, pudiendo obtener gráficas que demuestran el impacto de los mismos a lo largo del tiempo. Esta herramienta resulta muy útil para las empresas que desean conocer el impacto del lanzamiento de un nuevo producto, la reacción a una noticia sobre ellos, etc.
Imagen: Trendistic. Fuente: trendistic.com
14
2.4.6. TweetStats Mediante ésta herramienta, es posible generar un informe estadístico de actividad de determinados usuarios o cuentas de Twitter, pudiendo obtener datos de interés acerca de la densidad de uso del servicio, número de menciones a otros usuarios, número de réplica de mensajes e incluso una media del número de actualizaciones por intervalos de tiempo o de uso de aplicaciones externas (clientes para móvil, para escritorio, web, etc)
Gráfico. Densidad de actividad en Twitter para una cuenta. Fuente: tweetstats.com
Para una empresa con actividad en la red social Twitter, puede ser de utilidad conocer el nivel de uso de la misma de sus seguidores (o clientes potenciales), para poder conocer mejor el perfil de los mismos y ajustar su estrategia de Marketing Online que atraiga al mayor número de personas hacia la marca. Según vemos en las siguientes imágenes obtenidas de la propia herramienta (para el caso de una cuenta real de Twitter), se pueden obtener datos concretos de la franja horaria en la que un determinado usuario hacer mayor uso de su cuenta, con lo cual una determinada empresa quisiera que sus actualizaciones tuvieran influencia sobre el usuario, ésta debería de mostrar sus mensajes en dicho intervalo de tiempo.
Fuente: tweetstat.com
15
2.4.7. TweetMeme El uso de enlaces (links) a páginas externas en Twitter es tan elevado, que según datos oficiales (Conferencia Chrip, 2010), el 57% de los mensajes enviados por los usuarios enlazan a webs externas, principalmente noticias y artículos de blogs. Es por ello que a lo largo de los últimos meses hayan proliferado cantidad de servicios como TweetMeme (además de los acortadores de URLs anteriormente mencionados) que permiten gestionar el modo de enlazar cualquier contenido de la red hacia Twitter. En el caso de ésta herramienta, la API ofrece que se pueda incluir un botón en cualquier web que automáticamente (a través de la cuenta del propio usuario que lo utilice) publique la información en la red social. En concreto, TweetMeme es el servicio más utilizado del mundo y actualmente medios digitales importantes como Elmundo.es o TechCrunch lo usan nativamente en todas sus noticias. Esto les permite que su información y noticias sean rápidamente compartidas en algunos casos por miles de usuarios en sus cuentas de Twitter, generando una difusión de tipo CrowdSourcing (los propios lectores patrocinan el medio de manera voluntaria). Además, debido al éxito y el elevado uso de la herramienta, a través de su portal se pueden consultar los enlaces y noticias más populares del momento, información que puede ser utilizada por las empresas para analizar de forma veraz cuáles son los temas que más interesan al público en tiempo real, pudiendo filtrar dicha información por el tipo de contenido, por ejemplo.
Temas más enlazados en Twitter. Fuente: TweetMeme.com
16
2.4.8. MyTwitterCloud Al igual que existen cantidad de herramientas para realizar búsquedas y seguimiento de información por palabras clave, por temas populares, por actividad de usuarios, también han surgido herramientas que permiten realizar búsquedas de usuarios concretos dentro de Twitter. Éste tipo de servicios son muy populares ya que la mayoría de usuarios o empresas prefieren preseleccionar el tipo de usuarios a seguir, ya sea por su perfil profesional o por la temática o sector sobre el que escribe el usuario. MyTwitterCloud es una herramienta creada en España y en uso a nivel internacional, que permite encontrar usuarios dentro de Twitter dependiendo del sector al que pertenezcan o bien filtrados por el modo en que los demás usuarios les han “etiquetado” en sus listas personales y por su nivel de influencia. La herramienta es muy útil ya que permite encontrar fácilmente listados de usuarios que se dediquen por ejemplo al desarrollo web, al marketing, o que sean empresarios del sector de Internet ubicados en España. Según se ha podido conocer, algunos departamentos de Recursos Humanos utilizan éste tipo de herramientas para buscar posibles empleados.
Imagen: Búsqueda de usuarios. Fuente: Mytwittercloud.com
2.4.9. Conclusiones acerca del uso de Twitter por la empresa: La posibilidad tecnológica que ofrece Internet y en concreto Twitter para analizar temáticas y palabras utilizadas en la red social en tiempo real está permitiendo que muchas empresas hagan uso de dicha red para mantenerse informadas de la influencia que acontecimientos y promociones de productos tienen sobre el público (en estadísticas sobre millones de usuarios) y del impacto que tiene su propia marca sobre el mercado. Este hecho está cambiando la forma en la cual muchas compañías realizan estudios de mercado además de adaptar su forma de hacer marketing. Las redes sociales, y en 17
concreto Twitter posibilita que éste marketing sea bidireccional (siguiendo la filosofía de la Web Social o 2.0), y por lo tanto la forma de comunicarse con los clientes o con segmentos determinados (nichos de mercado) cambie para adaptarse a los nuevos tiempos. Las empresas que utilizan Twitter para consultar a sus clientes y comunicarse con ellos, como es el caso de la americana Dell Computers, están comenzando a percibir un retorno de inversión (ROI) elevado sobre su inversión en actividades de Social Media Marketing, aumentando tanto su margen de venta de productos como de su imagen en los consumidores, que se muestran menos reacios a la publicidad en entornos de redes sociales. La gestión de la reputación online es otra de las actividades que muchas empresas están comenzando a medir gracias a herramientas como Twitter.
2.5. Medición y seguimiento del impacto de la marca en las Redes Sociales Como ya hemos comentado, el auge del uso de los medios sociales ha cambiado la forma en la que los usuarios se comunican con las empresas y el modo en que éstas realizan sus campañas de promoción y comunicación con sus clientes. Las redes sociales son un fenómeno imparable que crece de forma exponencial y sobre el que las empresas deben adaptarse y participar, ya que los medios tradicionales de publicidad, además de ser cada vez menos efectivos sobre el mercado, no proporcionan a los consumidores y clientes las herramientas necesarias para comunicarse que si permiten los entornos sociales de la Web 2.0. Es por ello que una empresa comprometida con el seguimiento de su imagen y de su relación con los clientes debe posicionarse en la web de tal manera que sea posible medir su grado de influencia sobre los consumidores, siendo el mejor lugar para hacerlo los medios sociales como Blogs, redes sociales y redes de microblogging. La imagen que una empresa tiene en la Web 2.0 está directamente relacionada con su reputación, y la medición, seguimiento y participación será muy necesaria si ésta quiere adaptarse a un nuevo modelo de mercado en el que la relación cliente-empresa toma más importancia que nunca. Las plataformas 2.0 más populares como son las Redes Sociales no paran de crecer, y sus usuarios como ya se ha comentado son los principales actores que publican, comparten y opinan acerca de todo lo que les interesa, incluyendo su percepción de las empresas o productos en los que están interesados. Estos comentarios y opiniones podrán ser buenos si están satisfechos, o podrán ser negativos para la empresa si los clientes no están satisfechos con el trato recibido o con la calidad de los productos que han comprado, por ejemplo. Las empresas que se encuentren activas en la Web 2.0 tendrán la oportunidad no solo de medir dichos comentarios para analizar su reputación sino que además estarán obligadas a establecer nuevas vías de comunicación con los clientes que les permita mantener y difundir su estrategia de imagen. La Inteligencia de Negocios por lo tanto no se centrará únicamente en recoger y analizar datos de la Web sino que además servirá para que las empresas tomen decisiones estratégicas más rápidamente y de una forma más realista en función de la influencia que su marca tenga sobre sus clientes potenciales o consumidores, que en gran cantidad serán activos en las redes sociales. Las empresas más pequeñas, orientadas a pequeños nichos de mercado también podrán aprovecharse de la Web 2.0 para realizar un
18
seguimiento de la información que circula sobre su nicho, además de poder analizar las costumbres de sus clientes potenciales. Es por ello que a lo largo de la expansión de los medios sociales hayan surgido herramientas de análisis para medir el impacto de las marcas en tiempo real en las principales plataformas de la Web 2.0: blogs, redes sociales y microblogging. Una de estas herramientas es SocialMention, que permite medir en tiempo real el número de menciones que un tema determinado tiene en toda la web, independientemente de su fuente, además de generar una serie de informes que permiten interpretar dichos datos con el fin de que las empresas puedan tomar decisiones al respecto. A continuación, se muestra una imagen de éste servicio al consultar acerca de la marca “vodafone” y su impacto reciente en la Web:
Imagen: Búsqueda con SocialMention. Fuente: Socialmention.com
La búsqueda se puede filtrar por Blogs, Microblogs, Networks, Bookmarks, Comentarios, Eventos, Imágenes, Noticias, Videos, Audio, Preguntas o aplicar todos ellos a la exploración. Un vez que realizas la búsqueda te lista todos los resultados encontrados, y te muestra una serie de indicadores mediante los que te permite realizar un análisis genérico de tu influencia en los medios sociales. Que son: Fuerza: Que es la probabilidad de que se esté hablando de la marca en medios sociales.Y es resultado de dividir la mención/menciones que haya en el plazo de 24 horas entre las alusiones totales. Hemos de interpretar este resultado con sentido común pues si somos nosotros los que estamos generando la mayor parte del contenido en medios sociales el resultado no será del todo correcto. Y la
19
aplicación no permite excluir determinados dominios, como el blog corporativo, la branding page de Facebook o la cuenta de Twitter. Sentimiento: El sentimiento se divide en dos datos: el coeficiente de las menciones positivas contra las que son negativas. (Los valores se encuentran entre 0 y 10) Pasión: Es la probabilidad de que los individuos que hablan de la marca lo hagan en varias ocasiones. En cierto modo la pasión se traduce en fidelización, ya que a más individuos nuevos hablando de la marca menos pasión y viceversa. Alcance: Este indicador mide el alcance de influencia que tiene la marca y viene dado por el número de los autores que se refieren a la marca divido por el número total de menciones.
La aplicación proporciona algunos datos cuantitativos extra a considerar que son la media del número de horas que transcurren entre mención y mención; las horas transcurridas desde la última, el número de autores únicos que están aportando más contenido respecto a la marca – extraídos de Twitter y Facebook entre otros – y el número de retweets (réplicas en Twitter) que se hayan proporcionado. A modo de gráfico de barras y un poco más abajo aporta mucha más información que nos ayuda a disponer de un pequeño cuadro de mando con datos tales como: tipo de sentimiento hacia la marca – positivo, neutral o negativo. Pudiendo clicar en cada uno de los estadios para comprobar de donde provienen e intentar encauzar determinadas situaciones. También un Top Ten de las Keywords que resumen las menciones de la marca en medios sociales; los usuarios únicos, identificados bajo sus nicknames y soporte usado para la alusión; un listado de los HashTags (etiquetas) más usados y las fuentes u origen de las menciones, que no son otra cosa que los soportes o medios sociales desde donde se están haciendo los diversos comentarios sobre la marca. Y por último y no menos importante SocialMention nos facilita el dato del PostRank de cada entrada de un blog donde se haga referencia a la marca a analizar. 2.5.2. Compete Site Analytics Se trata de otra de las herramientas más importantes para medir la influencia de una marca en la Web, en este caso analizando el propio site web es Compete, servicio que permite comparar varios sitios en función de las referencias que se hacen a estos en toda la Web y Web 2.0: enlaces desde blogs, menciones en redes sociales, búsquedas por palabras concretas, etc.
20
Con esta herramienta se puede encontrar puntualmente el tráfico de la web de una empresa y el de los competidores para realizar exhaustivas comparaciones. Compete toma en cuenta las estadísticas del tráfico en la red para realizar los análisis de forma gráfica mostrando visualmente los datos. Este servicio se considera una buena referencia para el análisis en internet, ya que brinda un análisis de los mercados principales, palabras claves y los portales en la web. Entre los análisis que realiza hace una comparación numérica de los sitios, análisis del comportamiento y mantener un seguimiento. También se pueden hacer búsquedas de palabras claves y encontrar en cuántos sitios los usuarios han hecho click en una determinada palabra. Compete ofrece además una gráfica de análisis de páginas web con mayor índice de visitas. Se puede observar en una gráfica por periodo de tiempo, y en el tiempo total que los usuarios permanecieron durante su visita.
21
2.5.3. Nielsen BlogPulse Es un servicio orientado principalmente a la búsqueda y análisis de tráfico en blogs. Además ofrece una serie de aplicaciones complementarias, como gráficas y estadísticas ó nivel de menciones de los contenidos en la Web. Actualmente está diseñado para funcionar óptimamente con contenidos en inglés, normalmente de EEUU, aunque se espera su expansión a países de habla hispana. Aún así, es capaz de dar resultados muy claros y explicativos, donde a través de sus servicios complementarios se pueden estudiar tendencias o analizar la calidad de los enlaces, entre otras cosas.
Imágenes: Nielsen BlogPulse. Fuente: BlogPulse.com
22
2.6. Gestión de situaciones de crisis de marca en la Web 2.0 2.6.1. El caso de Toyota La gestión de las crisis evoluciona junto a la cultura de los medios de comunicación social. Y es coherente que así sea en la medida en que cada vez hay más personas que tienen contacto con las marcas a través de estos medios, y éstas tienen que ofrecer información oficial, sea en momentos de bonanza como en situaciones más complicadas de crisis.
Portal Toyota Conversations. Fuente: toyotaconversations.com
Un buen ejemplo es el llevado a cabo la japonesa Toyota, quien está llamando a revisión alrededor de 8M de vehículos por defectos de fabricación en la aceleración, frenos, según ya ha comunicado a sus distribuidores. El mismo presidente de la compañía pidió disculpas ante los medios, ante lo que será un duro golpe contra su reputación como fabricante, conseguida hasta el momento. Pero aquí el caso de ejemplo de esta nueva gestión de crisis online reside en 2 puntales clave: afrontarla con rapidez y ponerse al lado del usuario (cliente o demandante de información de la marca) conversando e influyendo su discurso a través del uso de herramientas sociales. Una de las estrategias innovadoras, en cuanto a la gestión de la comunicación de crisis, que están aplicando es la de Toyota Conversations. Se trata de un site, construido adhoc en colaboración con Tweetmeme (servicio comentado anteriormente), donde se muestran los mensajes sobre Toyota más twitteados. En otras palabras, facilita el acceso via web de las noticias, mensajes, tweets, posts, opiniones que más interesan a los usuarios. Cuantos más retweets (más citas de un mismo mensaje), más arriba estará y más visible resultará en el sitio. Resulta un sistema de promoción social de información en que son los usuarios quienes dan mayor visibilidad a las informaciones que consideran más relevantes. Según el análisis de AdAge, el site Toyota Conversations, con tecnología de promoción de noticias, atrajo cerca de 1 millón de visitas durante la primera semana de su lanzamiento, el 8 de febrero.
23
2.6.2. El caso Nestle Nestle es el último caso de crisis corporativa por una mala comunicación en redes sociales. En este post explicaremos desde su origen como se gestó este desastre 2.0 y como podria haberse evitado. Sorprende que compañías multinacionales que invierten grandes cantidades en sus estrategias Marketing aun no sean conscientes del cambio que las redes sociales han significado para la comunicacion corporativa y de los riesgos derivados de intervenir en estos medios sin conocer y respetar las reglas de etiqueta comúnmente aceptadas por sus usuarios. Todo empezó el pasado 17 de marzo cuando Green Peace publicó un informe en el que se dice que Nestlé utiliza aceite de palma procedente de Indonesia para elaborar sus productos y su proveedor, Sinar Mas, incumple las leyes indonesias deforestando la selva y destruyendo el habitat de una especie protegida como los orangutanes. Nestle respondió negando la acusación y diciendo que su proveedor es Cargil, pero los ecologistas, que afirman que Sinar Mas es, a su vez, el proveedor de Cargil, lanzaron una campaña en Youtube, Twitter y Facebook invitando a los internautas a utilizar un logo modificado de Kit-Kat con la palabra “killer”. El 18 de Marzo la multinacional suiza consiguió que Youtube retirara el video alegando uso indebido de su marca registrada y publicó en su página de Facebook una entrada en la que decía a sus fans de que si publicaban alguna modificación de su logo borrarían la publicación, lo que provocó una avalancha de críticas contra la empresa.
Comentarios en la página de fans de Nestle. Fuente: Facebook.com
Esta actitud ha generado una ofensiva global contra la empresa suiza, tanto en grupos anti-Nestle como en su propia página de Facebook, que difunden listados de productos publicados durante otra crisis de comunicacion ya superada relativa a los productos de alimentación infantil. Tras dos días bajo el chaparrón y varios comunicados en su web, un representante de Nestle intentó sin éxito calmar los ánimos insinuando que la reacción del público era desproporcionada, ya que no censuraban a todo para permitir solo comentarios positivos. Finalmente, intentó dar marcha atrás y pidió disculpas por los errores cometidos y sus malas formas. 24
2.7. Herramientas Agregadores o Mashups de Contenidos en tiempo Real: La cantidad de servicios que existen en la Web 2.0 con contenidos actualizados continuamente, como los que hemos visto en el desarrollo de éste documento hace necesario que aquellas personas o empresas que quieran utilizar dichos medios para el análisis o con fines profesionales deban utilizar herramientas diseñadas para ello. Los agregadores de contenidos sociales, también conocidos como Mashups Mashup es una palabra que proviene de un término musical en inglés, que significa la creación de una nueva canción a partir de la mezcla o pedazos de otras canciones. Desde este concepto se basa el mashup de software. Wikipedia lo define como “una aplicación o sitio Web que combina contenido de una o más fuentes dentro de una nueva experiencia de usuario o manejo de información”. “Los mashups permiten que cualquiera combine, de forma innovadora, datos que existen en diferentes páginas Web.” Dicha integración es posible, como ya se ha comentado anteriormente, gracias a las APIs que los servicios 2.0 ofrecen a los desarrolladores de aplicaciones externas (también conocidas como third apps ó aplicaciones de terceros). A continuación se analizan algunas herramientas que los gestores de la identidad de las empresas en la Web (Community Managers) pueden usar para medir su influencia y comunicarse con los consumidores o clientes potenciales.
2.7.1. HootSuite Es una potente herramienta utilizada por profesionales Community Manager que permite gestionar simultáneamente diferentes cuentas en las redes sociales más importantes además de ofrecer la posibilidad de realizar un seguimiento y análisis de la actividad de la cuenta empresa en las mismas.
Imagen: Aplicación HootSuite. Fuente: hootsuite.com
Además de HootSuite, existen otras herramientas similares, como Seesmic o TweetDeck que también permiten realizar una gestión profesional de las redes sociales por parte de la empresa. 25
2.7.2. Diferencias entre los distintos gestores de redes sociales: Las características comunes más relevantes son la gestión de múltiples cuentas de usuario en redes sociales como Twitter y Facebook y el manejo de otras redes como LinkedIn y MySpace. Por otro lado, su entorno gráfico cuenta con una estructura básica muy similar, aunque cada uno de ellos dispone de diferentes opciones para gestionar los perfiles y personalizar el aspecto estético. Cada cliente permite añadir diferentes columnas con información específica. En el caso de Twitter, lo más común es disponer de columnas con las últimas actualizaciones de los contactos, menciones o contestaciones realizadas y mensajes privados. También el usuario cuenta con la posibilidad de suscribirse a búsquedas fijas sobre un término o a diferentes listas de usuarios. Para Facebook, estos clientes disponen en general de una columna con las últimas actualizaciones de los contactos del usuario. Además, la actualización de la información se realiza de forma automática, sin que el usuario necesite hacerlo de forma manual, aunque los tres servicios comparados añaden una opción de recarga en el caso de que se necesite actualizar la cuenta en un momento determinado. A pesar de contar con entornos gráficos muy parecidos y con características principales comunes, estos clientes establecen diferencias en su uso. Seesmic cuenta con diferentes clientes para ordenadores para la gestión de Twitter y Facebook. Los usuarios disponen de una versión web y de un cliente para el sistema operativo Windows. En ambos casos la gestión sólo se realiza de Twitter. Seesmic Desktop. Sin embargo, es una aplicación multiplataforma basada en Adobe Air que permite la gestión de múltiples cuentas de usuarios tanto de Twitter como de Facebook. TweetDeck dispone únicamente de un cliente multiplataforma para ordenadores basado en Adobe Air. Este cliente puede gestionar numerosas cuentas en Twitter, así como un perfil de usuario en Facebook, LinkedIn y MySpace. HootSuite es el único cliente que sólo cuenta con una versión web. Sin embargo, la cantidad de funcionalidades y características incorporadas lo hacen imprescindible para la gestión avanzada y profesional de redes sociales.
Tabla Comparativa Gestores Profesionales Redes Sociales
26
2.7.3. Swix Swix es una herramienta mediante la cual se pueden realizar análisis estadísticos de la evolución de la cuenta de una empresa en las diferentes redes sociales. Es muy útil sobre todo para poder realizar una medición del impacto de la actividad de la empresa en la Web 2.0 y de ese modo poder obtener informes que sirvan como base para un estudio del ROI (Return On Investment). SWIX es un potente agregador.
Imagen: SWIX Social Media Analytics. Fuente: SWIXhq.com
El potencial de SWIX reside sobretodo en la cantidad de redes sociales que se pueden agregar, en total más de 20, pudiendo obtener de ellas únicamente los indicadores que se crean oportunos: visitas a nuestro blog, seguidores en Twitter, número de fans en Facebook, media de videos en nuestro canal de Youtube, etc. Además, es compatible con servicios como Google Analytics lo que aumenta su utilidad. El ROI es un aspecto que cualquier empresa que invierta tiempo y recursos en la Web 2.0 debe medir. En dicha medición de la rentabilidad de la actividad en los entornos de Social media se han utilizado hasta la fecha varios baremos adaptados de modelos tradicionales. Entre ellos: Retorno de la interacción: la duración del tiempo invertido en conversaciones o interacción con objetos sociales (presencia online de marcas) y, a su vez, los resultados obtenidos de éstas que sean dignos de medición. Retorno de la participación: la métrica asociada a la medición y valoración del tiempo invertido en participación en social media a través de conversaciones o creación de objetos sociales. Retorno de la implicación: similar a la participación; los especialistas en marketing han analizado los puntos de contacto para documentar estados de interacción y las métricas y el retorno potencial que éstos llevan asociados.
27
Retorno de la atención: en un trasfondo de economía de atención, hemos valorado el modo de captar atención, mantenerla y cuantificar la respuesta. Retorno de la confianza: una variante de la medición de la fidelidad del cliente y la posibilidad de referencia; un barómetro de confianza establece la confianza del cliente obtenida mediante los social media y la posibilidad de que éste se convierta en defensor de la empresa y el posible impacto de esto en el negocio a futuro. Sin embargo, con la integración gradual de los Social Media en la mecánica de empresa, aparecen estrategias más sofisticadas de medición. Para muchos no basta con contar suscriptores, seguidores, fans, volúmenes de conversación, etc., sino que es necesario un conocimiento intrínseco del efecto de las redes sociales en nuestra actividad empresarial. En 2010, las actividades en social media todavía se consideran “proyectos piloto”. Con el fin de atraer atención sobre una marca, se desvían presupuestos de otras actividades hacia iniciativas experimentales. Si vamos a extraer recursos de otras áreas para invertirlos en Social Media, es necesario definir una estrategia clara, incluyendo: a) b) c) d) e) f) g) h) i) j) k)
Ventas Registros Referencias Enlaces (la moneda de cambio de la Web social) Votos Reducción en costes y procesos Descenso en problemas para los clientes Generación de oportunidades Conversión Ciclos de venta reducidos Actividad de entrada
28
3. INVESTIGACIÓN ACADÉMICA 3.1. Analítica Web. Técnicas y Herramientas La analítica web consiste en grabar y analizar los datos de navegación de los usuarios en un sitio web. En un primer momento, se utilizaban los datos grabados en los logs de los servidores. Actualmente, la mayoría de las herramientas de analítica web funcionan mediante un código javascript que se inserta en el pie de página, y que recoge los datos que nos interesen para enviarlos a una base de datos que posteriormente podremos consultar. Las principales medidas (métricas) de cualquier herramienta de analítica web son: -
Páginas vistas Usuarios Únicos Visitas Tiempo de navegación
Otros datos que manejan algunas herramientas de analítica web son: -
-
-
-
Datos de clicks ("clickstream") que permiten reconstruir las rutas de navegación de los usuarios así como dibujar "mapas de calor" sobre una página, mostrando los elementos con más clicks Euros (por ejemplo, en un sitio de comercio electrónico, el importe de una compra; en un sitio de contenido, el valor de un click en un anuncio o de la impresión de un banner) Orígenes del tráfico: Los sitios web que nos envían visitas, así como las palabras clave que los usuarios utilizan en los buscadores para llegar a nuestra web Páginas de entrada: La página por la que un usuario entra en nuestro sitio Páginas de salida: la página desde la cual un usuario abandona nuestro sitio Eventos del sitio web: por ejemplo, número de usuarios que se registran para recibir un newsletter, número de usuarios que hacen una búsqueda, número de formularios enviados, etc. Abandono de formularios: número de veces que un formulario se empieza a rellenar y se abandona, así como el campo en el que se abandona el formulario
Existen muchas técnicas y procedimientos que nos permiten aprovechar los datos recolectados por una herramienta de analítica web a fin de mejorar la usabilidad de un sitio web. A continuación describimos los más importantes: 3.1.1. ClickMap El "clickmap" (mapa de clics) muestra dónde hacen clic los usuarios. Algunas versiones del "Clickmap" sólo muestran datos de clics en las zonas clicables (links, botones), como es al caso de la funcionalidad llamada "Site overlay" de Google Analytics. Otras herramientas como Clickdensity, sin embargo, son capaces de mostrar datos de clic en cualquier zona de la pantalla, independientemente de si tiene un link o no.
29
Finalmente, herramientas como Omniture SiteCatalyst pueden mostrar los ingresos que genera cada clic en cada elemento de la página. Además, es capaz de mostrar datos en tiempo real. La utilidad del mapa de clics es evidente: de un vistazo, podemos ver dónde clican los usuarios en una pantalla determinada, y rápidamente actuar para mejorarla en tres aspectos principales: -
Visibilidad y posicionamiento de links y botones de la página
-
Elementos de la página que confunden al usuario: aquellas zonas de la página en donde hay muchos clics, a pesar de que no son enlaces.
-
Elementos de la página más "rentables": no está directamente relacionado con la usabilidad, pero normalmente querremos dar más visibilidad a aquellos elementos más rentables, así como investigar por qué ciertos elementos de la página no son tan rentables como esperaríamos.
3.1.2. A/B Testing El A/B Testing es de utilidad cuando es necesario decidir entre dos diseños para una misma página. Lo que haremos es colocar ambas versiones de la página en el servidor, y utilizar una herramienta de analítica como Omniture SiteCatalyst o Google Optimizer para comparar los resultados de ambas páginas. Por ejemplo, podremos comparar: -
Ratios de conversión del objetivo de la página: por ejemplo, si el objetivo de la página es que el usuario rellene un formulario, compararemos el número de usuarios que rellenan el formulario en cada versión de la página
-
Ratio de abandono: si el objetivo de la página es invitar al usuario a moverse por el sitio web, podremos comparar los ratios de abandono de las dos versiones de la página
Así mismo, el A/B Testing lo podemos utilizar para comparar el resultado de una misma página en periodos de tiempo distintos, por ejemplo: -
Antes de aplicar un rediseño a la página El día después de subir la página rediseñada Una semana después Un mes después
Podremos así sacar conclusiones acerca de: -
El éxito o fracaso del rediseño, según si se cumplen mejor o peor los objetivos de la página El tiempo de aprendizaje de los usuarios: ¿cuánto tiempo tardan los usuarios en adaptarse a un nuevo diseño de página?
30
3.1.3. Rutas de navegación Los reportes de "clickstream" son quizás el elemento más potente de herramientas de analítica web avanzada como Omniture SiteCatalyst o Visual Sciences. Permite responder a preguntas como por ejemplo: -
¿Por qué páginas navegan los usuarios, y en qué orden?
-
¿Qué páginas visitan los usuarios dadas una página inicial y una página final determinadas?
-
¿En cada paso de un proceso de compra o de registro, cuántos usuarios pasan al siguiente paso, cuántos vuelven al paso anterior o cuántos abandonan? ¿Los que abandonan, a dónde van?
-
¿Qué rutas llevan a una página determinada?
-
¿Cuáles son las 5 rutas que realizan el 90% de los usuarios de mi sitio web?
-
Ejemplo de reporte de rutas de navegación de Omniture SiteCatalyst Estos reportes son muy útiles para analizar qué realizan los usuarios en nuestro sitio web y, quizás más importante todavía, qué no son capaces de realizar (seguramente debido a que la página no es usable). Así mismo, nos ayudan a definir la arquitectura de la información y el esquema de navegación del sitio web basándonos en la experiencia y preferencias de navegación de los usuarios.
A continuación analizamos las herramientas más importantes del mercado que las empresas pueden utilizar para realizar sus análisis.
3.2. Omniture SiteCatalyst Se trata de una de las herramientas de analítica web profesional más avanzada del mundo, con más de 4000 clientes y ganadora de todos los premios de la industria otorgados por analistas como Forrester, ClickZ o Gartner. Omniture SiteCatalyst permite un análisis detallado de su negocio online, ofreciendo información sobre el comportamiento de sus usuarios con un nivel de detalle y segmentación sin rival en el mercado. Una de las principales ventajas de Omniture SiteCatalyst es la de ofrecer la posibilidad de crear complejos y específicos cuadros de mando adaptados a cada empresa sea cual sea el sector de negocio, integrando así sus datos web con cualquier otra fuente de datos para una visión de 360 grados sobre el negocio. Como valor añadido fundamental de SiteCatalyst cabe mencionar capacidades ilimitadas de recopilación y asociación de datos, un Data Feed para su integración con terceros sistemas y un sólido entorno de configuración de Dashboards.
31
Imagen: Dashboard de Omniture SiteCatalyst. Fuente: http://assets.omniture.com
Omniture SiteCatalyst forma parte de la familia de productos Omniture Suite, integrándose con soluciones de personalización, experimentación multivariante, recomendaciones, búsqueda, gestión de pujas, encuestas o sistemas de gestión de campañas multicanal.
Entre otras funcionalidades de esta herramienta, cabe destacar: -
Informes de páginas, siguiente y anterior, analítica de formularios, segmentación por zona geográfica embudos de conversión y venta cruzada.
-
Exportación en los formatos más usados, Word, Excel, PDF y envíos por email de informes programados. Data Extract y Excel Client completan las opciones para integrar los datos directamente a Excel.
-
Identificación de dispositivos móviles, capaz de geolocalizar al visitante para una optimización de las campañas por zona.
-
Medición de elementos Multimedia Flash/Flex®, Videos y Streaming con las tecnologías más extendidas, Quicktime, Windows Media y Real Player.
-
Integración de datos con herramientas externas de reporting y un gestor de datos multicanal para integrar datos offline con los informes recogidos en el sitio web.
-
Cuadros de mando e Informes según las preferencias del negocio, personalizables para los diferentes miembros de su organización.
32
3.3. Google Analytics, la herramienta clave de la medición Online Google Analytics es el sistema de gestión de estadísticas gratuito (es gratuito para clientes de Adwords y para webs de menos de 5 millones de visitas al mes) que ofrece Google a sus usuarios y que se va a estudiar en este documento. En un servicio que forma parte del creciente paquete de productos de Google que ofrece a los Webmasters: AdWords, AdSense, Website Optimizer, DoubleClick, Internal Site Search, TV Ads, Audio Ads, Analytics para Blogs, Checkout,etc... A diferencia del resto de herramientas que hemos analizado a lo largo de ésta investigación, Google Analytics se centra únicamente en la gestión propia del tráfico sobre una Web, sea del tipo que sea, pero que ofrece datos muy fiables y en tiempo real muy útiles para las campañas de marketing y para los Webmasters profesionales. Es un sistema en continua evolución desde el año 2004 hasta hoy en día. Comenzó utilizando el código originario de urchin (urchin.js) para ir desarrollando con el tiempo su propio motor (GA.js) e interfaz. Google Analytics es un claro ejemplo de la apuesta de Google por la desarrollo continuo, y la innovación. Los datos estadísticos de Google Analytics se almacenan en los mismos servidores de Google, confiriéndo al sistema una alta fiabilidad, gran robustez, fuerte integridad y seguridad. Google Analytics permite medir de manera minuciosa todas las campañas online de nuestra empresa: envío de emails, publicidad patrocinada, campañas de promoción en buscadores, etc... Además de integra perfectamente con Google Adwords para medir el retorno de la inversión de nuestras campañas de marketing. Además los usuarios de Google Analytics disponen de un gran número de recursos y webs de ayuda a su disposición: Centro de Ayuda, Conversión University, Foros de ayuda, el blog oficial de Google Analytics, e incluso cursos presenciales de formación y una red mundial de consultores autorizados. Google Analytics es una solución realmente buena para la mayoría de los casos pero es cierto que tambieé presenta una serie de limitaciones y problemas que no debemos pasar por alto: -
Los datos estadísticos se basan en la URL y Título de cada página web. No existe un histórico de datos. Los datos estadísticos de nuestra web son visibles desde dentro de Google. Utiliza Javascript y Cookies. No identifica las visitas de los propios motores de búsqueda. Google Analytics no es un medidor independiente, más bien se trata de una parte interesada. Le interesa darle a entender lo importante que es Google y esto pordía llevarnos a pensar que presenta los resultados bajo el prima que mejor le conviene.
Algunos de estos problemas pueden solventarse y el resto son inherentes a la propia naturaleza de la aplicación. En cualquier caso, las enormes ventajas de Google Analytics eclipsan por completo a sus limitaciones. 33
Google Analytics ofrece un informe completo de nuestra web para lo leamos, interpretemos y tomemos las acciones apropiadas en cada momento.
que
Imagen: Dashboard Google Analytics. Fuente: Google.com/analytics
El paso previo necesario para poder utilizar las Analytics es tener claro cuál es el propósito de la web que se desea analizar y conocer qué métricas son relevantes para nosotros: Si se trata de una tienda on-line sería de gran interés conocer por ejemplo qué porcentaje de visitantes compran, cuántos usuarios abandonan la web durante el proceso de compra, o cuáles de nuestros productos son los más populares. En el caso de tratarse de un blog, interesaría saber cuántos artículos lee cada visitante, cuánto tiempo se dedica a la lectura de cada artículo, o cuántos de los visitantes no encontraron en nuestra web la información que buscaban.
El siguiente paso es conocer cómo poder extraer los indicadores que requerimos para nuestra web. Para ello es necesario familiarizarse con el panel de control y conocer las diferentes opciones de configuración que existen. Los números que devuelve Google Analytics deben ser puestos en su contexto apropiado para poder ser interpretados. Por ejemplo, un número alto de páginas vistas por cada visitante podría indicar que nuestros contenidos son de gran interés pero también podría ser un síntoma de que nuestros usuarios no encuentran con facilidad aquello que entraron buscando. La web se ha convertido en una plataforma tan variada y extensa que requiere de un estudio aislado para poder elegir los indicadores clave de medida en cada caso particular. 34
Por este motivo es necesario que cada Webmaster utilice el conocimiento sobre su mercado, sus clientes potenciales y su propia web para identificar qué datos deben ser analizados en cada momento y poner los números que ofrece Google Analytics en el contexto correcto. Una de las principales bazas de Google Analytics frente a su competencia es su aspecto visual. Las gráficas, animaciones y efectos, lejos de ser algo anecdótico forman la columna vertebral del sistema y representan la principal fuente de información para los usuarios.
Imagen: Gráfico Google Analytics. Fuente: Google.com/analytics
La interfaz de Google Analytics ha sido diseñada de tal modo que sea sencillo de utilizar e interpretar por Webmasters, anunciantes, editores. En contraposición a la figura del experto en Google Analytics, es recomendable distribuir el acceso y uso de las analíticas entre todos los miembros del equipo implicados en el desarrollo, edición, mantenimiento y promoción de una web. Desde el panel de control podemos conocer la siguiente información: -
Cómo son los visitantes que de su web. (Usuarios) Cómo llegan los visitantes a su web. (Fuentes de tráfico) Cómo navegan por su web. (Contenido) Cómo se convierten en usuarios.(Objetivos) Cómo compran en nuestra web. (Comercio electrónico)
Imagen: Dashboard Google Analytics. Fuente: Google.com/analytics
35
La página inicial llamada Panel ofrece una visión global del Site y acceso a todas las funcionalidades del sistema. El panel está formado por un conjunto personalizable de resúmenes de informes. Ha sido diseñado de forma modular de tal forma que cada usuario puede añadir, eliminar y arrastrar los diferentes informes hasta adaptarlo a sus necesidades. Cada informe puede ser examinado en detalle pulsando sobre el enlace "ver informe".
Imagen: Dashboard Google Analytics. Fuente: Google.com/analytics
Las métricas pueden segmentarse. Por ejemplo: es posible segmentar el tráfico proveniente de buscadores para conocer cuál es de pago (adwords) y cual es gratuito (posicionamiento orgánico). Estos datos también pueden ser objeto de una segunda segmentación, si por ejemplo establecimos varias páginas de destino podríamos segmentar el trafico de pago proveniente de buscadores por página de destino. Google Analytics ofrece una serie de indicadores básicos que pueden servirnos para observar la situación general de una web. 1.
Visitas: Corresponde con el número de personas han accedido a nuestra web en un periodo de tiempo. Sólo se contabiliza una visita por cada sesión, independientemente del número de páginas a las que haya accedido durante la sesión. Así tendríamos que un usuario que visite diariamente nuestra web contabilizará como 30 visitas a lo largo de un mes. Esta estadística nos permite conocer cuál es el nivel de fidelización de nuestra web.
2.
Usuario único absoluto: Se trata del número de individuos únicos que visitan nuestra web durante un periodo de tiempo. Un visitante que visite diariamente nuestra web durante un mes sólo contabilizará como una visita única. Esta estadística nos permite conocer cuál es el alcance de nuestra página web.
36
3.
Páginas vistas: Es el número total de páginas que han sido visionadas durante un periodo de tiempo. Si el último mes tuvimos 100 visitantes y cada uno leyó 10 artículos, tendríamos 1000 páginas vistas para ese periodo de tiempo. Esta estadística refleja el interés que generan nuestros contenidos entre nuestros público.
4.
Fuentes de entrada: Nos ofrece información detallada sobre la procedencia de nuestras visitas: desde qué páginas se nos enlaza, por qué keywords nos encontraron, etc.
5.
Tiempo en el sitio: Indica el tiempo medio que dedican nuestros visitantes a navegar por la web en cada visita. Es un dato que puede conllevar a confusión ya que es frecuente que los usuarios no cierren la pestaña del navegador aunque ya no estén visitando el sitio. Refleja la calidad de las visitas de una web.
6.
Porcentaje de abandonos: Muestra que porcentajes de usuarios se ha limitado a visitar una sóla página, o lo que es lo mismo, qué porcentaje de usuarios salieron del Site por la misma página que entraron. Este dato refleja el interés que despiertan las páginas de acceso a nuestro Site. Para mejorar este indicador es importante que nos esforcemos por ofrece a nuestros visitantes aquello que buscan cuando acceden a nuestra web.
7.
Nuevas visitas: Refleja el número de usuario que acceden por primera vez a nuestra web. Es un dato que debe ser medido con especial cuidado para evitar caer en contradicciones. Un porcentaje alto de usuarios nuevos refleja que la web tiene un poder de atracción de tráfico alto, ya sea por buscadores, publicidad o sites de referencia. Por otro lado un porcentaje alto de usuarios recurrentes indica que nuestra web fideliza de manera exitosa a sus visitantes ya sea por ofrecer un contenido atractivo, de mucha utilidad, muy actualizado, etc... Los comportamientos de un usuario nuevo y uno recurrente pueden ser muy distintos. Un usuario que accede por primera vez desconoce los flujos de navegación de una web, no está familiarizado con la forma en la que se muestran los contenidos, ni las "llamadas a la acción" de la web. Por este motivo, este tipo de usuarios abandonan la web con más facilidad y muestran un comportamiento diferente al de los usuarios recurrentes.
Los objetivos o Goals constituyen un mecanismo para medir las conversiones de un Site. Una conversión es el proceso en el que un visitante realiza una acción de especial interés para nuestro negocio. A efectos prácticos un objetivo es simplemente una página vista. Podría tratarse de un artículo específico, o de la página que el usuario llega tras completar un proceso de compra satisfactoriamente. Un objetivo se define precisamente indicando la URL de esta página. A nivel de negocio, un objetivo representa una acción de especial interés para nuestro negocio que puede ser acometida por nuestros visitantes. A modo de ejemplo podríamos citar los siguientes objetivos: Inscribirse en un newsletter, registrarse como usuario, realizar con éxito una compra, finalizar correctamente una descarga, etc. 37
4. Conclusiones Como se ha visto a lo largo de este trabajo académico, las cifras y la importancia del uso del Social Media por parte de la empresa tiene sentido en un mercado que está cambiando hacia la Web. El desarrollo de nuevas tecnologías y de nuevas plataformas que permiten una mayor interactividad entre los usuarios (clientes) y las empresas está produciendo que muchas de éstas tengan que reorientar sus estrategias comerciales y de marketing para adaptarse a los nuevos medios. La inteligencia de negocio por lo tanto también está cambiando al convertirse la Web en la principal fuente de información. Ya no es necesario únicamente analizar la información que se produce internamente en las organizaciones, sino que la importancia está en medir y observar lo que sucede en el entorno Web. La mayoría de las personas con acceso en la actualidad consulta Internet para informarse acerca de productos y servicios antes de decidirse por adquirirlos. Estos consumidores potenciales dejan un rastro que se puede medir con las herramientas adecuadas, facilitando a las empresas un mejor seguimiento de su estrategia de Marketing, y permitiendo adecuarse a las necesidades y costumbres de los mismos. Dichas herramientas de analítica web son muy avanzadas y permiten obtener datos muy concretos acerca del comportamiento de los usuarios, sus intereses dentro de las Webs empresariales, lo cual es muy útil para valorar el diseño de las mismas y adaptarse. Con la llegada de la Web 2.0 y las plataformas sociales, la minería de datos en la Web pasa por una evolución centrándose no sólo en el comportamiento que los usuarios tienen en nuestra propia web, sino que ahora lo importante es conocer qué opinan, cómo se comportan y cuáles son sus intereses que comparten en las Redes Sociales. Gracias a la Web 2.0 se podrá medir pues el impacto que una marca tiene en el mercado, con un porcentaje de seguridad cada vez más alto debido a la gran cantidad de usuarios que existen en las redes sociales, número que asciende ya a los millones. La importancia de conocer qué opinan los usuarios y cómo reaccionan ante las marcas en los entornos de Social Media es también muy importante para conocer y medir la reputación que una empresa tienen en Internet, además de poder obtener mediante determinados análisis el retorno de la inversión (ROI) que se obtiene al participar en la misma. La Web en tiempo real es un concepto que evoluciona al mismo tiempo que la tecnología en Internet y en dispositivos, permitiendo que cada vez sea más sencillo compartir información desde cualquier lugar y desde cualquier dispositivo. El aumento de conexiones móviles y de aplicaciones que permiten interactuar con las redes sociales está provocando que su uso aumente y se extienda a otros aspectos como la geolocalización o el ocio. De este hecho se puede obtener aún mucha más información acerca del comportamiento de los usuarios y sobretodo de sus intereses, de un modo actualizado y preciso.
La principal conclusión de éste estudio es que las redes sociales no son un fenómeno pasajero del que las empresas no deben ser conscientes, sino que se presenta una gran oportunidad para que muchas de éstas, además de medir mejor la situación del mercado, puedan interactuar con sus propios clientes como nunca antes había sido posible.
38
5. BibliografĂa [ Blog Enrique Dans, Enrique Dans 2010, http://www.enriquedans.com]
[ Google Analytics, Google 2010, http://www.google.com/intl/es/analytics ]
[Web Analytics, Omniture SiteCatalyst, 2010, http://www.omniture.com/en ]
[Twitter Enigeering Blog, Twitter Inc., 2010, http://engineering.twitter.com]
[ Compete Site Analytics, 2010, http://siteanalytics.compete.com ]
[ Comsultor 2.0, Francesc Grau 2010, http://blog.francescgrau.com/gestion-de-crisis-20-unirse-al-dialogo ] [ Master New Media, Robin Good’s 2010, http://www.masternewmedia.org/ ]
[ Consumer Eroski, 2010, http://www.consumer.es/web/es/tecnologia/internet ]
[ Real Time Search, Social Mention 2010, http://www.socialmention.com/ ]
[ Blog Pulso Social, 2010, http://pulsosocial.com/2010/01/04/herramientas-para-medirlos-resultados-cuantitativos-en-social-media ]
[ Blog Gaby Castellanos, 2010, http://www.gabycastellanos.com/51-herramientassocial-media/ ]
[ Blog Roberto Carreras, 2010, http://robertocarreras.es/post/81756750/herramientaspara-monitorizar-la-presencia-online ]
[ Nielsen BlogPulse, Nielsen 2010, http://www.blogpulse.com ]
39