Big data Nuestros datos en la red

0
49

imagen199188gEsto es lo que genera mientras se escribe un tweet, se realiza un comentario en Facebook, se pasa por delante de una tienda de ropa o se hace una búsqueda en Google. Tal vez no todo el mundo sea consciente de ello, pero una gran parte de las acciones en la red que se ejecutan en el día a día -menos en el mundo físico- están siendo rastreadas por algoritmos de empresas que utilizan estos datos públicos para generar una información que será útil para otras en la toma de decisiones.

Según el Instituto Tecnológico de Informática (ITI), ubicado en la Universitat Politècnica de València (UPV), se espera que en 2020 se creen 40zettabytes de datos, es decir, 40 billones de GB, una cifra 300 veces superior a la generada en 2015. Sonido, comentarios, imágenes o vídeos que se generan a un ritmo muy elevado y además tienen un valor muy alto si se sabe cómo descifrarlos.

Con este fin nace el Big Data, un conjunto de infraestructuras tecnológicas y algoritmos que permiten manejar un gran volumen de datos que se generan de forma digital, varían en el tiempo y a los que hay que responder con velocidad porque son útiles cuando se generan. Aunque estos procesos no han empezado a desarrollarse en este preciso momento, en Silicon Valley están de moda y eso implica que estén en el punto de mira de inversores y medios.

«Todo es gradual, pero sí que es una revolución real», asegura Jon Ánger Gómez, director del título propio que imparte la UPV en Big Data. «Se trata de un fenómeno socioeconómico que tiene una parte de auge pero que se quedará para ayudar a las empresas a tomar decisiones». De ahí, que los emprendedores hayan empezado a valerse de estas técnicas para especializarse en diferentes nichos.

En Estados Unidos llevan la delantera a Europa en tecnología, y por este motivo, la Unión Europea ha destinado 500 millones de euros, a través del programa Horizonte 2020, a la iniciativa Big Data Value PPP, que movilizará 2.000 millones de euros de empresas privadas alrededor de este tipo de técnicas en los próximos seis años.

BMW Y SU REPUTACIÓN EN LA RED

«En EEUU tienen a Amazon, Google o Microsoft, empresas que han desarrollado toda una maquinaria de procesamiento de datos y por ello la Unión Europea quiere posicionarse en la parte de análisis de grandes cantidades de información», explica Daniel Sáez, del ITI, el único centro tecnológico español, ubicado en la Universitat Politècnica de València, que participa en el proyecto. ¿Y qué nos pueden aportar los datos? Gracias a la empresa valenciana Geom Index, se puede saber que la marca de automóviles más valorada en Internet en España en 2014 fue BMW. Pero este dato se queda en la corteza, porque la herramienta permite a las grandes compañías analizar al milímetro las opiniones que los usuarios dejan en la red: desde si hablan de los diseños, al color del coche, o la tapicería, todo a través del rastreo en blogs, páginas especializadas de motor, foros y redes sociales.

«Lo que buscaba desde un principio es hacer una consultora de estudios de mercado o de inteligencia de mercado en tiempo real sobre las opiniones en la red», explica Francisco Larrey. «Llegamos a saber si hablan de forma positiva o negativa de los modelos o si lo están haciendo del diseño, del precio, del motor o incluso de los frenos».

Este producto facilita a las marcas el ver hacia dónde dirigir su comunicación o mejorar algunos aspectos de sus productos. «Si ven que el diseño no gusta o el precio le parece caro al futuro cliente pueden reajustar su forma de hablarle». Larrey lleva desde el 2012 diseñando y desarrollando esta plataforma. «Surge de la cantidad de información que hay en internet, del famoso ‘big data’, pero más especializado», explica. La tecnología se basa en un sistema de procesamiento semántico lingüístico automático que puede descifrar las frases, desambiguarlas y con eso darle un valor positivo y negativo sacando en tiempo real estudios de mercado».

A partir de las opiniones de los usuarios de internet desarrollaron todo el producto para que fuera muy visual, con cuadros de mando y gráficas, donde tanto un directivo de marketing, un director general o gente de la propia agencia puedan ver cómo están influyendo sus campañas, qué opinan de sus productos y de su marca.

TAXISTAS QUE SABEN UBICARSE

De media, los taxistas que se ubican en el lugar más óptimo realizan 2,57 carreras más que los que no se colocan bien. Así lo explica Fede López, director general de Smart Taxi, una aplicación valenciana que recoge datos en tiempo real sobre la ubicación del taxi, el destino de los pasajeros y los trayectos realizados sin encontrar clientes. Con los resultados, la aplicación analiza los datos y predice en qué lugares es más probable que los taxistas consigan nuevas carreras. Aunque no se trata de una gran cantidad de datos, ya que se diseccionan por ciudades, lo cierto es que consiguen mucha información útil que a priori sería de difícil acceso e interpretación en tiempo real.

«Utilizamos la infraestructura de datos para construir modelos predictivos», explica López. «Se trata de inteligencia artificial y de alerta temprana, un sistema sirve para predecir y otro para detectar algo que ha ocurrido entre un montón de datos con desarrollos matemáticos propios. Ayudamos a tomar las mejores decisiones». La información se les presenta con un mapa de calor, donde los colores indican dónde hay una mayor concentración de clientes potenciales.

Tienen datos de unos 3.000 taxis a través de la geolocalización, de los que reciben información cada cinco segundos y en el 92% de los casos de los profesionales que lo utilizan, el mapa les ofrece un trayecto mejor al que escogerían. Esto evita que se gaste más combustible del necesario, se amortice mejor el tiempo y además se contamine menos. Actualmente, se utiliza en ciudades como Barcelona, Moscú o Bruselas.

EMPLEO EN BIG DATA

Los empleados en Big Data seguirán aumentando en 2015, según un estudio de la Online Business School, que eleva hasta 4,4 millones los puestos de trabajo en esta área. La figura del chief technology office (CTO) es cada vez más demandada en las empresas, también en las pymes, debido a la dificultad de procesar e interpretar la cantidad de datos que se generan. Jon Ánger Gómez, director del título propio que imparte la UPV en Big Data, destaca tres perfiles que permiten mantener la infraestructura de los datos. En primer lugar se encuentra el administrador de la infraestructura, por encima está el maching learning, quien sabe extraer el conocimiento de los datos, y por último los analistas, quienes realizan la labor de depuración, además de detectar datos anómalos.

Gómez destaca que, de momento, en la Comunitat Valenciana las pymes siguen viendo este tipo de tecnologías como gasto y no como una inversión. «No invierten a nivel tecnológico, pero es algo que ocurre en toda España». Pero reconoce que los emprendedores que tocan esta área tendrán que convencerles porque las grandes empresas ya se encargan de levantar sus propias estructuras de análisis de datos.

 

Deja un comentario