_
_
_
_
_

Premise caza datos, los cocina y los sirve calientes

En mercados públicos, 700 personas fotografían con su aplicación productos cotidianos, con su precio y colocación para crear un índice de inflación en tiempo real

David Soloff está reclutando un ejército de buscadores de “hiperdatos”. Premise, la empresa de la que es cofundador, creó una aplicación para teléfonos inteligentes que ahora utilizan 700 personas en 25 países en vías de desarrollo. Esos usuarios, en su mayoría estudiantes universitarios y amas de casa, fotografían comida y artículos cotidianos en mercados públicos.

Analizando las fotos de los precios y la colocación de productos como tomates y champú, y después cotejándolas con otros datos, Premise está creando un índice de inflación en tiempo real para venderlo a empresas y comerciantes.

“En cinco años me gustaría que hubiera 3.000 o 4.000 personas haciendo esto”, afirma Soloff, consejero delegado de Premise. “Es un seguimiento útil de la inflación mundial, una manera de evaluar la seguridad alimentaria y un sistema mediante el cual un fabricante puede juzgar qué lugar ocupan sus productos en las estanterías”.

Recabar datos en todo tipo de lugares extraños y analizarlos con rapidez se ha convertido en uno de los ámbitos más candentes del sector tecnológico. La idea es simple: con toda esa capacidad de procesamiento y un poco de creatividad, los investigadores podrían encontrar nuevos patrones y relaciones entre diferentes clases de información.

En los últimos años, los expertos han bautizado este tipo de análisis como Grandes Datos (big data). Ahora, los Grandes Datos están evolucionando, e incluyen toda clase de fuentes. Nuevas empresas como Premise y ClearStory Data, y otras más grandes como General Electric, han entrado en el sector.

Unas estadísticas corrientes podrían predecir las ventas de helados el próximo verano. El objetivo de quienes trabajan en sistemas de Grandes Datos más novedosos es recabar información aparentemente inconexa, como el calor y la nubosidad del día y la victoria de un equipo local durante el fin de semana, compararla con resultados climatológicos y deportivos anteriores, y averiguar cuántos helados con trocitos de menta comprarían hoy las madres.

Los fotógrafos que trabajan para Premise reciben hasta 10 centavos por imagen. La empresa también recaba información sobre la hora y la localización a través de los teléfonos, además de algunas notas, como por ejemplo si el mercado estaba abarrotado. Los datos de precios de las fotos se combinan con los precios de 30.000 páginas web. Después, Premise confecciona índices de inflación y mapas de precios de los mercados en lugares como Shanghái y Río de Janeiro.

Entre los suscriptores de Premise hay algunos fondos de cobertura de Wall Street. Procter & Gamble también es uno de ellos. Las suscripciones oscilan entre 1.500 y más de 15.000 dólares al mes, aunque hay una versión que ofrece datos gratuitos a escuelas y grupos sin ánimo de lucro.

Las nuevas conexiones se benefician asimismo de una información pública cada vez más abundante. Según un estudio del McKinsey Global Institute, 40 Gobiernos nacionales ofrecen datos actualmente sobre cuestiones como población y uso de la tierra.

Esos datos oficiales pueden combinarse con sensores de teléfonos, motores a reacción e incluso aparcamientos de bicicletas que suben datos a los superordenadores de los sistemas en la nube.

Hasta hace unos años, resultaba caro conseguir datos y era difícil introducirlos en los ordenadores. Sin embargo, ahora que los precios de los sensores han bajado y que cosas como el wifi han permitido la conectividad, eso ha cambiado.

En el mundo de los equipos informáticos, la computación en memoria —un avance que permite recabar datos sin almacenarlos en otra ubicación— ha incrementado la velocidad de la informática y permite una recopilación de información en tiempo real.

General Electric, por ejemplo, que tiene más de 200 sensores en un único motor a reacción, ha trabajado con Accenture para crear una empresa que analice el rendimiento de los aviones en el momento del aterrizaje.

El análisis de datos tradicional se basaba en el estudio de información, por ejemplo las nóminas, que podía cargarse en una hoja de cálculo. No obstante, con la explosión de Internet, empresas como Google, Facebook y Yahoo tienen que afrontar unos volúmenes de datos “desestructurados” sin precedentes, por ejemplo cómo navega la gente por la Red o los comentarios que hace. Los nuevos equipos y programas reducen el tiempo necesario para analizar esta información.

ClearStory Data, empresa con sede en Palo Alto (California, EE U) ha presentado un producto que puede estudiar datos en tiempo real de distintas fuentes. Puede mezclarse, por ejemplo, información sobre venta de entradas de cine, sobre el tiempo y mensajes de Twitter, y presentarse en forma de gráfico de barras cambiantes. Sharmila Shahani-Mulligan, cofundadora y consejera delegada de ClearStory, dice que el truco está en desarrollar un sistema para encontrar fuentes de datos con rapidez y averiguar cómo presentarlos de un modo útil. “De esa manera”, dice, “una cafetería puede saber si los clientes beberán Red Bull o chocolate caliente”.

© 2013 New York Times News Service

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_