“The Machine” y de cómo HPE redefinirá el rumbo del cómputo

En 2016, Hewlett Packard Enterprise (HPE) presentó al mundo una nueva arquitectura de cómputo impulsada por memoria, la primera en 60 años de historia. Recientemente, el proyecto de investigación llamado The Machine mostró al mundo el primer prototipo: un equipo con 160 Terabytes de memoria capaz de trabajar simultáneamente con todos los libros de la Biblioteca del Congreso unas cinco veces, es decir 160 millones de libros.

Andrew Wheeler, vicepresidente, CTO y subdirector de Hewlett Packard Labs y Hewlett Packard Enterprise y HPE Fellow, se enfrenta a la gran tarea de trasladar la tecnología existente al nuevo paradigma del cómputo: cómo aprovechar la montaña de datos que se crean diariamente.

En entrevista con Netmedia, Wheeler platicó cómo la computación manejada por memoria redefinirá la historia.

The Machine, forma parte del programa más grande de investigación y desarrollo de HPE. En ese contexto, Wheeler comentó que en la era de la información la industria requerirá hacer enfrente al dilema de procesar, almacenar y asegurar las toneladas de datos que se producen día a día: “esa es la base de nuestra arquitectura”, dijo.

Se prevé que para el 2020 existan 80 billones de personas en el mundo, 100 billones de infraestructuras sociales, 20 billones de dispositivos móviles y un trillón de aplicaciones creando y transmitiendo información.

“No podemos confiar en la tecnología del pasado. Necesitamos una computadora construida para la era del big data”, declaró la directora general de HPE, Meg Whitman.

Los retos
El prototipo de una computadora con un solo banco de memoria capaz de procesar cantidades enormes de información inició en 2014. Hoy, la compañía mostró el progreso de esa “loca” idea: la plataforma cuenta con 1,280 núcleos de microprocesadores de alto rendimiento, cada uno de los cuales lee y ejecuta instrucciones de programa al unísono con los demás y posee 160 Terabytes de memoria.

“The Machine podrá resolver problemas que antes eran inimaginables, dadas las restricciones en tiempo real”, dijo Wheeler. “Los centros de datos actuales no podrán mantenerse al nivel del crecimiento exponencial de demanda”.

Fuente: HPE
Fuente: HPE

El proceso que realiza el chipset para acceder a la memoria de los datos, de almacenamiento o a las redes y mover esas cargas entre uno y otro resta velocidad. Por ello, “el planteamiento es que la memoria y el almacenamiento se conviertan en una sola entidad” y combinando con fibras ópticas que utilizan fotones en lugar de electrones la información fluya de manera transparente y consuma menos energía.

Prevén escalar esos 160 TB de memoria a cantidades ilimitadas, unos 4,096 Yottabytes, es decir, 250,000 mil veces todo el universo digital actual.

Los alcances
Para dimensionar las capacidades actuales de este prototipo, el directivo dio algunos casos de uso de esta nueva arquitectura. En el mundo de la salud, un partner de HPE centrado en el estudio de enfermedades degenerativas trabajó con este prototipo.

La nueva arquitectura le permitió analizar millones de imágenes en 4K de pacientes, notar las anomalías, los efectos positivos o negativos de los tratamientos en un menor tiempo, y con la calidad necesaria que requería su seguimiento.

Seguridad es otro de los temas donde The Machine tendrá nuevas implicaciones. “Habilidades de analizar datos en tiempo real, modelar algoritmos capaces de detectar amenazas potenciales, y sobre todo una arquitectura concebida desde el principio para encriptar los datos desde su creación”, dijo. Pero, “eso es solo la punta del iceberg”.

El futuro
Al preguntarle qué esperar de The Machine en los próximos cinco años, Wheeler comentó que para ese momento muchos de los activos de la arquitectura ya estarán terminados e iniciarán el roadmap de los productos por venir.

“Analytics on the Edge” es el siguiente concepto que la compañía buscará aterrizar. En palabras del directivo, este es “una versión escala, más pequeña, de The Machine para dispositivos IoT o automóviles autónomos”.

Explicó que con esa versión petit todos los mini sensores integrados en un coche autónomo, por ejemplo, podrán enviar y regresar la información en tiempo real, acelerando así los procesos necesarios para una conducción segura.

“Imagina que el automóvil está por llegar a una curva peligrosa o a un terreno mojado; la información para frenar o desacelerar debe ser inmediata. Analytics on the Edge cumplirá esa función”, señaló Wheeler.

La computación manejada por memoria puede reducir el tiempo que se necesita para procesar problemas complejos que van de días a horas, de horas a minutos y de minutos a segundos para así entregar inteligencia en tiempo real.

Para Wheeler está nueva arquitectura es el futuro del desarrollo del hardware e incluso del software, ya que se requerirá de una nueva paquetería para potenciar sus alcances. Hay que darle tiempo al tiempo para ver lo que viene.

Related posts

Deja un comentario