Inicio / AI DevCon 2018: IA democratizada y la lucha por el segmento de los chips neuronales

AI DevCon 2018: IA democratizada y la lucha por el segmento de los chips neuronales

Por: Maricela Ochoa | mayo 28, 2018


San Francisco, CA. Durante su primera conferencia para desarrolladores de inteligencia artificial (IA) AI DevCon 2018, Intel se lanzó de lleno a la simplificación y democratización de la IA, mediante iniciativas que preparan el escenario para un futuro cada vez más centrado en (y empujado por) esta tecnología.

Naveen Rao, vicepresidente corporativo y director general del Grupo de Productos de IA de Intel, detalló la estrategia de la compañía, que incluye el próximo lanzamiento de Nervana Neural Net L-1000, un procesador enfocado en el despliegue y la prueba de modelos de IA;  además de una iniciativa presentada por el recientemente creado IA Lab de Intel, que consiste en una librería open-source de procesamiento de lenguaje natural, de gran utilidad para chatbots y asistentes virtuales.

Actualmente hay 40 científicos de datos e investigadores trabajando en el Laboratorio de IA de Intel, que han desarrollado productos como el compilador de deep learning nGraph y los procesadores Nervana Neural Network. Rao dijo que elementos como la librería enfocada en lenguaje natural ayuda a investigadores y desarrolladores a crear soluciones IA de manera rápida y simple, además de mejorar la posibilidad de realizar investigación y reproducir técnicas innovadoras de la comunidad, dando un fuerte impulso al aprendizaje profundo en dominios donde aún no figura.

Diversas aplicaciones

Para dar un mayor contexto de las bondades de la inteligencia artifical, los dos días del AI DevCon incluyeron una serie de presentaciones con usuarios que hasta ahora han aprovechado la tecnología. Jason Knight, líder de software de Intel, recibió a la doctora Rachael Callcut, de la Universidad de California, quien destacó la aplicación de inteligencia artificial en pacientes de trauma severo que llegan al hospital luego de un accidente.

“Desde el inicio, la IA nos ha permitido trabajar de forma diferente con los datos de los incidentes; hace un año comenzamos a colaborar con Intel al identificar un espacio en el que podíamos aplicar IA y machine learning”, indicó la doctora.

Callcut dijo que, en estas condiciones, el paciente está pasando por los peores momentos y el manejo de técnicas tradicionales resulta muy frustrante. La IA representaría un avance incluso para el tiempo de respuesta que tiene el paciente, específicamente en el caso de radiología, donde la IA hace más eficiente el flujo de trabajo y la toma de decisiones.

Otro de los casos presentados en AI DevCon 2018 fue el de James Jacobs, CEO de Ziva, quien recibió en 2013 un Premio Oscar por su trabajo científico y de ingeniería en Avatar y fue nominado por su colaboración en El Hobbit. Jacobs habló de la IA aplicada al procesamiento de imágenes, simulación de efectos en cine y machine learning. “La tecnología nos permite mostrar en una pantalla de cine los efectos biomecánicos que el espectador espera ver, la textura de la piel del personaje, ya sea una criatura mítica o un animal real, con todo detalle”, detalló.

En el caso de Amazon, Bratin Saha, vicepresidente y director general de las plataformas de machine learning e inteligencia artificial, señaló que utilizan desde hace tiempo esta tecnología para acciones que van desde las recomendaciones personalizadas que recibe un comprador, la automatización para el llenado de formularios, las interacciones dirigidas por voz y para ofrecer mejores experiencias a los nuevos clientes.

IA olímpica

Luego de confirmar que Intel será patrocinador oficial de IA en los Juegos Olímpicos que se realizarán en Tokio en 2020, y ya que la compañía reunió en San Francisco a sus principales desarrolladores en el Intel AI DevCon, Yinyin Liu, líder de Ciencia de datos en IA de la empresa, los convocó para aportar ideas de inteligencia artificial aplicada que puedan apoyar el certamen olímpico.

Liu dijo que los desarrolladores podrían obtener un premio de hasta $10,000 dólares si proponen ideas en las que la IA transforme la experiencia de los fans y los atletas participantes en dichos Juegos Olímpicos.

Liu destacó que en la actualidad los investigadores del laboratorio de IA de Intel se han enfocado en soluciones de aprendizaje que llevan modelos de procesamiento de lenguajes naturales para que las máquinas puedan interactuar con las personas a través de chatbots y asistentes virtuales con funciones inteligentes como el reconocimiento de nombre y manejo semántico para identificar la acción que requiere llevar a cabo una persona dependiendo de las palabras que utilice en la conversación.

Al convocar a este concurso, Intel busca tener acceso a múltiples ideas que permitan potenciar los beneficios de IA en el caso específico del desempeño deportivo. Los interesados en participar pueden postular a través de AIchallenge.intel.com, hasta finales de junio.

El primer procesador neuronal comercial

Tal parece que la próxima gran competencia a nivel de fabricantes de chips se dará en el campo de los Procesadores de Redes Neuronales y aquellos enfocados a Deep Learning. Si bien tanto IBM como Nvidia e Intel llevan algunos años desarrollando esta tecnología, recién ahora podemos ver instancias comerciales de la misma.

Al referirse a que “la revolución de la inteligencia artificial, realmente es una evolución del cómputo”, Rao se refirió al diseño de Nervana Neural Net L-1000, procesador de red neuronal diseñado desde cero para acelerar el proceso de aprendizaje de IA y para agilizar el trabajo con algoritmos de aprendizaje profundo.

En este chip se ha trabajado desde que Intel adquiriera Nervana en 2016 y tiene el objetivo de lograr 100 veces mayor rendimiento en procesadores de IA para 2020.  El L-1000 eliminaría las limitaciones que impone el hardware que no fue diseñado explícitamente para IA.

Pero no está solo en esta empresa. Nvidia ya cuenta con un equipo en el mercado, el DGX-1 que utiliza el procesamiento paralelo de las GPU para enfocarse en tareas de deep learning. Además, recientemente y en conjunto con Pure Storage, la empresa presentó un equipo de trabajo para trabajar con IA en escalas más pequeñas, llamado AIRI.

De todas formas, Intel no se queda atrás. Las iniciativas que ha exporado en los últimos dos años para incorporarse de lleno a la inteligencia artificial son varias. El L-1000 será su primer chip NNP comercial (disponible a fines de 2019), pero previamente la compañía había explorado esta veta con su AI Core y Movidious Neural Computer Stick, estos productos fueron diseñados para otorgar acelaración a procesos de IA en un espacio tan reducido como el de un USB-Stick. Tanto por tamaño como por uso de energía esta solución está apuntando al procesamiento on-edge y en resumidas cuentas al IoT, y sus próximas iteraciones podrían presentar muchas mejores perspectivas de trabajo si es que Intel lograr hacer cuajar su estrategia de IA.

“También daremos soporte a bfloat16 en el Nervana NNP-L1000, este es un formato numérico que se está adoptando en toda la industria para el trabajo con redes neuronales”, explicó Rao en un comunicado. “Con el tiempo, Intel extenderá el soporte de bfloat16 a través de toda nuestra línea de productos IA, esto incluye los procesadores Intel Xeon y nuestras FPGAs. Esta es parte de una estrategia cohesiva y comprensiva que busca atraer las mejores capacidades de entrenamiento IA a nuestro portafolio”, concluyó el ejecutivo.


Comentarios

Deja un comentario

SUSCRÍBASE A NUESTRA NEWSLETTER

Obtenga acceso a información exclusiva, reportajes, notas de actualidad y el análisis de las tendencias con el mayor rigor periodístico.

Únase hoy a IT MASTERS MAG, puede Registrarse o Iniciar sesión

Para accender a este y más contenido es necesario registrarse o acceder a su cuenta.