Michael Kagan, Director de Tecnología de Mellanox Technologies, habló en NetEvents EMEA en Barcelona, sobre el futuro de los servicios y empresas

Kagan dijo: «Estamos en medio de una enorme transformación de las redes internacionales en todo el mundo, y hablaremos de ello. Todo comienza con el paso del teléfono estático a móvil. Conseguí mi primer móvil hace unos 30 años; tal vez hace un poco más de 30 años, y me pareció estupendo porque puedo hablar con mis colegas de los Estados Unidos de camino al trabajo, lo que me abrió nuevas formas de operar y comunicarme.

«Pero no me había dado cuenta de que 30 años después, esta máquina se convertirá en algo que nunca se deja en casa sin ella; en realidad es lo que Steve Jobs le dijo a sus ingenieros; quiero que diseñen una máquina que a nadie le gustaría dejar su casa sin ella. Ahora usamos el teléfono para noticias, correos electrónicos, juegos, medios sociales. A veces lo usamos como teléfono y puedes hacerlo todo sin salir del baño.

Kagan dijo que en 2007, Nokia era una empresa muy grande, con un valor de unos 150.000 millones de dólares. Nokia decidió entrar en el negocio de la geo-navegación y decidió construir el sistema de navegación que monitorea el tráfico. Para que funcionara, necesitaban sensores de tráfico, así que fueron a Navitech, que es una empresa europea, tenían alrededor de cinco millones de cámaras de tráfico en toda Europa. Así que con las cámaras de tráfico puede saber dónde está el tráfico, cuándo se acumula, y de esta manera, al conectarlo a su software de navegación y a los gadgets de navegación, puede realmente navegar por las personas alrededor del tráfico.

En el mismo año, 2007, dijo Kagan, hubo una compañía israelí que inició Waze. Se dieron cuenta de que pueden obtener los mismos datos que los sensores de tráfico, de forma gratuita al escribir este software de aplicación y cada teléfono que ejecuta este software en realidad genera los datos a Waze y casi todo lo demás es historia. Así que Waze se dio cuenta de que pueden obtener los datos de una manera mucho más eficiente y el resto es historia. La valoración de Nokia bajó en cinco años a menos de lo que compraron a Navitech y Waze se vendió a Google por más de mil millones. Así que una vez que te das cuenta de que los datos están ahí fuera, y encuentras una manera eficiente de ponerlos en tus manos, puedes hacer muchas cosas buenas, dice Kagan.

Pero hay un problema – el crecimiento de los datos y el crecimiento de la potencia de la CPU no están alineados. En realidad, el crecimiento de los datos es más rápido de lo que la Ley de Moore puede mantener y el rendimiento de la CPU, el PC no está al día con los datos y apenas se mantiene al día con la Ley de Moore.

Con la creciente brecha, significa que ya no podemos hacer las evoluciones. Como la luz eléctrica no vino de las mejoras de las velas, necesitamos pensar fuera de esta caja de lo que se puede y lo que no se puede hacer para aprovechar estos datos, dice Kagan.

Kagan: «Entonces, ¿qué tenemos que hacer? Necesitamos usar los datos para generar los servicios en sí mismos. Este es el modelo de inteligencia artificial, el modelo de red neuronal; cómo se toman los datos y cómo se crea realmente el servicio que utiliza los datos. La máquina aprende de los datos para realizar el trabajo y la aplicación o los servicios son creados por los propios datos.

«Ya no es una sola unidad de procesamiento individual, una máquina humana. Se trata de conectar diferentes piezas de la red de máquinas y – por la red, y hacer que trabajen juntos para crear los servicios. Significa tomar – optimizado en todo el centro de datos, optimizar en todo el clúster.

«Si haces lo correcto, podemos hacer cosas nuevas que antes no podíamos hacer. No es sólo hacer lo mismo más rápido, es hacer cosas nuevas que no hemos hecho antes. Así que una de las analogías son las hormigas. Un solo insecto como este no puede hacer mucho. Pero muchos de ellos juntos, trabajando juntos de una manera que la gente no entiende realmente, pueden construir cosas enormes. Construyen ciudades con sistemas de ventilación y riego. Esto, al conectarse entre sí, al trabajar juntos con eficiencia, se pueden hacer cosas que no son sólo una extrapolación lineal de lo que una persona puede hacer.

«Necesitas hacer máquinas que puedan aprender de los datos. Necesitas hacer máquinas que se programen solas. Es necesario habilitar el procesamiento de datos o la computación en la red y en el almacenamiento. La informática y el almacenamiento como entidades separadas va a terminar. Por último, pero no por ello menos importante, la seguridad es un tema realmente interesante que tocaremos un poco porque, una vez que tengamos más datos, podemos entender más y podemos saber más, y por lo tanto la seguridad desde el crimen hasta la privacidad en todas partes, vale.

«Y así hasta la Nube. La nube es un enfoque diferente; está pasando del enfoque de servidor al enfoque de servicio. Cuando preguntamos a la gente, al menos hasta no hace mucho tiempo, si tienen electricidad en casa, la respuesta suele ser sí, pero lo que querían decir es que tienen un enchufe en la pared y que la electricidad es generada realmente por la planta eléctrica que está muy lejos.

«Hasta hace poco, cuando se preguntaba a la gente si tienen un ordenador en casa o si tienen algún disco de almacenamiento en casa, y la respuesta también suele ser sí, pero lo que querían decir es que tienes una caja debajo de la mesa que tienes que comprar, tienes que administrar, etc., y ese es tu ordenador, ese es tu disco. Pero esencialmente no hay mucha diferencia entre la electricidad como servicio y la computación como servicio; y de eso se trata la computación en la nube.

«Ahora, cuando se quiere crear un servicio de este tipo, significa que hay que tomar múltiples piezas de hardware, digamos, o múltiples recursos y asignarlos, o encadenarlos entre sí – estos son microservicios, juntos para crear la aplicación, o crear la respuesta a la solicitud del cliente. Ahora se vuelve bastante complicado.

«Si se piensa en la analogía de los coches autónomos, hoy en día el coche pasa alrededor del 95 por ciento de su vida aparcada. Pero es un proceso muy claro. Dejo mi auto, lo cierro con llave, se queda en el estacionamiento, y luego regreso y recojo el auto. Así que la mayor parte del tiempo el coche no hace nada. Cuando vamos a los coches autónomos, o a los coches a la carta, entonces básicamente estoy pidiendo un coche y aparece en un minuto en el lugar en el que estoy. Así que ahora necesitas conectar estas cosas y administrar estos recursos.

«Lo mismo en el centro de datos. Cuando busco algún tipo de servicio, hay múltiples recursos que necesitan trabajar juntos en la cadena para proporcionar los servicios. De eso se trata el centro de datos. Se trata de tomar múltiples recursos y configurarlos en una fracción de segundo para responder a la petición del consumidor.

«Recientemente, Oracle reescribió su sistema de rack y, al pasar de una red de 10 Gigabytes a una de 40 Gigabytes, obtuvieron un aumento de rendimiento de 50 veces más. No 4X, 50X. La razón es porque utilizaron sus recursos de manera más eficiente.

«La otra cosa más reciente es que al utilizar nuestra red con las GPUs Nvidia y Mellanox Interconnect, hemos construido una máquina que por primera vez clasifica las imágenes, o reconoce mejor las imágenes que los humanos. Hoy en día, las computadoras pueden ver mejor que los humanos. El reconocimiento de imagen en el ordenador es mejor que el humano y esto ocurrió por primera vez en 2015 cuando Bidoo construyó esta máquina usando nuestra red y no pudieron lograr tales resultados con ninguna otra red.

«Así que una cosa que voy a tocar un poco sobre el almacenamiento; SNAP es el software de red definida y el procesamiento de almacenamiento de acelerador. Si nos fijamos en la nube de Internet, el tejido, usted tiene múltiples máquinas conectadas a cada una – a la red y cada una de estas máquinas tiene su propio almacenamiento. El problema con esto es que no todos los ordenadores y no todas las plataformas están realmente preparados y pueden aprovecharse de ello. Por lo tanto, funciona, pero se necesitan tecnólogos avanzados en cada máquina para aprovechar esta ventaja.

«¿Y qué si pudieras tener servicios de almacenamiento? Usted podría ser capaz de representar cualquier cosa en su nube como el verdadero dispositivo local. No es un dispositivo conectado a la red que tenga algún controlador que presente APIs que pueda utilizar, lo que implica algunos cambios en el host. Pero usted ve en su máquina el sistema operativo heredado, pero este dispositivo local de alguna manera puede tocar todo por arte de magia.

«Entregamos esto con nuestras tecnologías SmartNIC, BlueField puede presentar al host, al sistema operativo, el dispositivo local puede asignar recursos de diferentes máquinas en la red y hacerlos disponibles como recursos de servicios de almacenamiento en la máquina local. De esta manera, la utilización del almacenamiento aumenta. De hecho, puede utilizar, e incluso puede sobresuscribir sus recursos de almacenamiento físico, y aún así funciona. Tenemos un proyecto piloto con los principales proveedores de cloud computing ahora mismo y esperamos que pasen a la producción con esto, ya sea este año o el próximo.

«Estas cosas se suelen llamar virtualización. Virtualizamos los recursos, de una forma u otra, ejecutando -abstrayendo la infraestructura física de la aplicación- y como en esta analogía de las centrales eléctricas.

«Afortunadamente, todas estas cosas se pueden optimizar descargando una parte bastante significativa de la operación de virtualización en el hardware, en los adaptadores de red o en el almacenamiento. Pero aún así, alguna parte está ahí fuera corriendo en el servidor de computación y esto no sería un gran problema porque esta es una parte realmente pequeña.

«Habrá muchas más aplicaciones y, de nuevo, los datos; se están generando más y más datos, más y más datos estarán disponibles, y más y más cosas que podemos hacer; una oportunidad de ingresos de 4 billones de dólares. Está todo ahí fuera, sólo tenemos que tomar ventaja.

«Conocemos a Nvidia desde hace mucho tiempo. En realidad, tienen la máquina de inteligencia artificial más rápida del mundo, que es la supercomputadora Oak Ridge Lab, construida sobre la base de la tecnología Mellanox, y las GPUs Nvidia e IBM construyen las máquinas, pero si nos fijamos en la mayor parte de la computación en el espacio AI, se hace en la Nvidia. Así que nos conocen desde hace una década. Nuestra tecnología permite un escalado mucho más eficiente del cálculo en la GPU y ha sido probada una y otra vez, y la máquina Oak Ridge es una de estas pruebas».

«Creo que este tipo de oportunidades realmente llevan a los proveedores de cloud computing fuera del centro de datos. Uno de ellos es obviamente 5G. Es por varias razones, ya sabes, a partir de la física simple, si queremos tener cosas como la toma de decisiones en las fracciones de los segundos, como para el coche de auto u otras cosas, entonces es necesario que el punto de toma de decisiones para estar físicamente más cerca del lugar que afecta a la decisión. Si tienes múltiples sensores que están físicamente ubicados, uno en el semáforo, otro en el coche, otro en el pavimento y otro en la parte superior del tejado que todos estos sensores, así que los datos proceden de los sensores que se agregan a algún punto, que está a unos pocos metros de distancia. Usted puede o quiere tomar una decisión basada en estos datos, en realidad necesita construir la incidencia del centro de datos que toma la decisión. Está en la base de la antena, puede estar en el coche, puede estar en cualquier parte. Conduce los servicios del centro de datos y el paradigma del centro de datos hacia el exterior.

«Ahora el punto es que para construir las cosas, no es necesario reinventar la rueda una y otra vez. Esta eficiencia de acceso a la red, y los temas de seguridad que hemos discutido, son prácticamente los mismos sin importar donde se encuentre físicamente, si es por la antena, si es por el coche autónomo o si es por el enorme centro de datos como Google, Facebook o Amazon o lo que sea Azure.

«Significa que, si se toma la misma arquitectura y se toma el mismo o subconjunto del mismo software que se utiliza para ejecutar el centro de datos, desarrollado por personas como Microsoft, Google o Amazon, todos estos tipos están proporcionando sus herramientas de gestión del centro de datos. Como puedes comprarlos como servicio, y ahora puedes ejecutar tu centro de datos dentro del coche o en la base de la antena o en cualquier otro punto de agregación utilizando las mismas herramientas. Ahora se trata de la implementación de diferentes piezas de hardware para alimentar las dimensiones y la potencia y el costo de esa implementación en particular.

Pero resulta que el software es mucho más difícil que el hardware, y mucho más complicado que el hardware. Ser capaz de aprovechar este desarrollo en el centro de datos hasta el borde, eso es lo que están haciendo el IO y el 5G. En realidad, para empresas como Mellanox, representa una gran oportunidad, porque tienen un gran motor para el sistema operativo del centro de datos y crea una gran oportunidad para ese tipo de productos.

La transcripción completa de esta sesión de apertura ya está disponible.