Aceleración de GPU para servicios web y visualización en Node.js con RAPIDS

Rate this content
Bookmark

La expansión del tamaño y la complejidad de los datos, la adopción más amplia de ML, así como las altas expectativas puestas en las aplicaciones web modernas, exigen cada vez más potencia de cálculo. Aprenda cómo se pueden utilizar las bibliotecas de ciencia de datos RAPIDS más allá de los cuadernos, con servicios web acelerados por GPU en Node.js. Desde la ETL hasta las visualizaciones en tiempo real renderizadas en el lado del servidor, el proyecto experimental Node RAPIDS está desarrollando un amplio conjunto de módulos capaces de ejecutarse en escritorios locales e instancias de nube multi-GPU.

26 min
20 Jun, 2022

Video Summary and Transcription

Bienvenido a la aceleración de GPU para servicios web y visualización en Node.js con Rapids. Rapids tiene como objetivo llevar capacidades de ciencia de datos de alto rendimiento a Node.js, proporcionando una API simplificada a la plataforma Rapids sin la necesidad de aprender un nuevo lenguaje o entorno. La aceleración de GPU en Node.js permite la optimización del rendimiento y el acceso a la memoria sin cambiar el código existente. Las demos muestran la potencia y velocidad de las GPUs y Rapids en el procesamiento de datos ETL, la visualización de gráficos y la interacción con nubes de puntos. Los planes futuros incluyen la expansión de la biblioteca, la mejora de la experiencia del desarrollador y la exploración del soporte nativo de Windows.

Available in English

1. Introducción a la Aceleración GPU y Node Rapids

Short description:

Bienvenido a la Aceleración GPU de los servicios web de Node.js y la visualización con Rapids. Rapids es una plataforma de ciencia de datos acelerada por GPU de código abierto, y Node Rapids es una biblioteca modular de enlaces inclusivos de Rapids en Node.js de código abierto. Nuestro objetivo principal es acelerar las tuberías de ciencia de datos y visualización completamente en JavaScript y TypeScript, y llevar la aceleración GPU a una mayor variedad de utilidades de NodeJS y JS.

Hola, y bienvenido a la Aceleración GPU de los servicios web de Node.js y la visualización con Rapids. Soy Allan Ane-Mark, y soy el líder del equipo de Rapids Viz aquí en NVIDIA.

Entonces, Rapids es una plataforma de ciencia de datos acelerada por GPU de código abierto, y puedes encontrar más detalles en rapids.ai y nvidia.com, y Node Rapids, que es el proyecto del que voy a hablar, es una biblioteca modular de enlaces inclusivos de Rapids en Node.js, así como algunos otros métodos complementarios para admitir visualizaciones similares a las de un navegador de alto rendimiento. Actualmente está en vista previa técnica, pero puedes encontrar más detalles al respecto en github.com slash rapids.ai slash Node.

Y realmente, nuestro objetivo principal en este marco es crear algo que pueda acelerar las tuberías de ciencia de datos y visualización completamente en JavaScript y TypeScript, algo que tradicionalmente se hace principalmente en, digamos, Python. Y nuestro segundo objetivo es llevar la aceleración GPU a una mayor variedad de utilidades de NodeJS y JS, ya que sentimos que la comunidad en general tiene acceso limitado a estas herramientas de alto

2. Introducción a Node Rapids

Short description:

Rapids proporciona bibliotecas de ciencia de datos, algoritmos de aprendizaje automático y herramientas de visualización. Tradicionalmente se utiliza con Python y C++, pero también se puede utilizar con Windows a través de WSL 2. En el ecosistema Viz, se utilizan bibliotecas como Cougraph y DataShader para crear paneles de control y renderizado en el lado del servidor. Node Rapids tiene como objetivo llevar capacidades de ciencia de datos de alto rendimiento a Node.js, permitiendo a los desarrolladores aprovechar las bibliotecas de visualización JS existentes y acelerar sus aplicaciones. Proporciona una API simplificada a la plataforma Rapids sin necesidad de aprender un nuevo lenguaje o entorno.

Entonces, ¿qué obtienes con Rapids, que tradicionalmente se utiliza con Python y C++? Obtienes estas bibliotecas de ciencia de datos, como las operaciones de DataFrame en CUDF, obtienes CUML, que son muchos algoritmos de aprendizaje automático acelerados por GPU, Cougraph, Forgraph, Spatial, Signal, y más que se están desarrollando continuamente y mejorando constantemente. La advertencia es que principalmente se utilizan en sistemas basados en Linux, por lo que si quieres usarlos en Windows, puedes hacerlo, pero debe ser a través de WSL 2.

Entonces, ¿qué tipo de bibliotecas en el ecosistema Viz tradicionalmente se utilizan en Python? Tenemos nuestro propio filtro Cougraph, que es una herramienta de filtrado cruzado basada en cuadernos donde puedes crear paneles de control muy rápidamente con unas pocas líneas de código Python, y luego interactuar rápidamente con cientos de millones de filas de datos de una manera bastante personalizable. Y hacemos un uso extensivo de una de las otras grandes bibliotecas de visualización llamada DataShader, que es excelente para renderizar en el lado del servidor cientos de millones de puntos. Todo esto está acelerado por GPU. Y realmente forma parte de este gran ecosistema de herramientas de Viz y Analytics, que se encuentra en el espectro entre tu back-end en C, C++, Python que se va transformando en solo JS en el front-end. Y realmente, cuando se trata de Ciencia de Datos y Cómputo, principalmente cosas analíticas, más en el lado del rendimiento, todo comienza en el lado de Python y C++. Y luego se traduce a JavaScript para la interfaz. Algunos están un poco más en un punto intermedio, pero realmente comienza allí y luego termina en JavaScript, o simplemente se queda en JavaScript. Lo que estamos proponiendo es lo contrario. Vamos a comenzar con las bibliotecas de JS y luego llevarlas de vuelta a este back-end de alto rendimiento en Node.js. Así que les daremos acceso a CUDA, CUDF, Cugraph, todas esas cosas. Nuestra experiencia con esto comenzó hace un tiempo cuando estábamos haciendo muchas demostraciones para RAPIDS, y en este caso estábamos haciendo una gran visualización de hipotecas donde teníamos DECGL y React, y todo era una interfaz muy rápida y agradable. Se adapta a todo tipo de pantallas diferentes y todo eso, pero el back-end era un desastre. Teníamos múltiples lenguajes, múltiples servidores. Se volvió insostenible y básicamente cada uno se rindió y dijo: `Bueno, hagámoslo en Python y Notebooks`. Pero en el fondo estábamos realmente tristes porque hay todas estas grandes bibliotecas de visualización de JS y las capacidades personalizadas que obtienes al usarlas que nos faltaban, y es una pena porque ahora tienes esta división continental, ¿verdad? Tienes Python y C++ y tienes JavaScript y TypeScript, y hay un abismo entre ellos donde se separan las capacidades entre ellos. Por un lado, tienes acceso directo al hardware, la mayoría de las bibliotecas de cómputo, ciencia de datos y alto rendimiento están en este espacio. No es la mejor usabilidad porque tiene una curva de aprendizaje alta, pero este es el lugar al que debes ir para cosas de alto rendimiento. Por otro lado, tienes el entorno agradable del navegador que es excelente para compartir y compatibilidad, en mi opinión, una visualización y bibliotecas de interfaz un poco más refinadas, pero nuevamente no obtienes ese rendimiento porque estás limitado por el sandbox del navegador. Es una pena porque tienes científicos de datos e ingenieros y personas frente a ellos y están un poco aislados en su lado, pero pueden beneficiarse mutuamente de las herramientas y la experiencia del otro. Por eso está Node Rapids, donde esperamos dar a los desarrolladores de Node.js una API simplificada a una plataforma de ciencia de datos de alto rendimiento, Rapids, sin la necesidad de aprender un nuevo lenguaje o entorno. Así que luego puedes aprovechar las características de Rapids y Node.js, puedes acelerar el catálogo de grandes bibliotecas de visualización JS que ya existen sin necesidad de una refactorización importante, puedes aprender localmente o a través de instancias en la nube y es adecuado para aplicaciones de visualización aceleradas, aplicaciones de servicios de Node, y nuevamente ayuda a que estas dos comunidades trabajen más estrechamente juntas y viceversa. Eso es un poco la idea principal y cuál es la carne y los huesos reales de esto. Bueno, aquí está, Node Rapids. Es una biblioteca muy modular. Es como un buffet. Puedes elegir lo que necesitas para tu caso de uso. Está organizado en estas categorías principales. La principal es la memoria.

3. Aceleración y Arquitectura de GPU

Short description:

Tenemos un motor SQL para procesamiento multi-nodo y multi-GPU. La columna de gráficos aprovecha WebGL como un subconjunto de OpenGL. La codificación de video GPU y WebRTC permiten el renderizado en el lado del servidor y la interacción con JS. La arquitectura de hardware de GPU permite una o varias GPU, NVIDIA NVLink para una mayor memoria y potencia de cálculo, y una arquitectura de nube tradicional con equilibrio de carga. Las tareas se pueden separar para cada GPU, lo que permite múltiples usuarios y cargas de trabajo pesadas. Las GPU de consumo están limitadas a tres transmisiones de codificación NV. Es posible tener un sistema multi-GPU en el lado del servidor, en ejecución multiusuario y con una gran potencia de cálculo con JavaScript de venta libre. Se mostrarán ejemplos y demos.

Gestión de memoria que te brinda acceso a CUDA, es decir, a la memoria de la GPU. También tenemos un motor SQL muy bueno al que nos enlazamos, lo que nos permite hacer cosas multi-nodo y multi-GPU cuando sea necesario. Luego tenemos toda una rama de ciencia de datos, todo en Rapids, por lo que tienes tus cosas de CUDF y CUGRAS. Y luego tenemos esta columna de gráficos aquí, donde aprovechamos el hecho de que WebGL es un subconjunto de OpenGL. Entonces, realmente lo que estamos haciendo con estos enlaces es, ya sabes, puedes tomar tu código WebGL y luego ejecutarlo en OpenGL y obtener el beneficio de ese aumento de rendimiento de OpenGL. También estamos haciendo cosas con enlaces GLF y, ya sabes, procesos de nodo. Pero nuevamente, ahora puedes usar tu LumaGL, DeckGL, SigmaJS, esperamos obtener dos y tres Jets y básicamente ejecutarlos en OpenGL sin mucho esfuerzo. Entonces, otro componente de esto es que, dado que ya estás en GPU, obtienes el beneficio de la codificación de video de GPU. Al aprovechar eso y usar WebRTC, puedes hacer renderizado en el lado del servidor, transmitirlo al navegador y hacer que el JS del lado del navegador interactúe con él como una etiqueta de video y es liviano en ese sentido. Permite muchas más capacidades en ese sentido. O simplemente puedes hacer cosas como interactuar con todo esto en un cuaderno. Entonces, ¿qué queremos decir con una especie de arquitectura? El hardware de la GPU es un poco diferente. Es bastante sencillo cuando tienes una sola GPU y solo haces renderizado en el lado del cliente. Entonces, todos los cálculos se realizan en la GPU, envías esos valores de cálculo y el JS del cliente lo renderiza, esos pocos valores. Es bastante sencillo y es donde las GPU sobresalen. Sobresalen tanto que puedes tener varios usuarios accediendo al mismo tipo de datos de GPU y es lo suficientemente rápido para manejar eso. O si tienes datos especialmente grandes, NVIDIA tiene un NVIDIA NVLink. Y así puedes vincular varias GPU y obtener una mayor memoria y potencia de cálculo de esa manera. O puedes optar por una arquitectura de nube más tradicional, donde simplemente tienes varias GPU separadas, tienes muchos procesos secundarios ejecutándose en cada GPU, un equilibrador de carga que se ejecuta en todos ellos. Y así, muchas instancias de personas accediendo a él. Y básicamente, la GPU que esté libre en ese momento es la que proporcionará la información a ese usuario. Entonces, es bastante sencillo, ya sabes, nuevamente, aún necesitas muchas GPU, pero, ya sabes, no es algo terriblemente desconocido. Ahora, aprovechando el renderizado en el lado del servidor y el componente de transmisión, si tienes cargas de trabajo bastante pesadas, puedes separar esas tareas para cada GPU. Entonces, una puede hacer solo los cálculos y otra puede hacer la parte de renderizado y codificación hacia el lado del cliente video. Y nuevamente, puede hacer esto lo suficientemente bien como para que varias personas accedan al mismo sistema y los mismos datos. La advertencia aquí es que, para las GPU de consumo, creo que están limitadas a tres transmisiones de codificación NV a la vez, así que tenlo en cuenta. Algo que es interesante y nuevo y un poco más en el lado de los deseos pero posible es este sistema básicamente multi-GPU, en ejecución en el lado del servidor, multiusuario, masivo donde en este caso sería como un DGX, que tiene 8 GPU y todo eso, y puedes dividir el cálculo y el renderizado entre ellos, tienes toneladas de memoria de GPU, y básicamente tienes esta mini supercomputadora a la que puedes acceder y controlar con JavaScript de venta libre, lo cual es bastante sorprendente. Entonces, ya sabes, normalmente piensas que necesitas algún tipo de software HPC y todo eso y toda la sobrecarga que implica aprender esas cosas, pero realmente no hay nada que te impida aprovechar un sistema tan potente con tu JavaScript común y corriente, lo cual nos parece genial. Pero de todos modos, ahora viene la parte buena. Ejemplos y demos. Así que para este primero vamos a mantener

4. Procesamiento de Datos ETL en Node Rapids

Short description:

Demostraremos el procesamiento básico de datos ETL en un cuaderno de Node.js. Utilizando un conjunto de datos de 1.2 GB de accidentes automovilísticos en los Estados Unidos, lo cargaremos en la GPU, realizaremos operaciones como filtrado, análisis de datos de temperatura y aplicaremos operaciones de expresiones regulares con cuDF. El conjunto de datos tiene 2.8 millones de filas con 47 columnas. La operación de filtrado completa solo tomó 20 milisegundos y la operación de expresiones regulares tomó 113 milisegundos en la GPU. Esto muestra el poder y la velocidad de las GPU y Rapids.

Mantengámoslo simple. Básicamente vamos a mostrar algunas cosas básicas de procesamiento de datos ETL en un cuaderno. Un cuaderno que se ejecuta en Node.js y utiliza la sintaxis de JS, pero básicamente lo estamos utilizando como un marcador de posición para servicios comunes de Node que podrían usarse para servicios por lotes y otras cosas que necesitarías hacer para analizar registros o proporcionar subconjuntos de datos, cosas así. En este caso, lo haremos en vivo. En este momento tengo un contenedor Docker ejecutándose en nuestra instancia de Node Rapids y un cuaderno. Aquí tengo un cuaderno Jupyter, un Jupyter Lab. Si no estás familiarizado, es como el IDE de ciencia de datos. Y puedes ver aquí que estamos haciendo, como lo haríamos en cualquier aplicación de Node, requerir nuestro Rapids AI QDF, en nuestro caso vamos a cargar un conjunto de datos de accidentes automovilísticos en los Estados Unidos de 1.2 gigabytes de Kaggle. Y lo vamos a leer como un CSV en la GPU. Y bueno, hoy fue especialmente rápido. Solo tomó menos de un segundo, lo cual es sorprendente considerando que es un archivo de 1.2 gigas. Y ¿qué tan grande es esto? Son 2.8 millones de filas con 47 columnas. Para nosotros, no es un conjunto de datos tan grande, pero para las personas que están acostumbradas a trabajar con datos y Node.js, es bastante bueno. Y la rapidez y capacidad de respuesta que tiene es impresionante. Vamos a ver, ya sabes, cuáles son los encabezados de esto. Es un poco desordenado, y vamos a pasar por esto bastante rápido, pero básicamente nos desharemos de algunos que no necesitamos. Luego vamos a ver cuáles son las columnas y decir, bien, hay algunos datos de temperatura aquí. Vamos a analizar esto para ver, ya sabes, cuáles son los rangos, hacer algunas comprobaciones de coherencia. Y decimos, bien, hay algunos valores extraños aquí, como siempre ocurre con los datos. Vamos a, ya sabes, ajustarlo para que sea coherente. Toda esta operación, nuevamente, con 2.8 millones de filas, tomó 20 milisegundos para filtrarlos. Es sorprendente. Ahora esto se ve mejor. Básicamente tenemos 2.7 millones ahora. Y podemos comenzar a hacer algunas otras operaciones. En este caso, lo vamos a convertir en una cadena y luego con cuDF obtienes algunas operaciones de expresiones regulares. Así que vamos a tener una expresión regular bastante complicada aquí donde destacamos las similitudes entre estos términos. Y nuevamente, con 2.8 millones, 2.7 millones de filas, tomó 113 milisegundos. Así que puedes ver lo poderoso y rápido que es en una GPU. Y básicamente al final de esto, estamos diciendo que, sí, ya sabes, cuando hay nubes y lluvia, los accidentes son más graves. Pero esto es solo

5. Aceleración de GPU en Node.js

Short description:

Ahora puedes acceder a la aceleración de GPU en Node.js, lo que permite optimizar el rendimiento y acceder a la memoria sin cambiar el código existente. Lo demostramos utilizando Sigma JS, una biblioteca de representación de gráficos, y una visualización geoespacial con deck GL y un conjunto de datos de Uber de 40 millones de filas. Con la carga de memoria de la GPU y el cálculo en el lado del servidor, varias instancias pueden acceder a la misma GPU y conjunto de datos, proporcionando resultados en tiempo real y vistas únicas de los datos.

la primera demostración de lo que puedes hacer con las GPU y Rapids. Y ahora tienes acceso a ello en Node.js, lo cual nos parece bastante genial, y, ya sabes, la sintaxis de JS, que es bastante interesante. Así que vamos a subir un poco más el nivel. La siguiente demostración utiliza Sigma JS, que, si no estás familiarizado, es una biblioteca de representación de gráficos que solo funciona en el lado del cliente. Es bastante eficiente y tiene muchas funcionalidades. Pero lo que hicimos básicamente fue sacar la carga de gráficos de la memoria del sistema y cargar en la memoria de la GPU, y luego servirlo o transmitirlo a la aplicación del lado del cliente.

En este caso, ignora los números. En realidad, son 1 millón de nodos con 200,000 aristas, y puedes ver que se acerca y se desplaza de manera suave, incluso si está en WebGL. Así que obtienes esa gran interactividad y todo eso. Pero técnicamente, esto se carga en la memoria de la GPU. Esto significa que no estás limitado por las limitaciones del navegador web. Si no usas una GPU, básicamente estás limitado a 500,000 nodos, y luego la pestaña se bloquea. Como puedes ver aquí, ya sabes, se utiliza la GPU para los nodos y aristas y, ya sabes, Sigma JS sin muchos cambios. Así que esperamos que en el futuro, muchos usuarios de Sigma JS puedan obtener esa optimización del rendimiento y acceso a la memoria sin tener que cambiar mucho cómo funciona su código.

Para el siguiente ejemplo, haremos algo similar. Realizaremos un cálculo en el lado del servidor y una representación en el lado del cliente de una visualización geoespacial. Utilizaremos deck GL y un conjunto de datos de Uber de 40 millones de filas. No está mal. Aún no es tan grande para nosotros. Y puedes ver que básicamente todo se calcula en origen y destino. Al hacer clic en cada una de estas áreas, estás calculando cuántos de esos viajes se realizaron y a qué hora. Y puedes ver que al hacer clic en cada uno de ellos, es prácticamente instantáneo, y obtienes los resultados de 40 millones de filas. Es tan rápido que básicamente puedes comenzar a ajustar los valores y obtener esa interacción de vuelta. Entonces, lo que esto significa básicamente es, ya sabes, puedes tener múltiples instancias accediendo a la misma GPU y al mismo conjunto de datos. Y debido a que esta es una aplicación de React, el estado se gestiona en el lado del cliente. Esto significa que todos obtienen su propia vista única de los datos. Pero aún consultas esa misma GPU, y debido a que es tan rápido, obtienes los valores prácticamente en tiempo real. Y como dije antes, realmente donde la GPU sobresale es en el cálculo en el lado del servidor y la transmisión de los valores. Así que puedes hacer mucho, incluso con una sola GPU. El siguiente ejemplo es un poco más complicado.

6. Demostraciones de Aceleración de GPU y Visualización

Short description:

Esta parte muestra una visualización de gráficos renderizados en el lado del servidor y transmitidos por video utilizando LumaGL, OpenGL y codificación NV. Demuestra la filtración y consulta de un conjunto de datos de 1 millón de aristas y nodos en tiempo real. Se aplica el algoritmo de diseño Fort Atlas 2 para calcular el diseño de cada nodo y arista, transmitido al navegador como un video. Además, se utiliza un conjunto de datos de nube de puntos para mostrar la capacidad de desplazamiento, zoom e interacción con los datos. Hay más demostraciones y ejemplos disponibles, incluyendo representaciones de gráficos, demostraciones de Deck GL y una demostración de consulta de motor SQL multi-GPU.

Puedes ver que estamos construyendo modules a medida que avanzamos. Esta fue una visualización de gráficos renderizada y calculada en el lado del servidor y luego transmitida al cliente como un video. Por lo tanto, estamos utilizando LumaGL, una biblioteca de JavaScript para convertirlo a OpenGL, codificarlo con codificación NV y transmitirlo con Red Better DC. Vamos a utilizar CUDF para el marco de datos y Cugraph para el cálculo del diseño del gráfico. Así que puedes ver que estamos empezando a envolver esto un poco más en una aplicación GUI. En este caso, solo estamos utilizando un conjunto de datos de muestra. Seleccionamos esas aristas, colores y luego lo renderizamos. Así que tienes una especie de enredo gigante, pero son 1 millón de aristas y 1 millón de nodos que puedes filtrar y consultar en tiempo real. Puedes ver lo rápido que puedes consultarlo, borrar el filtro y volver a tener un millón de nodos y un millón de aristas. Básicamente, puedes ver información adicional al pasar el cursor sobre cada uno de ellos.

Visualmente, no tiene mucho sentido, pero esto es más bien una especie de referencia de rendimiento y cómo puedes obtener cada nodo individual. Y ahora vamos a ejecutar Fort Atlas 2 en tiempo real. Fort Atlas 2 es básicamente un algoritmo de diseño, por lo que va a calcular el diseño para cada nodo y cada arista en tiempo real y se están calculando todas las fuerzas. Y puedes ver que esto se está haciendo nuevamente en 1 millón de aristas y 1 millón de nodos, y todo se transmite como un video al navegador. Puedes ver cómo se mueve a través de las iteraciones en tiempo real, lo cual es bastante impresionante. Nuevamente, esto es solo con una GPU y puedes interactuar con esta gran cantidad de datos. Me encanta ver esto, es como mirar la superficie del sol, lo cual es bastante interesante. Y para el último ejemplo, básicamente es algo muy similar, excepto que vamos a utilizar datos de nube de puntos en lugar de un gráfico. No necesitamos hacer ningún diseño de gráfico, pero es algo similar donde estamos transmitiendo un video. En este caso, es una nube de puntos de un escaneo de un edificio, por lo que puedes desplazarte, hacer zoom e interactuar con ella. Pero nuevamente, debido a que las GPUs son bastante potentes, voy a duplicar esta pestaña y tener múltiples instancias del mismo conjunto de datos desde la misma GPU. Pero puedo interactuar con ellos de forma única debido a cómo se manejan los datos. Entonces, nuevamente, esto es un video en tiempo real, bastante impresionante. Puedes hacer mucho con una sola GPU. Eso es mucho de lo que podemos hablar. Tenemos aún más demostraciones y ejemplos. Esta es la ubicación de eso. Tenemos cosas donde mostramos representaciones de gráficos con GLFW. Tenemos todas las demostraciones de Deck GL y OpenGL renderizado local. Tenemos una demostración realmente buena de consulta de motor SQL multi-GPU. Estamos consultando toda la Wikipedia en inglés utilizando múltiples GPUs.

7. Planes Futuros y Participación de la Comunidad

Short description:

Tenemos ejemplos de los algoritmos de Clustering UMAP y Cuadrante Espacial. Nuestros planes futuros incluyen continuar con las demostraciones, la vinculación de bibliotecas externas, aplicaciones especializadas en Ciberseguridad, Gráficos, Geo Espacial, Nube de Puntos y una adopción más amplia por parte de la comunidad. Nuestro objetivo es cerrar la brecha entre JavaScript y Node.js con una mejor experiencia de usuario para los desarrolladores, instalación a través de npm, aplicaciones de visualización listas para usar y soporte de Windows WSL 2. También estamos explorando la posibilidad de contar con soporte nativo para Windows. Ven y descubre nuestros servicios de ciencia de datos y visualización acelerados por GPU con Node.js y Rapids. Todavía estamos en una vista previa técnica y agradecemos los comentarios sobre casos de uso interesantes.

Tenemos ejemplos que muestran el algoritmo de Clustering UMAP y el algoritmo de Cuadrante Espacial. Son bastante interesantes. Te recomiendo que los revises. Si no puedes instalarlo, tenemos enlaces a demostraciones en YouTube de los videos.

Entonces, ¿qué sigue? En el futuro, tenemos tres ideas principales para seguir adelante. Continuaremos haciendo estas demostraciones y trabajando en la vinculación de bibliotecas externas. Nuevamente, esperamos trabajar con Three.js y hacer más trabajo con Sigma.js. A partir de eso, comenzaremos a desarrollar aplicaciones más especializadas, específicamente en áreas como Ciberseguridad, Gráficos, Geo Espacial, Nube de Puntos, etc. Tal vez algo que facilite un poco más su uso. Y luego, esperamos una adopción más amplia por parte de la comunidad, especialmente en casos de uso que no sean de visualización. Estamos sesgados siendo el equipo de visualización para cosas de visualización, pero sabemos que al proporcionar estas vinculaciones CUDA hay oportunidades para muchas más funcionalidades que aún no estamos considerando porque no somos conscientes de ellas. Por lo tanto, nos encantaría recibir comentarios de la comunidad sobre nuevas formas de utilizar esto.

Entonces, sí, RAPIDS es un marco bastante increíble. Y queremos llevar esta capacidad a más desarrolladores y aplicaciones, y creemos que las comunidades de desarrollo de JavaScript y Node.js pueden aprovechar algunos de los conocimientos y el rendimiento de la comunidad de ciencia de datos. Entonces, eso es lo que estamos tratando de hacer, cerrar la brecha entre los dos, en este caso, con muchos casos de uso de visualización. Pero esto es lo que estamos trabajando a continuación, principalmente una mejor experiencia de usuario para los desarrolladores. Actualmente, la instalación puede ser un poco complicada, o si no estás familiarizado con las imágenes de Docker, puede haber una curva de aprendizaje. Por lo tanto, esperamos poder instalar esto a través de npm. Será un poco de trabajo para nosotros, pero sabemos que lo hará mucho más accesible para los desarrolladores de JavaScript. Como dije, vamos a crear algunas aplicaciones de visualización que serán un poco más fáciles de usar para analistas generales. Y esperamos obtener soporte completo para Windows WSL 2. Actualmente, puedes ejecutar Node Rapids en WSL 2 y Windows, pero aún no hay soporte de OpenGL por parte de NVIDIA. Están trabajando en ello. Por lo tanto, puedes realizar tareas de cálculo, pero no las tareas de renderizado. Y tal vez soporte nativo para Windows. Esto es un poco difícil de lograr, pero sería bastante interesante para nosotros poder tenerlo. Así que no necesitarías usar WSL 2 ni nada de eso. Entonces, si algo de esto te parece interesante o ha despertado tu curiosidad, ven a echar un vistazo. Conoce nuestros servicios de ciencia de datos y visualización acelerados por GPU con Node.js y Rapids. Todavía estamos en una vista previa técnica. Estamos solucionando los problemas y aún es bastante nuevo. Pero nos encantaría recibir comentarios sobre todo tipo de casos de uso interesantes que puedas tener para nosotros. Y somos muy receptivos a ese tipo de cosas. Así que esperamos escuchar de ti y gracias por escuchar.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

React Advanced Conference 2021React Advanced Conference 2021
27 min
(Easier) Interactive Data Visualization in React
Top Content
If you’re building a dashboard, analytics platform, or any web app where you need to give your users insight into their data, you need beautiful, custom, interactive data visualizations in your React app. But building visualizations hand with a low-level library like D3 can be a huge headache, involving lots of wheel-reinventing. In this talk, we’ll see how data viz development can get so much easier thanks to tools like Plot, a high-level dataviz library for quick & easy charting, and Observable, a reactive dataviz prototyping environment, both from the creator of D3. Through live coding examples we’ll explore how React refs let us delegate DOM manipulation for our data visualizations, and how Observable’s embedding functionality lets us easily repurpose community-built visualizations for our own data & use cases. By the end of this talk we’ll know how to get a beautiful, customized, interactive data visualization into our apps with a fraction of the time & effort!
Node Congress 2022Node Congress 2022
26 min
It's a Jungle Out There: What's Really Going on Inside Your Node_Modules Folder
Top Content
Do you know what’s really going on in your node_modules folder? Software supply chain attacks have exploded over the past 12 months and they’re only accelerating in 2022 and beyond. We’ll dive into examples of recent supply chain attacks and what concrete steps you can take to protect your team from this emerging threat.
You can check the slides for Feross' talk here.
6 min
Charlie Gerard's Career Advice: Be intentional about how you spend your time and effort
Featured Article
When it comes to career, Charlie has one trick: to focus. But that doesn’t mean that you shouldn’t try different things — currently a senior front-end developer at Netlify, she is also a sought-after speaker, mentor, and a machine learning trailblazer of the JavaScript universe. "Experiment with things, but build expertise in a specific area," she advises.

What led you to software engineering?My background is in digital marketing, so I started my career as a project manager in advertising agencies. After a couple of years of doing that, I realized that I wasn't learning and growing as much as I wanted to. I was interested in learning more about building websites, so I quit my job and signed up for an intensive coding boot camp called General Assembly. I absolutely loved it and started my career in tech from there.
 What is the most impactful thing you ever did to boost your career?I think it might be public speaking. Going on stage to share knowledge about things I learned while building my side projects gave me the opportunity to meet a lot of people in the industry, learn a ton from watching other people's talks and, for lack of better words, build a personal brand.
 What would be your three tips for engineers to level up their career?Practice your communication skills. I can't stress enough how important it is to be able to explain things in a way anyone can understand, but also communicate in a way that's inclusive and creates an environment where team members feel safe and welcome to contribute ideas, ask questions, and give feedback. In addition, build some expertise in a specific area. I'm a huge fan of learning and experimenting with lots of technologies but as you grow in your career, there comes a time where you need to pick an area to focus on to build more profound knowledge. This could be in a specific language like JavaScript or Python or in a practice like accessibility or web performance. It doesn't mean you shouldn't keep in touch with anything else that's going on in the industry, but it means that you focus on an area you want to have more expertise in. If you could be the "go-to" person for something, what would you want it to be? 
 And lastly, be intentional about how you spend your time and effort. Saying yes to everything isn't always helpful if it doesn't serve your goals. No matter the job, there are always projects and tasks that will help you reach your goals and some that won't. If you can, try to focus on the tasks that will grow the skills you want to grow or help you get the next job you'd like to have.
 What are you working on right now?Recently I've taken a pretty big break from side projects, but the next one I'd like to work on is a prototype of a tool that would allow hands-free coding using gaze detection. 
 Do you have some rituals that keep you focused and goal-oriented?Usually, when I come up with a side project idea I'm really excited about, that excitement is enough to keep me motivated. That's why I tend to avoid spending time on things I'm not genuinely interested in. Otherwise, breaking down projects into smaller chunks allows me to fit them better in my schedule. I make sure to take enough breaks, so I maintain a certain level of energy and motivation to finish what I have in mind.
 You wrote a book called Practical Machine Learning in JavaScript. What got you so excited about the connection between JavaScript and ML?The release of TensorFlow.js opened up the world of ML to frontend devs, and this is what really got me excited. I had machine learning on my list of things I wanted to learn for a few years, but I didn't start looking into it before because I knew I'd have to learn another language as well, like Python, for example. As soon as I realized it was now available in JS, that removed a big barrier and made it a lot more approachable. Considering that you can use JavaScript to build lots of different applications, including augmented reality, virtual reality, and IoT, and combine them with machine learning as well as some fun web APIs felt super exciting to me.


Where do you see the fields going together in the future, near or far? I'd love to see more AI-powered web applications in the future, especially as machine learning models get smaller and more performant. However, it seems like the adoption of ML in JS is still rather low. Considering the amount of content we post online, there could be great opportunities to build tools that assist you in writing blog posts or that can automatically edit podcasts and videos. There are lots of tasks we do that feel cumbersome that could be made a bit easier with the help of machine learning.
 You are a frequent conference speaker. You have your own blog and even a newsletter. What made you start with content creation?I realized that I love learning new things because I love teaching. I think that if I kept what I know to myself, it would be pretty boring. If I'm excited about something, I want to share the knowledge I gained, and I'd like other people to feel the same excitement I feel. That's definitely what motivated me to start creating content.
 How has content affected your career?I don't track any metrics on my blog or likes and follows on Twitter, so I don't know what created different opportunities. Creating content to share something you built improves the chances of people stumbling upon it and learning more about you and what you like to do, but this is not something that's guaranteed. I think over time, I accumulated enough projects, blog posts, and conference talks that some conferences now invite me, so I don't always apply anymore. I sometimes get invited on podcasts and asked if I want to create video content and things like that. Having a backlog of content helps people better understand who you are and quickly decide if you're the right person for an opportunity.What pieces of your work are you most proud of?It is probably that I've managed to develop a mindset where I set myself hard challenges on my side project, and I'm not scared to fail and push the boundaries of what I think is possible. I don't prefer a particular project, it's more around the creative thinking I've developed over the years that I believe has become a big strength of mine.***Follow Charlie on Twitter
Node Congress 2022Node Congress 2022
34 min
Out of the Box Node.js Diagnostics
In the early years of Node.js, diagnostics and debugging were considerable pain points. Modern versions of Node have improved considerably in these areas. Features like async stack traces, heap snapshots, and CPU profiling no longer require third party modules or modifications to application source code. This talk explores the various diagnostic features that have recently been built into Node.
You can check the slides for Colin's talk here. 
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: ML in the Browser and Beyond
Discover how to embrace machine learning in JavaScript using TensorFlow.js in the browser and beyond in this speedy talk. Get inspired through a whole bunch of creative prototypes that push the boundaries of what is possible in the modern web browser (things have come a long way) and then take your own first steps with machine learning in minutes. By the end of the talk everyone will understand how to recognize an object of their choice which could then be used in any creative way you can imagine. Familiarity with JavaScript is assumed, but no background in machine learning is required. Come take your first steps with TensorFlow.js!

Workshops on related topic

Node Congress 2023Node Congress 2023
109 min
Node.js Masterclass
Workshop
Have you ever struggled with designing and structuring your Node.js applications? Building applications that are well organised, testable and extendable is not always easy. It can often turn out to be a lot more complicated than you expect it to be. In this live event Matteo will show you how he builds Node.js applications from scratch. You’ll learn how he approaches application design, and the philosophies that he applies to create modular, maintainable and effective applications.

Level: intermediate
Node Congress 2023Node Congress 2023
63 min
0 to Auth in an Hour Using NodeJS SDK
WorkshopFree
Passwordless authentication may seem complex, but it is simple to add it to any app using the right tool.
We will enhance a full-stack JS application (Node.JS backend + React frontend) to authenticate users with OAuth (social login) and One Time Passwords (email), including:- User authentication - Managing user interactions, returning session / refresh JWTs- Session management and validation - Storing the session for subsequent client requests, validating / refreshing sessions
At the end of the workshop, we will also touch on another approach to code authentication using frontend Descope Flows (drag-and-drop workflows), while keeping only session validation in the backend. With this, we will also show how easy it is to enable biometrics and other passwordless authentication methods.
Table of contents- A quick intro to core authentication concepts- Coding- Why passwordless matters
Prerequisites- IDE for your choice- Node 18 or higher
JSNation 2023JSNation 2023
104 min
Build and Deploy a Backend With Fastify & Platformatic
WorkshopFree
Platformatic allows you to rapidly develop GraphQL and REST APIs with minimal effort. The best part is that it also allows you to unleash the full potential of Node.js and Fastify whenever you need to. You can fully customise a Platformatic application by writing your own additional features and plugins. In the workshop, we’ll cover both our Open Source modules and our Cloud offering:- Platformatic OSS (open-source software) — Tools and libraries for rapidly building robust applications with Node.js (https://oss.platformatic.dev/).- Platformatic Cloud (currently in beta) — Our hosting platform that includes features such as preview apps, built-in metrics and integration with your Git flow (https://platformatic.dev/). 
In this workshop you'll learn how to develop APIs with Fastify and deploy them to the Platformatic Cloud.
JSNation Live 2021JSNation Live 2021
156 min
Building a Hyper Fast Web Server with Deno
WorkshopFree
Deno 1.9 introduced a new web server API that takes advantage of Hyper, a fast and correct HTTP implementation for Rust. Using this API instead of the std/http implementation increases performance and provides support for HTTP2. In this workshop, learn how to create a web server utilizing Hyper under the hood and boost the performance for your web apps.
React Summit 2022React Summit 2022
164 min
GraphQL - From Zero to Hero in 3 hours
Workshop
How to build a fullstack GraphQL application (Postgres + NestJs + React) in the shortest time possible.
All beginnings are hard. Even harder than choosing the technology is often developing a suitable architecture. Especially when it comes to GraphQL.
In this workshop, you will get a variety of best practices that you would normally have to work through over a number of projects - all in just three hours.
If you've always wanted to participate in a hackathon to get something up and running in the shortest amount of time - then take an active part in this workshop, and participate in the thought processes of the trainer.
TestJS Summit 2023TestJS Summit 2023
78 min
Mastering Node.js Test Runner
Workshop
Node.js test runner is modern, fast, and doesn't require additional libraries, but understanding and using it well can be tricky. You will learn how to use Node.js test runner to its full potential. We'll show you how it compares to other tools, how to set it up, and how to run your tests effectively. During the workshop, we'll do exercises to help you get comfortable with filtering, using native assertions, running tests in parallel, using CLI, and more. We'll also talk about working with TypeScript, making custom reports, and code coverage.