Escalando el Aprendizaje Automático Distribuido, hasta el Borde y de Vuelta

Rate this content
Bookmark
Slides

Esta charla cubrirá por qué y cómo las organizaciones están distribuyendo el almacenamiento de datos y el aprendizaje automático hasta el borde. Al llevar el aprendizaje automático hasta el borde, podemos distribuir geográficamente el aprendizaje para que los modelos realmente aprendan cosas diferentes relevantes para ubicaciones específicas. Al entregar tanto la base de datos del borde como la computación en una sola plataforma, más personas pueden hacer la transición a una arquitectura distribuida. Las ganancias de rendimiento de esta nueva arquitectura afianzan el valor que aporta la computación móvil en el borde.

Jaxon Repp
Jaxon Repp
21 min
05 Jun, 2023

Video Summary and Transcription

Esta charla explora el papel de JavaScript en el aprendizaje automático distribuido a gran escala, discutiendo la falta de herramientas y la accesibilidad de las implementaciones de aprendizaje automático. También abarca la arquitectura de aprendizaje automático basada en la nube, el aprendizaje automático en el borde y el uso de HarperDB para una implementación simplificada de aprendizaje automático. También se discute el concepto de IA iterativa y entrenamiento de modelos.

Available in English

1. Introducción a JavaScript ML

Short description:

Hola, bienvenidos a mi charla para JS Nation titulada Hasta el Límite y de Regreso: El Rol de JavaScript en el Aprendizaje Automático Distribuido a Escala. Soy un desarrollador en recuperación, padre de dos hijas, con sede en Denver, Colorado. Trabajo para HarperDB, una Plataforma de Aplicaciones Distribuidas construida completamente en Node.js. Hoy, exploraré el ecosistema de aprendizaje automático en JavaScript, la arquitectura táctica y los sistemas y métodos para ofrecer un acceso de alto rendimiento al aprendizaje automático e IA.

Hola, bienvenidos a mi charla para JS Nation titulada Hasta el Límite y de Regreso: El Rol de JavaScript en el Aprendizaje Automático Distribuido a Escala. Mi nombre es Jackson Repp. Soy un desarrollador en recuperación, padre de dos hijas. Estoy ubicado en Denver, Colorado. He sido parte de ocho startups, con dos salidas exitosas y cinco oportunidades de aprendizaje. Ahora trabajo para HarperDB, que es una Plataforma de Aplicaciones Distribuidas. Llevamos seis años en el mercado y tenemos numerosas implementaciones en producción y una comunidad bastante sólida.

Cuando hablo de HarperDB como el lugar donde trabajo, creo que lo más interesante para JS Nation es el hecho de que estamos construidos completamente en Node.js. Hemos aprovechado el lenguaje que ya amas. Podríamos haber elegido cualquier lenguaje, pero nos dimos cuenta de los enormes beneficios en términos de simplicidad y disponibilidad de recursos y plataformas de implementación. ¿Dónde puede ejecutarse JavaScript? Nos encanta centrarnos en la comunidad de JavaScript y, obviamente, el aprendizaje automático es una de esas áreas que ha crecido enormemente en el futuro cercano. ¿Y cómo se logra eso? ¿Cuáles son las logísticas detrás de ello? Eso es lo que quiero explorar hoy.

Entonces, el plan de estudios para este curso, supongo, sería comprender el ecosistema de aprendizaje automático en JavaScript. ¿Qué recursos tenemos disponibles para construir estas increíbles y geniales tecnologías que funcionan más cerca del usuario, aprovechando un lenguaje que todos amamos? Luego tenemos una sección llamada arquitectura táctica, que es cómo se hace actualmente o cómo se hacía en el pasado y hacia dónde creemos que se dirige con el tiempo. ¿Cómo podemos seguir ofreciendo un acceso de alto rendimiento al aprendizaje automático e IA y a estos modelos increíblemente complejos cuando ejecutarlos requiere tanta potencia y es posible que no tengas toda la potencia del mundo en tu teléfono o tal vez, ya sabes, en un navegador? Y finalmente, sistemas y métodos. Entonces, ¿cómo podemos abordar este problema? ¿Cuáles son las consideraciones que debemos tener en cuenta al planificar un sistema que sea verdaderamente distribuido e iterativo, como describiré cómo se ven esas arquitecturas? Así que hablemos del ecosistema de ML en JavaScript. Si es así, esta, como muchas tecnologías

2. Herramientas y Arquitectura Táctica de Aprendizaje Automático

Short description:

Las personas se dan cuenta del aprendizaje automático y sus posibles aplicaciones. Sin embargo, la falta de herramientas requiere que los desarrolladores escriban código de bajo nivel para entrenar modelos y construir aplicaciones. Con la infraestructura adecuada, las implementaciones de aprendizaje automático se vuelven más accesibles. ChatGPT ha ganado una atención significativa y ofrece una solución completa y rápida. JavaScript es una excelente opción para llevar el aprendizaje automático al límite, con bibliotecas como TensorFlow.js y plataformas móviles como CoreML y MLK. La naturaleza jerárquica de acceso a los datos sugiere oportunidades para implementaciones en la nube, en el borde, lejos del borde y en dispositivos móviles. La arquitectura táctica implica el entrenamiento, la prueba y la implementación de modelos.

implementaciones, es un ciclo virtuoso. Primero, las personas se dan cuenta de ello, ¿verdad? Saben que el aprendizaje automático es algo real. Saben que puede ayudarles a identificar cosas en una foto o que pueden hacer recomendaciones utilizando esta tecnología. Pero las herramientas no están disponibles. Así que tienes que escribir código de bajo nivel para entrenar un modelo, para construir algo que pueda actuar según la entrada del usuario y darte una recomendación o una clasificación o lograr cualquier objetivo final que pueda ser.

Y luego se construye la infraestructura detrás de eso para soportar cosas que ahora podemos implementar porque tenemos las herramientas. Y con esa infraestructura, las implementaciones se vuelven más accesibles, lo que obviamente puedes lanzar a una audiencia más amplia, y luego comienza a crecer. Si observas la conciencia, lo primero de lo que todos están hablando es de ChatGPT hasta el punto de que las últimas tres semanas de llamadas de ganancias han incluido menciones de IA y ChatGPT en productos que ni siquiera parecían aprovecharlos porque el precio de las acciones sube, porque todos están tan emocionados y conscientes. Y en última instancia, queremos ofrecer este producto, esta solución, este resultado. Y es simple, accesible, completo y rápido. Y ChatGPT cumple con todas esas cosas. Y es tremendo si alguna vez lo has usado. Sabes que generalmente hay una espera para entrar y las cuentas comerciales son difíciles de conseguir y costosas, porque se requiere una cantidad tremenda de recursos para hacer algo tan impresionante como lo que hace ChatGPT. Ahora, obviamente, también es un poco aterrador en términos del alcance de lo que puede hacer. Es un modelo muy grande que ha sido entrenado con muchas piezas de datos y no todos necesitan implementar un motor de chat humano integral, pero hay un millón de otras aplicaciones para el aprendizaje automático, especialmente en el límite, que pueden aprovechar muchas de las mejores prácticas que ChatGPT nos ha presentado en términos de accesibilidad. Luego, miramos las herramientas que tenemos para seguir llevando esta lógica al límite, ¿verdad? ¿Cómo nos acercamos a esos usuarios? Y JavaScript, obviamente, al estar en todos los dispositivos cliente y ejecutarse prácticamente en todas partes, es una excelente opción para eso. Y aunque el aprendizaje automático y los modelos de aprendizaje automático y la IA tradicionalmente han estado en servidores con mucha potencia, como ChatGPT que entrena un modelo gigante, hay muchas bibliotecas disponibles. TensorFlow.js es el primo de JavaScript del rey de las plataformas de aprendizaje automático patrocinado por Google. Pero también tienes muchas otras plataformas disponibles para tomar datos, generar un modelo y finalmente implementarlo y ejecutarlo también en el límite, así como en plataformas móviles como CoreML y CreateML en iOS y MLK para Android. Por lo tanto, hay muchas formas de llevar esto tan lejos como sea posible. Ahora, nuevamente, se requiere potencia para crear y utilizar modelos, por lo que realmente depende de dónde lo vayas a hacer. Tradicionalmente, hemos hecho esto en la nube, ¿verdad? Ejecutamos un gran servidor con muchas GPU y construimos grandes modelos. Y luego configuramos una infraestructura en el límite o en otra región de la nube para aprovechar ese modelo, recibir solicitudes de clientes entrantes y ejecutar sus datos contra el modelo y obtener algún tipo de clasificación o conjunto de datos resultante. Pero a medida que seguimos viendo la naturaleza jerárquica de, digamos, cómo accedemos a los datos, probablemente haya una oportunidad de bifurcación o trifurcación. Solo la visión de las responsabilidades entre la nube y el límite cercano, es decir, los servidores que están más cerca de ti, el límite lejano, es decir, las zonas locales de AWS o en las instalaciones, cosas que están muy, muy cerca de ti. Y finalmente, las cosas que llevas contigo, una aplicación móvil o un navegador en tu teléfono o que se ejecuta en una computadora portátil. Por lo tanto, hay muchas cosas que necesitaban estar en su lugar y tener esas herramientas para que pudiéramos entregar los resultados a un nivel más local. Por lo tanto, observamos una arquitectura táctica, nuevamente, lo básico es que queremos entrenar un modelo, queremos probarlo y validar que funcione, y luego queremos implementarlo. Queremos ponerlo ahí fuera y que realmente

3. Arquitectura de Aprendizaje Automático Basada en la Nube

Short description:

Queremos poner eso ahí fuera y hacer que realmente comience a hacer cosas por nosotros. Y cuando veo una arquitectura tradicional basada en la nube, tengo una fuente de datos, ya sea estática desde un lago de datos o una base de datos gigante, o tengo datos en streaming que provienen de aplicaciones, clientes, sensores, y luego tengo un pipeline de aprendizaje automático donde realizo todo el entrenamiento y las pruebas. Y luego tengo algún tipo de operaciones de aprendizaje automático, que es una palabra clave muy popular en este momento, y hay muchas herramientas, Kubeflow es una de ellas, funciona muy bien con Kubernetes. Y luego está la distribución hacia la infraestructura que luego ejecutará esos modelos, y solo mencioné Kubernetes aquí porque todos lo conocen y es omnipresente. Esta es la arquitectura de muchas aplicaciones de aprendizaje automático.

Queremos poner eso ahí fuera y hacer que realmente comience a hacer cosas por nosotros. Y cuando veo una arquitectura tradicional basada en la nube, tengo una fuente de datos, ya sea estática desde un lago de datos o una base de datos gigante, o tengo datos en streaming que provienen de aplicaciones, clientes, sensores, y luego tengo un pipeline de aprendizaje automático donde realizo todo el entrenamiento y las pruebas. Y luego tengo algún tipo de operaciones de aprendizaje automático, que es una palabra clave muy popular en este momento, y hay muchas herramientas, Kubeflow es una de ellas, funciona muy bien con Kubernetes. Y luego está la distribución hacia la infraestructura que luego ejecutará esos modelos, y solo mencioné Kubernetes aquí porque todos lo conocen y es omnipresente. Esta es la arquitectura de muchas aplicaciones de aprendizaje automático.

4. Machine Learning at the Edge

Short description:

Y es muy similar a algo similar a un chat GPT. Todo está centralizado en la nube, con mucha potencia en la infraestructura para construir y ejecutar esos modelos, pero en última instancia, todo está en un solo lugar. La siguiente iteración es construir un modelo grande utilizando la infraestructura de alta potencia de la nube, y luego enviar ese modelo y volver a entrenarlo o mejorarlo con datos que provienen de clientes locales o regionales. Así que tomas ese modelo y lo envías al borde y luego lo vuelves a entrenar o lo mejoras con datos locales o regionales, lo que ofrece una experiencia más personalizada. La mayor parte del trabajo se realiza en la nube en ese motor de alta potencia y ahora en el borde puedes utilizar recursos más distintos, más discretos para volver a entrenar y seguir proporcionando ese resultado de manera oportuna a los clientes. El conocimiento jerárquico, la clasificación jerárquica y las recomendaciones son cómo funcionan nuestros cuerpos. A esto lo llamamos aprendizaje en conjunto. Hay refinamientos que deben hacerse en cada nivel para asegurar que ese modelo sea relevante y que tenga un rendimiento suficiente en ese borde, porque los dispositivos que llaman, puede haber cientos de miles, millones o miles de millones de ellos y están llamando y quieren una recomendación, ¿cómo tienes un modelo lo suficientemente localizado y con suficiente rendimiento para ofrecer esos resultados en el borde?

Así que los dispositivos del cliente pueden tener que esperar un tiempo para comunicarse y realizar esa carga de trabajo, tal vez en el caso de, por ejemplo, chat GPT, lo pones en una cola y tienes que esperar tu turno para interactuar con él, porque hay limitaciones en lo que esa arquitectura en la nube puede lograr. La siguiente iteración de eso es construir un modelo grande utilizando la infraestructura de alta potencia de la nube, y luego enviar ese modelo y volver a entrenarlo o mejorarlo con datos que provienen de clientes locales o regionales. Entonces, por ejemplo, puedes tener una tienda, pero piensa en una gran corporación multinacional que vende muchos productos en miles de puntos de venta en todo el mundo. Saben mucho sobre los comportamientos generales de compra de su audiencia. Saben que cuando hace frío, la gente compra chaquetas, cuando hace calor, la gente compra sandalias. Eso es tal vez, uno esperaría, universal, excepto que no lo es porque ciertamente hay regiones donde tener los pies expuestos en unas sandalias se considera grosero y por lo tanto no vendemos tantas sandalias. Entonces, un modelo de aprendizaje automático que se entrenó en el conjunto de datos global tal vez no sería la mejor fuente de recomendaciones para una población en un área donde intervienen factores culturales, climáticos u otros, pero no tienen acceso a eso cuando están construyendo ese modelo central. Así que tomas ese modelo y lo envías al borde y luego lo vuelves a entrenar o lo mejoras con datos locales o regionales, lo que ofrece una experiencia más personalizada. La mayor parte del trabajo se realiza en la nube en ese motor de alta potencia y ahora en el borde puedes utilizar recursos más distintos, más discretos para volver a entrenar y seguir proporcionando, ya sabes, ese resultado de manera oportuna a los clientes. Pero podríamos ampliar esto aún más porque, nuevamente, el conocimiento, al igual que el cerebro humano, es un proceso jerárquico. El cerebro humano captará una imagen a través de tus ojos. Inmediatamente intentará clasificar la forma. Veo un contorno de la oscuridad si estoy en la jungla y la forma parece ser un tigre. Sin embargo, solo veo el perfil de ese tigre, la silueta. Lo que el cerebro humano hará es mirar ese borde o los bordes de ese perfil. Rotará ese perfil y verá si puede clasificar, si alguna vez ha visto esa forma, esa silueta antes, entonces imaginará, imaginarás el sonido como una entrada. ¿Hay lo que consideraría un rugido de un tigre? ¿Se está moviendo de una manera que tradicionalmente asocio con un tigre? ¿Se está acercando a mí? A medida que comienzo a hacer esas clasificaciones, lo interesante del cerebro humano a medida que pasa por este proceso es que hay muchos niveles donde puede captar diferentes datos sensoriales, pero cualquiera de ellos puede desencadenar la reacción química que dice correr o alcanzar esa arma contra el árbol o hacer un ruido fuerte o rendirse porque todo ha terminado. El conocimiento jerárquico, la clasificación jerárquica y las recomendaciones son cómo funcionan nuestros cuerpos. Si esto en la pantalla es una especie de modelo basado en el borde, de dos niveles, puedes imaginar que una solución iterativa puede agregar capas y capas de conocimiento sobre un modelo que puede generarse de forma centralizada y luego distribuirse y seguir refinándose a medida que se acerca al borde. A esto lo llamamos aprendizaje en conjunto. Cuando hablamos del flujo de entrenamiento de un modelo en la nube, es más eficiente decir usar un TensorFlow escrito en Python. Eso se vuelve más eficiente, pero cuanto más te alejas y menos recursos disponibles y más cerca del borde y tal vez más restrictivo o limitado es el entorno, comienzas a ver muchos lugares donde puedes usar JavaScript para refinar continuamente esos modelos y luego implementarlos, por lo que JavaScript se convierte en una excelente herramienta a medida que te alejas hacia el borde o en las instalaciones o incluso en la ejecución en los clientes, ¿verdad? Entonces puedo entrenar algo usando la cámara de mi teléfono, puedo volver a entrenar ese modelo y de repente puedo decirle que lo que estás mirando es en realidad un tigre. Así que puedo decirle que ese modelo existirá en mi teléfono y cada vez que vea una silueta así, se clasificará como un tigre y todo eso sucederá localmente. Sin embargo, puedes ver que esto implica muchas partes móviles, parece que es sincrónico y puedo simplemente copiar y pegar y, ya sabes, cuando estás creando una presentación de PowerPoint, definitivamente estás copiando y pegando, pero hay refinamientos que deben hacerse en cada nivel para asegurar que ese modelo sea relevante y que tenga un rendimiento suficiente en ese borde, porque los dispositivos que llaman, puede haber cientos de miles, millones o miles de millones de ellos y están llamando y quieren una recomendación, ¿cómo tienes un modelo lo suficientemente localizado y con suficiente rendimiento para ofrecer esos resultados en el borde? Entonces, cuando observamos los sistemas y métodos mediante los cuales implementaríamos una solución como esa, hay muchas consideraciones. El conjunto de herramientas de ML para JavaScript tiene algunas limitaciones en términos de lo que puede realizar y estamos tratando de diseñar este sistema iterativo para aprovechar al máximo el cliente más apropiado siempre que sea posible. En un servidor, debes analizar los recursos del host y la complejidad, como cuántos factores estoy considerando cuando ingreso datos que van a hacer una recomendación o una clasificación. Y luego el volumen de datos, ¿verdad? ¿Cuántos datos estoy utilizando para entrenar mi modelo y probarlo? ¿Y tengo la capacidad de almacenar eso en el borde en un teléfono o en un navegador o acceder fácilmente a él? ¿O estoy aprovechando terabytes de datos en la nube y enviándolos al borde? Y luego, cuando llego al borde, ¿qué es capaz de hacer mi teléfono? ¿Qué es capaz de hacer el navegador? ¿Cuál es ese entorno restringido? ¿Qué significan esas restricciones para mí? Y finalmente, todo se reduce a la experiencia del usuario. ¿Es lo suficientemente rápido? ¿Es lo suficientemente bueno? ¿Es suficientemente alta la precisión? Y a medida que construyo ese modelo en la nube con muchos recursos, ¿qué tan interoperable es?

5. Despliegue de Aprendizaje Automático y HarperDB

Short description:

Los modelos que generas utilizando el modelo de Python deben pasar por lo que se llama el convertidor TFJS. Considera lo que estás tratando de lograr y qué se puede lograr en el borde. La complejidad puede ser un desafío, especialmente al escalar. HarperDB es una plataforma integrada de aprendizaje automático que simplifica y reduce la complejidad. Combina una base de datos, aplicaciones y lógica de distribución. Al aprovechar HarperDB, puedes manejar el entrenamiento, la distribución y la replicación de modelos. Los clientes pueden acceder a los datos y modelos, y el aprendizaje iterativo permite el entrenamiento y despliegue de modelos localizados en dispositivos de cliente.

¿Qué sucede en el borde? Por ejemplo, TensorFlow. Los modelos que generas utilizando el modelo de Python deben pasar por lo que se llama el convertidor TFJS. Y hay algunas limitaciones en las estructuras de esos modelos. Entonces debes considerar, ¿qué estás tratando de lograr y qué puedes lograr en el borde? Pero luego está la otra naturaleza jerárquica de esto. Y vimos todas esas capas anteriormente. Y hablamos de la complejidad que puede arruinarlo. No sirve de nada si es muy eficiente, pero nadie en el mundo puede mantenerlo. Porque Dios no lo quiera, tengo éxito, necesito escalarlo. Si no puedes controlar todas esas partes móviles, y puedes tener 10, 15, cien partes móviles en una pila de aplicaciones de micro frontends y microservicios, APIs y todas esas cosas, lo cual está bien, pero si quieres estar en cien lugares para estar cerca de todos tus usuarios, bueno, ahora tengo 10,000 partes móviles de las que preocuparme. Obviamente, eso no es divertido, y reduce el costo total de propiedad, obviamente, de mantener un sistema como este.

Entonces consideras el almacenamiento de datos, el volumen en disco, la lógica empresarial, mi flujo de trabajo de entrenamiento, mis operaciones de memoria, mi distribución, la infraestructura y la potencia de procesamiento, y en última instancia, ¿cuál es la carga, cuál es el volumen de aplicaciones de cliente que van a llamar e intentar acceder a esta información? En este punto, solo mencionaré que HarperDB, la empresa para la que trabajo, es una plataforma integrada de aprendizaje automático. Hace muchas cosas, el aprendizaje automático es una de esas cosas, y hemos incorporado todas las piezas que pensamos que serían necesarias para simplificar y reducir esa complejidad para que pudiéramos estar en 100 lugares, y aún así solo tuvieras que preocuparte por 100 cosas. Así que construimos una base de datos con aplicaciones aquí, y lógica de distribución. Entonces eso es la replicación entre nodos de HarperDB. Entonces, si miras la base de datos, eso es el almacenamiento de datos, ¿verdad? Y la aplicación es donde se encuentra tu flujo de trabajo de entrenamiento y tu distribución o replicación de estos modelos se puede manejar simplemente aprovechando la solución existente de HarperDB. Obviamente, no somos la única plataforma de aprendizaje automático, pero usaré esta como ejemplo. Miramos todas las fuentes de datos y las incorporamos en una plataforma como HarperDB. Y luego tienes módulos que puedes usar para entrenar y construir esos modelos. Y luego tienes muchos clientes que pueden acceder a esto directamente. Y en última instancia, muchos datos ingresando, mucho procesamiento para generar modelos en tiempo real. Y finalmente, los clientes que pueden llamar y acceder a esos datos. Entonces, un sistema de aprendizaje automático iterativo en HarperDB combina todas las piezas que teníamos en el gráfico anterior. Y simplemente puedes volver a entrenar modelos dentro de la capa de aplicación y aceptar clientes dentro de esa misma capa de aplicación que te están haciendo preguntas. Obviamente, esos mismos modelos también se pueden implementar en los dispositivos de cliente reales para que también puedan ejecutarse en el borde. Pero lo interesante de una plataforma de aprendizaje automático iterativo es que puedo hacer una pregunta a un nodo que está muy cerca de mí. Pero tal vez ese modelo esté entrenado localmente. Se ha reducido. Está optimizado para una plataforma de borde o de baja potencia. Tal vez esté ejecutándose en el borde en una Raspberry Pi. Si no puedo responder la pregunta, puedo enviar esa pregunta

6. Iterative AI and Model Training

Short description:

Y puedo marcar preguntas como desconocidas y sin resolver, y luego hacer preguntas más poderosas con un conjunto de datos global. Si la pregunta puede ser respondida, el conocimiento volverá y se puede utilizar como nuevos datos de entrenamiento. Al entrenar sobre preguntas previamente sin respuesta, puedes seguir mejorando el modelo.

más arriba en la cadena. Y puedo marcar esa pregunta como desconocida, sin resolver. Y puedo hacer la siguiente cosa más poderosa con tal vez un conjunto de datos data global que no esté entrenado localmente. Y si puede responderla, genial. Ese conocimiento volverá a través de ese punto de contacto original. Puedo usar esa pregunta ahora respondida pero previamente sin respuesta como un nuevo conjunto de datos de entrenamiento para decir, si ves algo que parece irresoluble, pero sigue un paradigma como este, entonces tal vez ese conocimiento valga la pena. Y tal vez esa podría ser la respuesta o una respuesta análoga a eso. Así que puedes entrenar sobre eso. Y puedes seguir subiendo en la cadena. De hecho, más allá de la nube, por ejemplo, hay reconocimiento fotofacial, hay clasificación humana donde simplemente digo, escucha, todos los modelos que tenemos no pudieron clasificar quién es esta persona. ¿Podrías por favor mirar esto y anotarlo? Y tan pronto como tengamos esos data, podemos volver a entrenar en el nivel superior y luego volver a entrenar en todo el proceso hasta que tengamos un modelo completamente eficiente en el borde que pueda responder preguntas que antes solo se podían responder en niveles superiores. Entonces, cuando aprovechas la computación en el borde, JavaScript es una herramienta increíble porque está disponible y se ejecuta en todas partes. Pero el secreto de la solución es entender que el verdadero poder proviene de modelos grandes que se han hecho para funcionar de manera más efectiva, y usar una biblioteca de machine learning basada en JavaScript para crear modelos generalmente no funciona en conjuntos de datos masivos. Así que siempre elige la herramienta adecuada para la plataforma adecuada en el lugar adecuado. Y en última instancia, esa es la clave para hacer que el machine learning y el AI iterativo sean exitosos en cada plataforma. Muchas gracias. Lo aprecio.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Don't Solve Problems, Eliminate Them
React Advanced Conference 2021React Advanced Conference 2021
39 min
Don't Solve Problems, Eliminate Them
Top Content
Humans are natural problem solvers and we're good enough at it that we've survived over the centuries and become the dominant species of the planet. Because we're so good at it, we sometimes become problem seekers too–looking for problems we can solve. Those who most successfully accomplish their goals are the problem eliminators. Let's talk about the distinction between solving and eliminating problems with examples from inside and outside the coding world.
Using useEffect Effectively
React Advanced Conference 2022React Advanced Conference 2022
30 min
Using useEffect Effectively
Top Content
Can useEffect affect your codebase negatively? From fetching data to fighting with imperative APIs, side effects are one of the biggest sources of frustration in web app development. And let’s be honest, putting everything in useEffect hooks doesn’t help much. In this talk, we'll demystify the useEffect hook and get a better understanding of when (and when not) to use it, as well as discover how declarative effects can make effect management more maintainable in even the most complex React apps.
Design Systems: Walking the Line Between Flexibility and Consistency
React Advanced Conference 2021React Advanced Conference 2021
47 min
Design Systems: Walking the Line Between Flexibility and Consistency
Top Content
Design systems aim to bring consistency to a brand's design and make the UI development productive. Component libraries with well-thought API can make this a breeze. But, sometimes an API choice can accidentally overstep and slow the team down! There's a balance there... somewhere. Let's explore some of the problems and possible creative solutions.
React Concurrency, Explained
React Summit 2023React Summit 2023
23 min
React Concurrency, Explained
Top Content
React 18! Concurrent features! You might’ve already tried the new APIs like useTransition, or you might’ve just heard of them. But do you know how React 18 achieves the performance wins it brings with itself? In this talk, let’s peek under the hood of React 18’s performance features: - How React 18 lowers the time your page stays frozen (aka TBT) - What exactly happens in the main thread when you run useTransition() - What’s the catch with the improvements (there’s no free cake!), and why Vue.js and Preact straight refused to ship anything similar
TypeScript and React: Secrets of a Happy Marriage
React Advanced Conference 2022React Advanced Conference 2022
21 min
TypeScript and React: Secrets of a Happy Marriage
Top Content
TypeScript and React are inseparable. What's the secret to their successful union? Quite a lot of surprisingly strange code. Learn why useRef always feels weird, how to wrangle generics in custom hooks, and how union types can transform your components.
Debugging JS
React Summit 2023React Summit 2023
24 min
Debugging JS
Top Content
As developers, we spend much of our time debugging apps - often code we didn't even write. Sadly, few developers have ever been taught how to approach debugging - it's something most of us learn through painful experience.  The good news is you _can_ learn how to debug effectively, and there's several key techniques and tools you can use for debugging JS and React apps.

Workshops on related topic

React Performance Debugging Masterclass
React Summit 2023React Summit 2023
170 min
React Performance Debugging Masterclass
Top Content
Featured WorkshopFree
Ivan Akulov
Ivan Akulov
Ivan’s first attempts at performance debugging were chaotic. He would see a slow interaction, try a random optimization, see that it didn't help, and keep trying other optimizations until he found the right one (or gave up).
Back then, Ivan didn’t know how to use performance devtools well. He would do a recording in Chrome DevTools or React Profiler, poke around it, try clicking random things, and then close it in frustration a few minutes later. Now, Ivan knows exactly where and what to look for. And in this workshop, Ivan will teach you that too.
Here’s how this is going to work. We’ll take a slow app → debug it (using tools like Chrome DevTools, React Profiler, and why-did-you-render) → pinpoint the bottleneck → and then repeat, several times more. We won’t talk about the solutions (in 90% of the cases, it’s just the ol’ regular useMemo() or memo()). But we’ll talk about everything that comes before – and learn how to analyze any React performance problem, step by step.
(Note: This workshop is best suited for engineers who are already familiar with how useMemo() and memo() work – but want to get better at using the performance tools around React. Also, we’ll be covering interaction performance, not load speed, so you won’t hear a word about Lighthouse 🤐)
React Hooks Tips Only the Pros Know
React Summit Remote Edition 2021React Summit Remote Edition 2021
177 min
React Hooks Tips Only the Pros Know
Top Content
Featured Workshop
Maurice de Beijer
Maurice de Beijer
The addition of the hooks API to React was quite a major change. Before hooks most components had to be class based. Now, with hooks, these are often much simpler functional components. Hooks can be really simple to use. Almost deceptively simple. Because there are still plenty of ways you can mess up with hooks. And it often turns out there are many ways where you can improve your components a better understanding of how each React hook can be used.You will learn all about the pros and cons of the various hooks. You will learn when to use useState() versus useReducer(). We will look at using useContext() efficiently. You will see when to use useLayoutEffect() and when useEffect() is better.
React, TypeScript, and TDD
React Advanced Conference 2021React Advanced Conference 2021
174 min
React, TypeScript, and TDD
Top Content
Featured WorkshopFree
Paul Everitt
Paul Everitt
ReactJS is wildly popular and thus wildly supported. TypeScript is increasingly popular, and thus increasingly supported.

The two together? Not as much. Given that they both change quickly, it's hard to find accurate learning materials.

React+TypeScript, with JetBrains IDEs? That three-part combination is the topic of this series. We'll show a little about a lot. Meaning, the key steps to getting productive, in the IDE, for React projects using TypeScript. Along the way we'll show test-driven development and emphasize tips-and-tricks in the IDE.
Designing Effective Tests With React Testing Library
React Summit 2023React Summit 2023
151 min
Designing Effective Tests With React Testing Library
Top Content
Featured Workshop
Josh Justice
Josh Justice
React Testing Library is a great framework for React component tests because there are a lot of questions it answers for you, so you don’t need to worry about those questions. But that doesn’t mean testing is easy. There are still a lot of questions you have to figure out for yourself: How many component tests should you write vs end-to-end tests or lower-level unit tests? How can you test a certain line of code that is tricky to test? And what in the world are you supposed to do about that persistent act() warning?
In this three-hour workshop we’ll introduce React Testing Library along with a mental model for how to think about designing your component tests. This mental model will help you see how to test each bit of logic, whether or not to mock dependencies, and will help improve the design of your components. You’ll walk away with the tools, techniques, and principles you need to implement low-cost, high-value component tests.
Table of contents- The different kinds of React application tests, and where component tests fit in- A mental model for thinking about the inputs and outputs of the components you test- Options for selecting DOM elements to verify and interact with them- The value of mocks and why they shouldn’t be avoided- The challenges with asynchrony in RTL tests and how to handle them
Prerequisites- Familiarity with building applications with React- Basic experience writing automated tests with Jest or another unit testing framework- You do not need any experience with React Testing Library- Machine setup: Node LTS, Yarn
AI on Demand: Serverless AI
DevOps.js Conf 2024DevOps.js Conf 2024
163 min
AI on Demand: Serverless AI
Top Content
Featured WorkshopFree
Nathan Disidore
Nathan Disidore
In this workshop, we discuss the merits of serverless architecture and how it can be applied to the AI space. We'll explore options around building serverless RAG applications for a more lambda-esque approach to AI. Next, we'll get hands on and build a sample CRUD app that allows you to store information and query it using an LLM with Workers AI, Vectorize, D1, and Cloudflare Workers.
Next.js 13: Data Fetching Strategies
React Day Berlin 2022React Day Berlin 2022
53 min
Next.js 13: Data Fetching Strategies
Top Content
WorkshopFree
Alice De Mauro
Alice De Mauro
- Introduction- Prerequisites for the workshop- Fetching strategies: fundamentals- Fetching strategies – hands-on: fetch API, cache (static VS dynamic), revalidate, suspense (parallel data fetching)- Test your build and serve it on Vercel- Future: Server components VS Client components- Workshop easter egg (unrelated to the topic, calling out accessibility)- Wrapping up