Observabilidad con diagnostics_channel y AsyncLocalStorage

Rate this content
Bookmark

Los productos de trazado modernos funcionan combinando diagnostics_channel con AsyncLocalStorage. Construyamos juntos un trazador para ver cómo funciona y qué puedes hacer para hacer que tus aplicaciones sean más observables.

21 min
17 Apr, 2023

Video Summary and Transcription

La observabilidad con Diagnostics Channel y async local storage permite el seguimiento de eventos de alto rendimiento y la propagación de valores a través de llamadas, devoluciones de llamada y continuaciones de promesas. El trazado involucra cinco eventos y canales separados para cada evento, capturando errores y valores de retorno. El objeto span en async local storage almacena datos sobre la ejecución actual y se informa al trazador cuando se activa el final.

Available in English

1. Introducción a Diagnostics Channel

Short description:

Hablemos de observabilidad con Diagnostics Channel y almacenamiento local asíncrono. Diagnostics Channel es un canal de eventos global de alto rendimiento diseñado para ser de bajo costo cuando no se está escuchando activamente. Los canales se crean en el nivel superior de su archivo JavaScript y se pueden suscribir desde cualquier lugar de la aplicación. Cada canal de diagnóstico debe tener una estructura de objeto única y se pueden suscribir a canales de módulos que nunca se cargan. Se proporciona un ejemplo para demostrar cómo usar el canal y publicar datos en él.

Entonces hablemos de observabilidad con Diagnostics Channel y almacenamiento local asíncrono. Hola a todos. Soy Steven. He estado involucrado en el núcleo de Node.js en un grupo de trabajo de diagnóstico durante muchos años. Trabajo en Datadog construyendo herramientas de diagnóstico y mis pronombres son él-él.

Primero que nada, ¿qué es Diagnostics Channel? Diagnostics Channel es un canal de eventos global de alto rendimiento para transmitir de manera pasiva datos sobre la ejecución actual. Es muy parecido a un emisor de eventos, pero está diseñado específicamente para ser lo más económico posible cuando no se está escuchando activamente. La idea es que los usuarios se sientan cómodos transmitiendo muchas cosas sin preocuparse por el costo, si la mayoría de las veces no se va a observar.

Los canales se crean en el nivel superior de su archivo JavaScript llamando a la función del canal y proporcionando un nombre para su canal. Comparten un espacio de nombres global para permitir adquirir el mismo canal en cualquier lugar de la aplicación sin necesidad de compartir explícitamente el objeto del canal, y generalmente se debe incluir el nombre de su módulo en el nombre para evitar colisiones con canales de otras cosas. Una vez que tenga el objeto del canal, puede comenzar a publicar en él. Esto es similar a la función emit en un emisor de eventos, pero al crear objetos de canal con anticipación permite varias optimizaciones, como evitar buscar el identificador por nombre cada vez que ocurre un evento, y hacer una llamada de publicación lo más económica posible cuando no hay oyentes.

Cada canal de diagnóstico debe seguir una convención de tener una estructura de objeto única por canal, y si tiene conjuntos de datos con formas diferentes para comunicarse, es probable que esos deberían ser canales separados. Al menos documente los nombres y formas de sus canales. En cualquier lugar de la aplicación, puede llamar al canal nuevamente con el mismo nombre para adquirir el mismo canal y luego suscribirse a él. El orden de las llamadas al canal no importa. El lugar que lo llame primero creará el canal y cada llamada posterior lo recuperará. Incluso puede suscribirse a canales de módulos que nunca se cargan y, por lo tanto, nunca tienen eventos publicados. Esto permite el desacoplamiento completo del código, lo que permite que productos de trazado observen de manera pasiva el comportamiento de su módulo sin necesidad de ninguna conexión explícita entre módulos.

Veamos un ejemplo. Comenzamos definiendo nuestro canal con nombre en la parte superior del archivo. Luego escribimos nuestra función, que queremos transmitir algunos datos sobre. Normalmente, cuando se llama, como cuando completa su setImmediate interno y llama a su devolución de llamada, transmitirá los datos al canal con la función de publicación. Esto podría ser útil para muchas cosas. Por ejemplo, es posible que desee capturar métricas de cuántas veces hizo una cosa lo que se suponía que debía hacer. Incluso se podría capturar con el tiempo de finalización para trazar la actividad a lo largo del tiempo. Ninguno de estos necesita ser específicamente compatible con DoA Thing, ya que el suscriptor puede decidir por sí mismo qué hacer con el mensaje o si desea capturar alguna información de tiempo. La publicación no tiene ningún efecto a menos que haya suscriptores. No tiene ningún costo a menos que haya suscriptores. A veces, la construcción del mensaje en sí puede ser costosa si la cosa se ejecuta muy frecuentemente, por lo que el hecho de que haya suscriptores se puede usar para omitir completamente la construcción del mensaje en situaciones críticas de rendimiento.

2. Understanding Async Local Storage

Short description:

El almacenamiento local asíncrono es como el ámbito léxico pero sigue la ruta de llamada en lugar del ámbito de definición. Nos permite propagar valores a través de llamadas, devoluciones de llamada y continuaciones de promesas sin necesidad de pasarlos como parámetros. Para usar el almacenamiento local asíncrono, llamamos al método run en la tienda para pasar el valor y luego lo recuperamos más tarde con el método get store.

Entonces, ¿qué es el almacenamiento local asíncrono? Es como el ámbito léxico pero sigue la ruta de llamada en lugar del ámbito de definición. El ámbito léxico nos permite recuperar data desde el ámbito fuera de la función en sí. Estamos haciendo eso aquí cuando a llama a b, sin embargo, definimos thing en un ámbito interno y no hay forma de alcanzarlo en b. Lo obvio que hacer en este caso particular es pasarlo como parámetro a b. Nada es accesible dentro de b. Pero, ¿qué pasa en situaciones más complicadas, como cuando no controlamos los pasos intermedios entre donde hemos definido la variable y donde queremos acceder a ella? Obtenemos b desde algún otro módulo y toma un emisor de eventos para desencadenar un evento en él. No hay forma de pasar thing a través de su interfaz, ¿puedes descubrir cómo obtener thing en ese controlador de eventos de algo? Tal vez puedas guardarlo en una variable global o adjuntarlo al objeto emisor. ¿Qué pasa con la concurrencia? En ambos casos, podría ser reemplazado por el valor incorrecto si ocurre otra llamada antes de que se emita el evento. Con el almacenamiento local asíncrono, el valor se propaga automáticamente a través de las llamadas sin necesidad de agregarlo a los argumentos y fluye en las devoluciones de llamada y continuaciones de promesas, de ahí el `asíncrono` en su nombre.

3. Understanding Async Local Storage and Tracing

Short description:

Esto significa que el almacenamiento local asíncrono permite que los valores se propaguen a través de llamadas, devoluciones de llamada y continuaciones de promesas. Un módulo para servir archivos estáticos puede usar el almacenamiento local asíncrono para almacenar un ID y correlacionarlo con mensajes de registro. El rastreo de una acción única implica cinco eventos, incluyendo eventos de inicio y finalización, eventos de inicio y finalización asíncronos para devoluciones de llamada y un evento de error. Cada evento se asigna a un canal separado y comparten un objeto de mensaje. El rastreo de código asíncrono o sincrónico proporciona un alcance para atribuir actividad a un mensaje. Se capturan errores y valores de retorno, y el rastreo de devoluciones de llamada incluye eventos de error y ejecución con alcance mediante eventos de inicio y finalización asíncronos.

Esto significa que no importa cuánta complejidad haya entre los dos puntos, siempre y cuando se pueda trazar una ruta de llamada, devolución de llamada o continuación entre los dos, el valor debería estar disponible. Para comenzar a pasar el valor, llame al método run en la tienda y llamará a la función dada con ese valor como estado actual de la tienda hasta que la función finalice. Cualquier actividad asíncrona desencadenada dentro de ese alcance también contendrá ese valor. Luego, para recuperar el valor de la tienda, puede llamar al método get store más tarde.

Aquí tenemos un módulo para servir archivos estáticos, por lo que toma la carpeta para servir de manera análoga a una función. Observa que devuelve una función controladora de solicitudes para ser llamada más tarde. Está diseñado para ser llamado en el nivel superior fuera de la solicitud para producir el controlador, por lo que no hay nada que pasar a través de una identidad de solicitud o de ninguna manera cambiarlo para diferenciar las solicitudes concurrentes. Sería muy difícil identificar en el registro qué mensaje de carga se corresponde con qué mensaje de descarga si la ruta es la misma. Con el almacenamiento local asíncrono, podemos almacenar un ID que podemos recuperar en la función de registro que proporcionamos, aunque la función de registro esté definida fuera de la solicitud. Ahora podemos marcar el ID de la solicitud en cada mensaje para poder correlacionar la solicitud exacta con cada mensaje de registro.

Ahora pongamos las dos cosas juntas. Esta próxima parte es un poco densa, pero es un enfoque manual de nivel inferior que se está simplificando y lo explicaré en un momento. El rastreo de una acción única se puede expresar con cinco eventos. Cuando comienza y termina la llamada, hay eventos de inicio y finalización asíncronos equivalentes alrededor de las devoluciones de llamada y un evento para errores. Los prefijos de rastreo y los sufijos de los nombres de eventos que se pueden ver en los nombres son importantes. La parte central puede ser cualquier cosa que desee, como se mencionó anteriormente, es una buena idea incluir el nombre de su módulo y el nombre del canal, por lo que `módulo.función` es un patrón de nomenclatura razonable, pero puede seguir cualquier patrón de nomenclatura que desee, siempre y cuando sea consistente y esté documentado claramente. Cada uno de estos eventos se asigna a un canal separado, lo que permite escuchar selectivamente solo los eventos relevantes para el caso de uso particular. Y todos los eventos dentro de una sola acción comparten un solo objeto de mensaje para permitir compartir datos entre los controladores de eventos, por lo que el evento de finalización recibirá el mismo objeto de mensaje que el evento de inicio si ambos provienen de la misma llamada rastreada. Si se produce un error, se agregará una propiedad de error al mensaje y se publicará en el canal de errores. Y también se agrega una propiedad de resultado a la finalización sincrónica o al inicio asíncrono. El rastreo de código asíncrono o sincrónico proporciona un alcance en el que cualquier actividad sincrónica o asíncrona se atribuirá al mensaje dado. En el caso del rastreo sincrónico, no es necesario asociar la actividad asíncrona, pero proporcionará un objeto de mensaje compartido, lo que facilita la correlación de los eventos de una sola acción rastreable. Si la función de rastreo genera un error, se agregará al objeto de mensaje y se publicará un evento de error. Y el valor de retorno también se almacena en el objeto de mensaje y se puede ver en el evento de finalización.

4. Understanding Tracing and Span Lifecycle

Short description:

Se activa inmediatamente. Debido a la naturaleza encadenable infinita de las promesas, no hay un punto final distinto para la promesa, por lo que el final asíncrono se activa de inmediato. Esto tiene sentido de todos modos, ya que las promesas están destinadas a modelar un gráfico asíncrono, resolviendo y fusionando nuevamente, como se expresa con async await. Entonces, al almacenar trazas, ahora que estamos publicando trazas en canales de rastreo, necesitamos transformar esos datos en algo que represente de manera significativa esa colección de eventos del ciclo de vida. El objeto span se almacena en el almacenamiento local asíncrono utilizando enter with para que esté disponible en la actividad asíncrona descendente como el enlace principal mostrado en el evento de inicio y se restaure en el evento de finalización. Los rastreadores generalmente tienen un marcador de finalización para cuando el span finaliza, pero varía cuándo sucede eso. Algunos rastreadores considerarán, una vez que se haya completado el procesamiento de la tarea asíncrona en sí, entonces lo marcarán como finalizado, pero algunos considerarán que son propietarios de su devolución de llamada y, por lo tanto, cualquier cosa que ocurra dentro de la devolución de llamada y que descienda desde ella también es propiedad, por lo que podría activar el evento de finalización en el final asíncrono o el inicio asíncrono, o incluso podría pasarlo a través de todo un gráfico y no completar el span hasta que se completen todos los árboles de spans.

Aunque es semánticamente idéntico al inicio asíncrono en este caso. Se activa inmediatamente. Debido a la naturaleza encadenable infinita de las promesas, no hay un punto final distinto para la promesa, por lo que el final asíncrono se activa de inmediato. Esto tiene sentido de todos modos, ya que las promesas están destinadas a modelar un gráfico asíncrono, resolviendo y fusionando nuevamente, como se expresa con async await. No habría nada que descienda internamente como lo hacen las devoluciones de llamada, por lo que el gráfico se habría fusionado de nuevo en el código en espera. Entonces, al almacenar trazas, ahora que estamos publicando trazas en canales de rastreo, necesitamos transformar esos datos en algo que represente de manera significativa esa colección de eventos del ciclo de vida. Esto se llama típicamente un span, que contiene los metadatos que marcan el inicio y el final lógicos desde la perspectiva del rastreador, y captura cualquier metadato que necesite para identificar lo que la aplicación estaba haciendo que produjo esto. Por ejemplo, un span para una solicitud HTTP probablemente contendría el método y la URL. Aquí simplemente estamos pasando el mensaje tal cual. Pero en realidad, un rastreador haría algún procesamiento adicional. El objeto span se almacena en el almacenamiento local asíncrono utilizando enter with para que esté disponible en la actividad asíncrona descendente como el enlace principal mostrado en el evento de inicio y se restaure en el evento de finalización. El uso de este método enter with no es realmente recomendado, pero así es como tenemos que hacer las cosas en este momento. Vienen cosas mejores, de las que hablaré en un momento. Pero entre los eventos de inicio y finalización asíncronos, marcando el ámbito de la devolución de llamada, el span almacenado en el mensaje se puede restaurar como el span actual. Esto no sería realmente necesario ya que el almacenamiento local asíncrono está destinado a manejar esto, pero puede ser útil. Hay casos en los que se puede perder el contexto, por lo que esto puede permitir restaurar manualmente el contexto si es necesario. Los rastreadores generalmente tienen un marcador de finalización para cuando el span finaliza, pero varía cuándo sucede eso. Algunos rastreadores considerarán, una vez que se haya completado el procesamiento de la tarea asíncrona en sí, entonces lo marcarán como finalizado, pero algunos considerarán que son propietarios de su devolución de llamada y, por lo tanto, cualquier cosa que ocurra dentro de la devolución de llamada y que descienda desde ella también es propiedad, por lo que podría activar el evento de finalización en el final asíncrono o el inicio asíncrono, o incluso podría pasarlo a través de todo un gráfico y no completar el span hasta que se completen todos los árboles de spans.

5. Understanding Spans and Tracers

Short description:

Un span es un contenedor para almacenar los datos sobre la ejecución actual junto con IDs para formar un gráfico. Mantener un objeto span padre directamente puede causar fugas de memoria y complicar la transmisión de eventos, por lo que generalmente se prefiere usar IDs para la correlación. Cuando se activa el final, el span se informa al rastreador.

El span se mantiene hasta que se completen todos los árboles de spans. Un span es un contenedor para almacenar los datos sobre la ejecución actual junto con IDs para formar un gráfico. Normalmente, los spans tienen su propio ID único y luego un ID único separado para su gráfico para correlacionarlos más tarde. Mantener un objeto span padre directamente puede causar fugas de memoria y complicar la transmisión de eventos, por lo que generalmente se prefiere usar IDs para la correlación. Cuando se activa el final, el span se informa al rastreador. Como dije antes, dependiendo de la implementación del rastreador, esto puede agregarse a un objeto de traza localmente y enviarse cuando se complete la solicitud, o puede transmitir los spans individuales de inmediato. Depende del implementador. Sin embargo, se está volviendo más fácil. Por lo tanto, administrar todos esos canales y garantizar un comportamiento correcto es complicado. Por lo tanto, hay una API de nivel superior que se encarga de eso internamente. Construye y expone los canales con los nombres correctos para ti, pero también proporciona varias funciones para envolver la funcionalidad de trazado en una interfaz mucho más amigable. Echemos un vistazo. Primero, tenemos TraceSync. Maneja automáticamente los eventos de inicio y error, y es bastante fácil de usar. Le das una función y la invocará de inmediato con los eventos de inicio y finalización, antes y después. También puedes pasarle un valor para 'this' y cualquier argumento que desees pasar, lo cual es útil para evitar cierres innecesarios, y también capturará y pasará el valor de retorno, lo que te permite reemplazar directamente una llamada de función existente por una envuelta en eventos de trazado. A continuación, tenemos TraceCallback, que, además de manejar los eventos de inicio, finalización y error, también activa automáticamente los eventos de inicio y finalización asíncronos alrededor de la devolución de llamada y captura los errores y resultados de la devolución de llamada, por lo que se debe proporcionar la posición de la devolución de llamada y puede ser indexada positivamente desde cero o negativamente desde el final de la lista de argumentos, pero el valor predeterminado es menos uno para seguir el patrón típico de devolución de llamada en Node.js. Al igual que con TraceSync, 'this' y la lista de argumentos se pasan como valores de retorno. Las API basadas en devoluciones de llamada generalmente no tienen un valor de retorno real. Y un canal de trazado para promesas, por último, tenemos TracePromise, al igual que TraceCallback, todos los eventos se manejan automáticamente. Las entradas y salidas se pasan de la misma manera que otras funciones de trazado. Y al igual que en el ejemplo manual mostrado anteriormente, el final asíncrono se publica inmediatamente después del inicio asíncrono, ya que no hay un final claro para la continuación de la promesa. Y luego, para vincular el canal de diagnóstico o estos nuevos canales de trazado al almacenamiento local asíncrono, también hay bindStore y runStores que vendrán pronto. El método runStores se utiliza para sugerir que las tiendas pueden establecer su estado a partir de los datos proporcionados durante la función proporcionada. Se utiliza en un canal con nombre de la misma manera que se publicaría y también publicaremos los datos de entrada en ese canal después de establecer el estado en cualquier tienda vinculada. Y el método bindStore se puede utilizar para aceptar esos datos sugeridos, transformándolos opcionalmente de alguna manera antes de establecerlos en el estado de la tienda dada durante la duración de la función proporcionada a runStores. Como en este ejemplo, la tienda de URL contendrá la URL que se pasa en ese objeto durante runStores. Por lo tanto, la combinación de los dos permite coordinar la decisión de almacenar datos de contexto en una tienda en particular o en cualquier número de tiendas a través del canal de diagnóstico en lugar de tener que pasar tiendas a través de editores de eventos. Otra forma de abordar esta API sería hacer que tu módulo tenga una función a la que debas llamar para pasar una tienda y eso solo requiere un esfuerzo adicional y es complicado si deseas tener multiinquilinato y todas esas cosas. Esto te lo proporciona de forma gratuita. Y todas las funciones de trazado en un canal de trazado también envuelven la ejecución de sus funciones dadas con runStores, lo que permite almacenar automáticamente un objeto span para cada traza. Esto es útil porque si bien los canales de trazado en objetos de contexto están disponibles en el código directo, es posible que no estén disponibles en el código al que la función trazada llama. Por lo tanto, puede ser útil utilizar el almacenamiento local asíncrono para propagar los objetos de contexto o un span producido a partir de él a cualquier ejecución anidada. Sí, así es como se ve el futuro del trazado de aplicaciones Node.js. Gracias por escuchar y por favor, habla conmigo si tienes preguntas sobre cómo agregar canales de trazado aquí en los módulos.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

6 min
Charlie Gerard's Career Advice: Be intentional about how you spend your time and effort
Featured Article
When it comes to career, Charlie has one trick: to focus. But that doesn’t mean that you shouldn’t try different things — currently a senior front-end developer at Netlify, she is also a sought-after speaker, mentor, and a machine learning trailblazer of the JavaScript universe. "Experiment with things, but build expertise in a specific area," she advises.

What led you to software engineering?My background is in digital marketing, so I started my career as a project manager in advertising agencies. After a couple of years of doing that, I realized that I wasn't learning and growing as much as I wanted to. I was interested in learning more about building websites, so I quit my job and signed up for an intensive coding boot camp called General Assembly. I absolutely loved it and started my career in tech from there.
 What is the most impactful thing you ever did to boost your career?I think it might be public speaking. Going on stage to share knowledge about things I learned while building my side projects gave me the opportunity to meet a lot of people in the industry, learn a ton from watching other people's talks and, for lack of better words, build a personal brand.
 What would be your three tips for engineers to level up their career?Practice your communication skills. I can't stress enough how important it is to be able to explain things in a way anyone can understand, but also communicate in a way that's inclusive and creates an environment where team members feel safe and welcome to contribute ideas, ask questions, and give feedback. In addition, build some expertise in a specific area. I'm a huge fan of learning and experimenting with lots of technologies but as you grow in your career, there comes a time where you need to pick an area to focus on to build more profound knowledge. This could be in a specific language like JavaScript or Python or in a practice like accessibility or web performance. It doesn't mean you shouldn't keep in touch with anything else that's going on in the industry, but it means that you focus on an area you want to have more expertise in. If you could be the "go-to" person for something, what would you want it to be? 
 And lastly, be intentional about how you spend your time and effort. Saying yes to everything isn't always helpful if it doesn't serve your goals. No matter the job, there are always projects and tasks that will help you reach your goals and some that won't. If you can, try to focus on the tasks that will grow the skills you want to grow or help you get the next job you'd like to have.
 What are you working on right now?Recently I've taken a pretty big break from side projects, but the next one I'd like to work on is a prototype of a tool that would allow hands-free coding using gaze detection. 
 Do you have some rituals that keep you focused and goal-oriented?Usually, when I come up with a side project idea I'm really excited about, that excitement is enough to keep me motivated. That's why I tend to avoid spending time on things I'm not genuinely interested in. Otherwise, breaking down projects into smaller chunks allows me to fit them better in my schedule. I make sure to take enough breaks, so I maintain a certain level of energy and motivation to finish what I have in mind.
 You wrote a book called Practical Machine Learning in JavaScript. What got you so excited about the connection between JavaScript and ML?The release of TensorFlow.js opened up the world of ML to frontend devs, and this is what really got me excited. I had machine learning on my list of things I wanted to learn for a few years, but I didn't start looking into it before because I knew I'd have to learn another language as well, like Python, for example. As soon as I realized it was now available in JS, that removed a big barrier and made it a lot more approachable. Considering that you can use JavaScript to build lots of different applications, including augmented reality, virtual reality, and IoT, and combine them with machine learning as well as some fun web APIs felt super exciting to me.


Where do you see the fields going together in the future, near or far? I'd love to see more AI-powered web applications in the future, especially as machine learning models get smaller and more performant. However, it seems like the adoption of ML in JS is still rather low. Considering the amount of content we post online, there could be great opportunities to build tools that assist you in writing blog posts or that can automatically edit podcasts and videos. There are lots of tasks we do that feel cumbersome that could be made a bit easier with the help of machine learning.
 You are a frequent conference speaker. You have your own blog and even a newsletter. What made you start with content creation?I realized that I love learning new things because I love teaching. I think that if I kept what I know to myself, it would be pretty boring. If I'm excited about something, I want to share the knowledge I gained, and I'd like other people to feel the same excitement I feel. That's definitely what motivated me to start creating content.
 How has content affected your career?I don't track any metrics on my blog or likes and follows on Twitter, so I don't know what created different opportunities. Creating content to share something you built improves the chances of people stumbling upon it and learning more about you and what you like to do, but this is not something that's guaranteed. I think over time, I accumulated enough projects, blog posts, and conference talks that some conferences now invite me, so I don't always apply anymore. I sometimes get invited on podcasts and asked if I want to create video content and things like that. Having a backlog of content helps people better understand who you are and quickly decide if you're the right person for an opportunity.What pieces of your work are you most proud of?It is probably that I've managed to develop a mindset where I set myself hard challenges on my side project, and I'm not scared to fail and push the boundaries of what I think is possible. I don't prefer a particular project, it's more around the creative thinking I've developed over the years that I believe has become a big strength of mine.***Follow Charlie on Twitter
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: ML in the Browser and Beyond
Discover how to embrace machine learning in JavaScript using TensorFlow.js in the browser and beyond in this speedy talk. Get inspired through a whole bunch of creative prototypes that push the boundaries of what is possible in the modern web browser (things have come a long way) and then take your own first steps with machine learning in minutes. By the end of the talk everyone will understand how to recognize an object of their choice which could then be used in any creative way you can imagine. Familiarity with JavaScript is assumed, but no background in machine learning is required. Come take your first steps with TensorFlow.js!
JSNation Live 2021JSNation Live 2021
19 min
Multithreaded Logging with Pino
Top Content
Almost every developer thinks that adding one more log line would not decrease the performance of their server... until logging becomes the biggest bottleneck for their systems! We created one of the fastest JSON loggers for Node.js: pino. One of our key decisions was to remove all "transport" to another process (or infrastructure): it reduced both CPU and memory consumption, removing any bottleneck from logging. However, this created friction and lowered the developer experience of using Pino and in-process transports is the most asked feature our user.In the upcoming version 7, we will solve this problem and increase throughput at the same time: we are introducing pino.transport() to start a worker thread that you can use to transfer your logs safely to other destinations, without sacrificing neither performance nor the developer experience.
React Advanced Conference 2021React Advanced Conference 2021
21 min
Using MediaPipe to Create Cross Platform Machine Learning Applications with React
Top Content
This talk gives an introduction about MediaPipe which is an open source Machine Learning Solutions that allows running machine learning models on low-powered devices and helps integrate the models with mobile applications. It gives these creative professionals a lot of dynamic tools and utilizes Machine learning in a really easy way to create powerful and intuitive applications without having much / no knowledge of machine learning beforehand. So we can see how MediaPipe can be integrated with React. Giving easy access to include machine learning use cases to build web applications with React.
JSNation Live 2021JSNation Live 2021
39 min
TensorFlow.JS 101: ML in the Browser and Beyond
Discover how to embrace machine learning in JavaScript using TensorFlow.js in the browser and beyond in this speedy talk. Get inspired through a whole bunch of creative prototypes that push the boundaries of what is possible in the modern web browser (things have come a long way) and then take your own first steps with machine learning in minutes. By the end of the talk everyone will understand how to recognize an object of their choice which could then be used in any creative way you can imagine. Familiarity with JavaScript is assumed, but no background in machine learning is required. Come take your first steps with TensorFlow.js!
ML conf EU 2020ML conf EU 2020
32 min
An Introduction to Transfer Learning in NLP and HuggingFace
In this talk I'll start introducing the recent breakthroughs in NLP that resulted from the combination of Transfer Learning schemes and Transformer architectures. The second part of the talk will be dedicated to an introduction of the open-source tools released HuggingFace, in particular our Transformers, Tokenizers and Datasets libraries and our models.

Workshops on related topic

ML conf EU 2020ML conf EU 2020
160 min
Hands on with TensorFlow.js
Workshop
Come check out our workshop which will walk you through 3 common journeys when using TensorFlow.js. We will start with demonstrating how to use one of our pre-made models - super easy to use JS classes to get you working with ML fast. We will then look into how to retrain one of these models in minutes using in browser transfer learning via Teachable Machine and how that can be then used on your own custom website, and finally end with a hello world of writing your own model code from scratch to make a simple linear regression to predict fictional house prices based on their square footage.
Node Congress 2022Node Congress 2022
83 min
Scaling Databases For Global Serverless Applications
WorkshopFree
This workshop discusses the challenges Enterprises are facing when scaling the data tier to support multi-region deployments and serverless environments. Serverless edge functions and lightweight container orchestration enables applications and business logic to be easily deployed globally, often leaving the database as the latency and scaling bottleneck.
Join us to understand how PolyScale.ai solves these scaling challenges intelligently caching database data at the edge, without sacrificing transactionality or consistency. Get hands on with PolyScale for implementation, query observability and global latency testing with edge functions.
Table of contents- Introduction to PolyScale.ai- Enterprise Data Gravity- Why data scaling is hard- Options for Scaling the data tier- Database Observability- Cache Management AI- Hands on with PolyScale.ai
ML conf EU 2020ML conf EU 2020
112 min
The Hitchhiker's Guide to the Machine Learning Engineering Galaxy
Workshop
Are you a Software Engineer who got tasked to deploy a machine learning or deep learning model for the first time in your life? Are you wondering what steps to take and how AI-powered software is different from traditional software? Then it is the right workshop to attend.
The internet offers thousands of articles and free of charge courses, showing how it is easy to train and deploy a simple AI model. At the same time in reality it is difficult to integrate a real model into the current infrastructure, debug, test, deploy, and monitor it properly. In this workshop, I will guide you through this process sharing tips, tricks, and favorite open source tools that will make your life much easier. So, at the end of the workshop, you will know where to start your deployment journey, what tools to use, and what questions to ask.
ML conf EU 2020ML conf EU 2020
146 min
Introduction to Machine Learning on the Cloud
Workshop
This workshop will be both a gentle introduction to Machine Learning, and a practical exercise of using the cloud to train simple and not-so-simple machine learning models. We will start with using Automatic ML to train the model to predict survival on Titanic, and then move to more complex machine learning tasks such as hyperparameter optimization and scheduling series of experiments on the compute cluster. Finally, I will show how Azure Machine Learning can be used to generate artificial paintings using Generative Adversarial Networks, and how to train language question-answering model on COVID papers to answer COVID-related questions.