Procesamiento de Datos de Robots a Escala con R y Kubernetes

Rate this content
Bookmark

La mayoría de las personas estarían de acuerdo en que R es un lenguaje popular para el análisis de datos. Quizás menos conocido es que R tiene un buen soporte para la ejecución paralela en una sola CPU a través de paquetes como future. En esta presentación hablaremos sobre nuestra experiencia escalando los procesos de R aún más, ejecutando R en paralelo en contenedores docker utilizando Kubernetes. Los robots generan grandes cantidades de datos de sensores y otros; extraer la información y conocimientos adecuados de esto requiere un procesamiento significativamente mayor que el que se puede abordar en un entorno de ejecución único. Ante la tarea de preprocesar varios cientos de GB de datos de archivos json comprimidos, utilizamos Pachyderm para escribir canalizaciones de datos para ejecutar la preparación de datos en paralelo, utilizando contenedores multinúcleo en un clúster de Kubernetes.


Al final de la charla habremos desmentido el mito de que R no se puede utilizar en producción a gran escala. Incluso si no utiliza R, habrá visto un caso de uso para escalar el análisis independientemente de su lenguaje de elección.

8 min
02 Jul, 2021

Video Summary and Transcription

La charla aborda los desafíos de gestionar y analizar el volumen creciente de datos recopilados de los robots. Se destaca la importancia de la extracción de datos y la ingeniería de características en el análisis de lo que sucede antes de una falla. Se menciona el uso de Kubernetes y Packyderm para la gestión de datos y actualizaciones automáticas en la canalización. Se enfatiza la paralelización de scripts de R y la escalabilidad de grandes clústeres para la recopilación y procesamiento de datos. La charla también menciona el uso de IA a nivel de flota de robots para desbloquear nuevas oportunidades.

Available in English

1. Introducción al Análisis de Datos de Robots

Short description:

Hola. Mi nombre es Frans van den Een, Director de Datos en Expantia. Junto con Flodian Pistoni, CEO de Inorbit, abordamos los desafíos de gestionar y analizar el creciente volumen de datos recopilados de robots. Inorbit ha acumulado más de 3.8 millones de horas de datos de robots en los últimos 12 meses solamente. Uno de los principales desafíos es el proceso de extracción de datos, donde necesitamos unir observaciones basadas en la marca de tiempo más cercana y realizar ingeniería de características. Analizamos lo que sucede antes de una falla al retroceder un cierto período de tiempo para cada observación.

Soy el Director de Datos en Expantia, y ayudamos a las organizaciones a impulsar su capacidad de análisis de datos. Esta charla fue preparada junto con Flodian Pistoni. Flodian es el cofundador y CEO de Inorbit, y Inorbit es una plataforma de gestión en la nube, una plataforma de gestión de robots en la nube y están desarrollando aún más para llevar las operaciones de robots a un nivel más alto. Porque los robots están en todas partes ahora, dondequiera que mires, aún más ahora con COVID, están trabajando junto con los humanos, están trabajando de manera autónoma. Y esto significa que el volumen de los data que estamos recopilando de los robots está aumentando exponencialmente. Por supuesto, esto ofrece oportunidades muy interesantes para nosotros, los científicos de datos, trabajar con este tipo de data que tiene características especiales. Y si miramos lo que Inorbit ha estado haciendo, han acumulado más de 3.8 millones de horas de datos de robots en los últimos 12 meses solamente. Y están creciendo rápidamente, ¿verdad? Así que ahora están agregando aproximadamente un año de data cada día. Y para nosotros, hacer análisis sobre eso, aunque esta es una charla breve, de manera muy resumida, pero quiero resaltar algunos de los problemas que encontramos y cómo los hemos resuelto. El principal problema que encontramos es que Inorbit ofrece sus servicios a cualquier flota. No tenemos control sobre cómo exactamente se recopilan esos data y cómo se envían al servicio central. Así que en una de las pruebas de concepto que hicimos, nos enfrentamos a muchos robots que estaban enviando millones de archivos, ¿verdad? Un archivo cada cinco segundos para cada agente. Pero cada archivo contenía data de múltiples fuentes. Y cada una de esas fuentes estaba en

2. Extracción de Datos e Ingeniería de Características

Short description:

El primer paso fue la extracción de datos, que implicó unir observaciones por la marca de tiempo más cercana. Luego realizamos la ingeniería de características y analizamos lo que sucedió antes de una falla. Debido al gran volumen de datos, decidimos utilizar Kubernetes y Packyderm, un producto de código abierto que ofrece un pipeline de datos versionado. Esto permite una gestión más fácil de los datos y actualizaciones automáticas en el pipeline.

robots o operaciones en el agente. Tenían sus propias marcas de tiempo. No estaban directamente relacionados. Entonces, el primer paso que necesitábamos hacer era la extracción de data. Y esto fue un poco más complejo de lo que esperábamos, especialmente porque necesitábamos unir observaciones por la marca de tiempo más cercana. Destacaré eso un poco más en una diapositiva posterior. Y luego realizar la ingeniería de características sobre eso. Entonces, lo que quiero decir con la unión de tiempo más cercana, tenemos diferentes señales sobre la localización de la misión y la velocidad. Y necesitamos encontrar un intervalo donde podamos unir cada una de esas señales para tener una sola observación. Trabajamos en cómo se podía hacer eso. Y luego necesitábamos comenzar la ingeniería de características. Entonces, una vez que tenemos una línea, una observación por unidad de tiempo, queríamos retroceder. Queríamos ver qué sucedió antes de una falla. Hay una falla aquí. Y si retrocedemos digamos 42 segundos, entonces necesitamos hacer eso para cada uno de ellos. Hacer eso y tener en cuenta todos los casos en los que no pudimos incluir el dato, por ejemplo, cuando hubo una falla dentro del marco de tiempo de 42 segundos, fue absolutamente posible. Pero luego nos enfrentamos a un volumen enorme donde nuestra computadora local simplemente dijo que no, esto no será posible. Así que inmediatamente pensamos en externalizar esto a Kubernetes. Configuramos un bucket con los data que se estaban ingresando. Los empaquetamos en archivos zip diarios. Empaquetamos gstuff, Json y gzzips para que sea un poco más manejable y poder transportar los data con mayor facilidad. Y luego externalizamos la extracción completa de data a Kubernetes, un segundo bucket con el resultado intermedio, externalizamos la ingeniería de data, y tenemos el resultado listo para el análisis. Lo que descubrimos es que es mucho más fácil obtener la ayuda de algo llamado Packyderm. Packyderm es un producto, es una empresa. Tienen una versión de código abierto de esto, que es lo que usamos. Y lo que tenemos allí no es un bucket. Lo que tenemos es un archivador. Tenemos un repositorio donde convertimos los data que ingresan y versionamos los data que salen. Hacer este tipo de pipeline de data con versiones significa que si hay un cambio en cualquier punto del pipeline, el resto del pipeline responderá y actualizará automáticamente los data. Esto nos prepara para hacer todo el trabajo pesado una vez que lo llevemos a producción. Solo un vistazo rápido a cómo se ve esto. Creamos pipelines que son muy similares a los archivos de configuración de ustedes y lo clave aquí es que podemos conectar los data en el repositorio, en el repositorio de Pachyderm, PFS es el sistema de archivos de Pachyderm, con lo que estamos ejecutando en nuestro R

3. Parallelización y Escalabilidad

Short description:

Nuestros scripts paralelizados en R no fueron suficientes, así que externalizamos la conexión y la preparación de datos. Monitorear los datos a un nivel granular fue genial. La paralelización del código R es fácil con el paquete 'future'. Trabajar con Kubernetes facilitó la transición a un pipeline masivamente paralelo. Los grandes clústeres son sorprendentemente asequibles, lo que permite la recolección y procesamiento escalables de datos. El uso de IA a nivel de flota de robots desbloquea nuevas oportunidades. Visite expanded.com o inorbit.ai para obtener más información.

script. Debido a que nuestros scripts en R ya estaban paralelizados, pero la paralelización no fue suficiente. Así que ahora pudimos externalizar esto y establecer la preparación de datos que hicimos a continuación, y para cada dato que es el término de Pachyderm para cada unidad de datos en el pipeline, podemos ver si fue exitoso o si falló. Esta es una captura de pantalla de Patrick Santamaria donde hicimos la mayor parte de este trabajo.

Así que poder monitorear a ese nivel lo que está sucediendo con tus datos en la práctica, fue absolutamente genial. La paralelización del código R es fácil. Hay un paquete llamado construido sobre future. Y es muy fácil paralelizarlo. Pasar de un código R paralelo a un pipeline masivamente paralelo es factible. Para nosotros fue mucho más fácil trabajar con Kubernetes a través de eso. Lo otro es que los grandes clústeres son sorprendentemente asequibles, ¿verdad? Trabajamos en un clúster de 80 CPU, 520 gigabytes por menos de $10 por hora. Lo cual fue algo que no habíamos experimentado antes y ahora lo estamos utilizando cada vez más en el trabajo que estamos haciendo. Para el equipo con el que estábamos trabajando en in orbit, esto también tuvo grandes implicaciones. Porque significa que a medida que las flotas crecen, saben que la recolección y el procesamiento de datos se vuelve crítico para ellos. Ahora también saben que entender la escalabilidad de su plataforma completa no tiene por qué ser difícil. Pero escalar el análisis tampoco tiene por qué ser difícil. Y el uso de IA a nivel de flota de robots, ya saben, desbloquea muchas nuevas oportunidades en las que están trabajando arduamente para seguir ofreciendo a sus clientes. Muchas gracias. Espero que esto haya sido útil. Si desean más información, por favor visiten nuestros sitios web, expanded.com o inorbit.ai. Ambos tenemos blogs activos y nos gusta escribir sobre este tema, así que esperamos estar en contacto en el futuro. Así que muchas gracias.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

6 min
Charlie Gerard's Career Advice: Be intentional about how you spend your time and effort
Featured Article
When it comes to career, Charlie has one trick: to focus. But that doesn’t mean that you shouldn’t try different things — currently a senior front-end developer at Netlify, she is also a sought-after speaker, mentor, and a machine learning trailblazer of the JavaScript universe. "Experiment with things, but build expertise in a specific area," she advises.

What led you to software engineering?My background is in digital marketing, so I started my career as a project manager in advertising agencies. After a couple of years of doing that, I realized that I wasn't learning and growing as much as I wanted to. I was interested in learning more about building websites, so I quit my job and signed up for an intensive coding boot camp called General Assembly. I absolutely loved it and started my career in tech from there.
 What is the most impactful thing you ever did to boost your career?I think it might be public speaking. Going on stage to share knowledge about things I learned while building my side projects gave me the opportunity to meet a lot of people in the industry, learn a ton from watching other people's talks and, for lack of better words, build a personal brand.
 What would be your three tips for engineers to level up their career?Practice your communication skills. I can't stress enough how important it is to be able to explain things in a way anyone can understand, but also communicate in a way that's inclusive and creates an environment where team members feel safe and welcome to contribute ideas, ask questions, and give feedback. In addition, build some expertise in a specific area. I'm a huge fan of learning and experimenting with lots of technologies but as you grow in your career, there comes a time where you need to pick an area to focus on to build more profound knowledge. This could be in a specific language like JavaScript or Python or in a practice like accessibility or web performance. It doesn't mean you shouldn't keep in touch with anything else that's going on in the industry, but it means that you focus on an area you want to have more expertise in. If you could be the "go-to" person for something, what would you want it to be? 
 And lastly, be intentional about how you spend your time and effort. Saying yes to everything isn't always helpful if it doesn't serve your goals. No matter the job, there are always projects and tasks that will help you reach your goals and some that won't. If you can, try to focus on the tasks that will grow the skills you want to grow or help you get the next job you'd like to have.
 What are you working on right now?Recently I've taken a pretty big break from side projects, but the next one I'd like to work on is a prototype of a tool that would allow hands-free coding using gaze detection. 
 Do you have some rituals that keep you focused and goal-oriented?Usually, when I come up with a side project idea I'm really excited about, that excitement is enough to keep me motivated. That's why I tend to avoid spending time on things I'm not genuinely interested in. Otherwise, breaking down projects into smaller chunks allows me to fit them better in my schedule. I make sure to take enough breaks, so I maintain a certain level of energy and motivation to finish what I have in mind.
 You wrote a book called Practical Machine Learning in JavaScript. What got you so excited about the connection between JavaScript and ML?The release of TensorFlow.js opened up the world of ML to frontend devs, and this is what really got me excited. I had machine learning on my list of things I wanted to learn for a few years, but I didn't start looking into it before because I knew I'd have to learn another language as well, like Python, for example. As soon as I realized it was now available in JS, that removed a big barrier and made it a lot more approachable. Considering that you can use JavaScript to build lots of different applications, including augmented reality, virtual reality, and IoT, and combine them with machine learning as well as some fun web APIs felt super exciting to me.


Where do you see the fields going together in the future, near or far? I'd love to see more AI-powered web applications in the future, especially as machine learning models get smaller and more performant. However, it seems like the adoption of ML in JS is still rather low. Considering the amount of content we post online, there could be great opportunities to build tools that assist you in writing blog posts or that can automatically edit podcasts and videos. There are lots of tasks we do that feel cumbersome that could be made a bit easier with the help of machine learning.
 You are a frequent conference speaker. You have your own blog and even a newsletter. What made you start with content creation?I realized that I love learning new things because I love teaching. I think that if I kept what I know to myself, it would be pretty boring. If I'm excited about something, I want to share the knowledge I gained, and I'd like other people to feel the same excitement I feel. That's definitely what motivated me to start creating content.
 How has content affected your career?I don't track any metrics on my blog or likes and follows on Twitter, so I don't know what created different opportunities. Creating content to share something you built improves the chances of people stumbling upon it and learning more about you and what you like to do, but this is not something that's guaranteed. I think over time, I accumulated enough projects, blog posts, and conference talks that some conferences now invite me, so I don't always apply anymore. I sometimes get invited on podcasts and asked if I want to create video content and things like that. Having a backlog of content helps people better understand who you are and quickly decide if you're the right person for an opportunity.What pieces of your work are you most proud of?It is probably that I've managed to develop a mindset where I set myself hard challenges on my side project, and I'm not scared to fail and push the boundaries of what I think is possible. I don't prefer a particular project, it's more around the creative thinking I've developed over the years that I believe has become a big strength of mine.***Follow Charlie on Twitter
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: ML in the Browser and Beyond
Discover how to embrace machine learning in JavaScript using TensorFlow.js in the browser and beyond in this speedy talk. Get inspired through a whole bunch of creative prototypes that push the boundaries of what is possible in the modern web browser (things have come a long way) and then take your own first steps with machine learning in minutes. By the end of the talk everyone will understand how to recognize an object of their choice which could then be used in any creative way you can imagine. Familiarity with JavaScript is assumed, but no background in machine learning is required. Come take your first steps with TensorFlow.js!
React Advanced Conference 2021React Advanced Conference 2021
21 min
Using MediaPipe to Create Cross Platform Machine Learning Applications with React
Top Content
This talk gives an introduction about MediaPipe which is an open source Machine Learning Solutions that allows running machine learning models on low-powered devices and helps integrate the models with mobile applications. It gives these creative professionals a lot of dynamic tools and utilizes Machine learning in a really easy way to create powerful and intuitive applications without having much / no knowledge of machine learning beforehand. So we can see how MediaPipe can be integrated with React. Giving easy access to include machine learning use cases to build web applications with React.
JSNation Live 2021JSNation Live 2021
39 min
TensorFlow.JS 101: ML in the Browser and Beyond
Discover how to embrace machine learning in JavaScript using TensorFlow.js in the browser and beyond in this speedy talk. Get inspired through a whole bunch of creative prototypes that push the boundaries of what is possible in the modern web browser (things have come a long way) and then take your own first steps with machine learning in minutes. By the end of the talk everyone will understand how to recognize an object of their choice which could then be used in any creative way you can imagine. Familiarity with JavaScript is assumed, but no background in machine learning is required. Come take your first steps with TensorFlow.js!
ML conf EU 2020ML conf EU 2020
32 min
An Introduction to Transfer Learning in NLP and HuggingFace
In this talk I'll start introducing the recent breakthroughs in NLP that resulted from the combination of Transfer Learning schemes and Transformer architectures. The second part of the talk will be dedicated to an introduction of the open-source tools released HuggingFace, in particular our Transformers, Tokenizers and Datasets libraries and our models.

Workshops on related topic

ML conf EU 2020ML conf EU 2020
160 min
Hands on with TensorFlow.js
Workshop
Come check out our workshop which will walk you through 3 common journeys when using TensorFlow.js. We will start with demonstrating how to use one of our pre-made models - super easy to use JS classes to get you working with ML fast. We will then look into how to retrain one of these models in minutes using in browser transfer learning via Teachable Machine and how that can be then used on your own custom website, and finally end with a hello world of writing your own model code from scratch to make a simple linear regression to predict fictional house prices based on their square footage.
ML conf EU 2020ML conf EU 2020
112 min
The Hitchhiker's Guide to the Machine Learning Engineering Galaxy
Workshop
Are you a Software Engineer who got tasked to deploy a machine learning or deep learning model for the first time in your life? Are you wondering what steps to take and how AI-powered software is different from traditional software? Then it is the right workshop to attend.
The internet offers thousands of articles and free of charge courses, showing how it is easy to train and deploy a simple AI model. At the same time in reality it is difficult to integrate a real model into the current infrastructure, debug, test, deploy, and monitor it properly. In this workshop, I will guide you through this process sharing tips, tricks, and favorite open source tools that will make your life much easier. So, at the end of the workshop, you will know where to start your deployment journey, what tools to use, and what questions to ask.
ML conf EU 2020ML conf EU 2020
146 min
Introduction to Machine Learning on the Cloud
Workshop
This workshop will be both a gentle introduction to Machine Learning, and a practical exercise of using the cloud to train simple and not-so-simple machine learning models. We will start with using Automatic ML to train the model to predict survival on Titanic, and then move to more complex machine learning tasks such as hyperparameter optimization and scheduling series of experiments on the compute cluster. Finally, I will show how Azure Machine Learning can be used to generate artificial paintings using Generative Adversarial Networks, and how to train language question-answering model on COVID papers to answer COVID-related questions.