ML en el Edge

Rate this content
Bookmark

El mundo está lleno de miles de millones de teléfonos inteligentes pequeños, conectados, inteligentes y eficientes en el cálculo. ¿Qué pasaría si pudiéramos aprovechar este poder y hacer más en el edge? Resulta que el aprendizaje automático encaja perfectamente aquí. Vamos a explorar la biblioteca MLKit para incorporar inteligencia en aplicaciones de react-native.

FAQ

El aprendizaje automático en el edge, o ML en el edge, se refiere a la capacidad de procesar y realizar análisis de datos directamente en los dispositivos móviles utilizando su capacidad de cómputo, sin necesidad de enviar datos a servidores remotos en la nube.

Los principales beneficios de usar ML en el edge incluyen menor latencia, reducción en el uso del ancho de banda, mayor seguridad de los datos, resultados en tiempo real y una mejor experiencia de usuario en entornos sin conexión.

ML Kit es un SDK de Google que integra su tecnología de aprendizaje automático en un paquete simple y poderoso. Está basado en TensorFlow Lite y está diseñado para facilitar la integración de funciones de ML en aplicaciones móviles, tanto para Android como para iOS.

Las API de ML Kit se clasifican en dos tipos: base y personalizadas. Las API base cubren funciones comunes como reconocimiento de texto, detección de rostros y escaneo de códigos de barras, mientras que las personalizadas permiten a los desarrolladores construir y utilizar sus propios modelos TensorFlow Lite.

Para integrar ML Kit en un proyecto de React Native, primero es necesario configurar el proyecto como uno de Firebase, instalar el módulo de la aplicación Firebase de React Native y luego instalar los modelos de ML Kit necesarios según el caso de uso.

Un desarrollador puede utilizar ML Kit, que abstrae la complejidad del aprendizaje automático y proporciona APIs listas para usar, permitiendo la integración de soluciones de ML con solo unas pocas líneas de código.

Sangeetha KP
Sangeetha KP
7 min
02 Aug, 2021

Comments

Sign in or register to post your comment.

Video Summary and Transcription

Esta charla discute el aprendizaje automático en el edge y sus beneficios para aplicaciones móviles. ML en el edge utiliza la potencia de cálculo de los dispositivos móviles para el procesamiento seguro y en tiempo real, así como para capacidades sin conexión. ML Kit, el SDK de Google, proporciona una integración sencilla de soluciones de ML en aplicaciones móviles sin necesidad de tener amplios conocimientos de ML. La charla cubre la configuración de Firebase y la integración de ML Kit en proyectos de React Native, mostrando las posibilidades de aplicar filtros y generar avatares con ML en el edge.

Available in English: ML on the Edge

1. Introducción a ML en el Edge

Short description:

Me complace hablar sobre el aprendizaje automático en el edge y cómo puede mejorar las aplicaciones móviles. ML en el edge aprovecha la capacidad de cómputo de los dispositivos móviles, lo que hace que el procesamiento sea más seguro, en tiempo real y brinde una mejor experiencia sin conexión. ML Kit, el SDK de Google, ofrece API base y personalizadas para tareas de visión y lenguaje, lo que facilita a los desarrolladores móviles integrar soluciones de ML sin una amplia experiencia en ML. La integración de ML Kit en un proyecto de React Native implica configurar el proyecto como uno de Firebase y actualizar el archivo de compilación o gradle.

Entonces, empecemos. Me complace hablarles a todos sobre el tema, el aprendizaje automático en el edge. Soy Sangeeta y trabajo como desarrollador en Amazon. Durante los últimos cuatro años, he estado construyendo aplicaciones móviles profesionalmente y como proyectos secundarios. Naturalmente, siempre estoy buscando formas de hacer que las aplicaciones sean más rápidas, más inteligentes, más seguras y poder brindar mejores experiencias al cliente.

Como tal, cuando Google lanzó ML Kit como parte de su ION, que prometía aprendizaje automático en el edge, tuve que probarlo. Ahora, ¿qué es el ML en el edge y por qué debería importarnos? Tradicionalmente, construir soluciones de ML requería que los desarrolladores recopilaran datos, construyeran modelos, los entrenaran, los ajustaran, los implementaran en algún servidor remoto en la nube y los sirvieran en dispositivos móviles en los llamados bordes de Internet.

Ahora, como todos sabemos, con el paso del tiempo, los dispositivos móviles se han vuelto mucho más eficientes en sus capacidades de cómputo. ¿Por qué no aprovechar la capacidad de cómputo de los dispositivos localmente, en lugar de hacer el procesamiento en algún lugar remoto en la nube? Eso es el ML en el edge. Ahora, ¿cuáles son los beneficios de hacerlo? No tener que transferir datos de un lado a otro del mundo significa una latencia y un ancho de banda más fáciles. Localizar todo el procesamiento que ocurre en el dispositivo significa que los datos son más seguros, los resultados son más en tiempo real y puedes brindar una mejor experiencia sin conexión a tus clientes. Y finalmente, esto reduce en gran medida la barrera para que cualquier desarrollador móvil con poca o ninguna experiencia en ML integre soluciones de ML en sus aplicaciones.

Espero que ahora estén convencidos de que el ML en el edge es interesante y tengan curiosidad por saber más al respecto. Ahora, intentemos entender cómo lograr esto. ML Kit es el SDK de Google, que engloba toda su experiencia en aprendizaje automático en un SDK simple pero poderoso. Esto se basa en TensorFlow Lite, que es una versión optimizada para dispositivos móviles de TensorFlow y se puede utilizar tanto para el desarrollo de Android como de iOS. Las API que ofrece ML Kit se pueden clasificar en dos tipos, base y personalizadas. La idea es que si una de tus necesidades no se satisface con las API base disponibles, puedes construir tus propios modelos de TensorFlow Lite personalizados y hacer que se rendericen en dispositivos móviles. Las API base disponibles se pueden clasificar aún más según su uso en visión y lenguaje. Por ejemplo, respuestas inteligentes, escaneo de códigos de barras, detección de rostros, detección e identificación de imágenes, y más. Nuevamente, los desarrolladores móviles no necesariamente necesitan entender la magia del aprendizaje automático que ocurre bajo el capó. Todo eso se abstrae de manera limpia y está disponible como API listas para usar, que se pueden aprovechar con solo unas pocas líneas de código.

Hablando de código, a continuación, entendamos qué se necesita para integrar ML Kit en un proyecto de React Native. Debemos saber que ML Kit se puede utilizar tanto para desarrollo nativo como para desarrollo de React Native, pero para este taller, me centraré en el flujo de trabajo de React Native para Android, aunque el proceso debería ser bastante similar para iOS también. El primer paso para integrar ML Kit es configurar tu proyecto como uno de Firebase. Firebase proporciona un conjunto de herramientas que facilitan mucho el desarrollo de aplicaciones. Herramientas como registro, autenticación, todo este proceso pesado está disponible como parte de Firebase. Entonces, los desarrolladores de Google pensaron, ¿por qué el aprendizaje automático debería ser diferente? Y es por eso que ML Kit también está disponible como parte de Firebase. Para comenzar con Firebase, ingresas a la consola de Firebase e ingresas el nombre de tu paquete. Esto genera un archivo de configuración de Firebase que se coloca en la raíz de la carpeta de tu proyecto. Luego, actualizamos el archivo de compilación o gradle para declarar los servicios de Google como una de nuestras dependencias y ejecutamos el complemento.

2. Configuración de Firebase e Integración de ML Kit

Short description:

Esta sección cubre la configuración de Firebase y React Native Firebase, la instalación del modelo de visión de ML y el uso de las API de ML Kit para el reconocimiento de texto y la detección de rostros. Las posibilidades de ML en el edge son infinitas, incluyendo la aplicación de filtros y la generación de avatares. En general, aprendimos sobre los beneficios del aprendizaje automático en el edge e integrando ML Kit en proyectos de React Native.

Esto nos permite utilizar los productos de Firebase en nuestro proyecto. Con la configuración de Firebase, pasemos a la sección de código base de React Native. Firebase para React Native es la biblioteca oficialmente recomendada para el desarrollo de Firebase en React Native. Para usar esto, primero instalamos el módulo de la aplicación Firebase de React Native utilizando npm o Yarn. Después de esto, según nuestro caso de uso, instalamos el modelo requerido. En este caso, estoy instalando el modelo de visión de ML y actualizando mi archivo firebase.json para habilitar true.

Ahora viene la parte divertida, con Firebase conectado y los modelos de ML requeridos instalados, utilizamos las API para procesar nuestra entrada. En este caso, estoy esperando la descarga del modelo de visión y luego proporciono la ruta de mi imagen local a la API de procesamiento de reconocimiento de texto de la imagen. Lo que esto hace es procesar la imagen y devolver una matriz de bloques de texto para cada texto en la imagen. Cada uno de estos bloques de texto contiene información como ¿cuál es el texto real dentro de él? ¿Cuáles son los límites? ¿Cuáles son las coordenadas? ¿Y cuál es el idioma del texto? Esto es una acción. Vemos que se ha determinado con precisión caminar sobre el césped y diferentes bloques de texto en la salida se han utilizado para superponer en la imagen. Este es otro ejemplo de la API de detección de rostros de ML Kit. Aquí he dado la imagen y ha sido capaz de determinar con precisión los contornos del rostro y darnos coordenadas. Considera esto como un punto de partida para aplicar filtros a esto o generar avatares para esta imagen y así sucesivamente. Las posibilidades son simplemente infinitas.

Eso es prácticamente lo que quería cubrir como parte de esta charla. Hoy aprendimos, ¿qué es el aprendizaje automático en el edge? ¿Cuáles son sus beneficios? ¿Qué es ML Kit y qué se necesita para integrar ML Kit como parte de tu proyecto de React Native? Espero haberte inspirado con la idea de usar ML en el edge en tu próxima aplicación móvil. Si tienes alguna pregunta, no dudes en enviarme un mensaje directo en mi Twitter o enviarme un correo. Muchas gracias por ver. Adiós.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Charlie Gerard's Career Advice: Be intentional about how you spend your time and effort
6 min
Charlie Gerard's Career Advice: Be intentional about how you spend your time and effort
Featured Article
Charlie Gerard
Jan Tomes
2 authors
When it comes to career, Charlie has one trick: to focus. But that doesn’t mean that you shouldn’t try different things — currently a senior front-end developer at Netlify, she is also a sought-after speaker, mentor, and a machine learning trailblazer of the JavaScript universe. "Experiment with things, but build expertise in a specific area," she advises.

What led you to software engineering?My background is in digital marketing, so I started my career as a project manager in advertising agencies. After a couple of years of doing that, I realized that I wasn't learning and growing as much as I wanted to. I was interested in learning more about building websites, so I quit my job and signed up for an intensive coding boot camp called General Assembly. I absolutely loved it and started my career in tech from there.
 What is the most impactful thing you ever did to boost your career?I think it might be public speaking. Going on stage to share knowledge about things I learned while building my side projects gave me the opportunity to meet a lot of people in the industry, learn a ton from watching other people's talks and, for lack of better words, build a personal brand.
 What would be your three tips for engineers to level up their career?Practice your communication skills. I can't stress enough how important it is to be able to explain things in a way anyone can understand, but also communicate in a way that's inclusive and creates an environment where team members feel safe and welcome to contribute ideas, ask questions, and give feedback. In addition, build some expertise in a specific area. I'm a huge fan of learning and experimenting with lots of technologies but as you grow in your career, there comes a time where you need to pick an area to focus on to build more profound knowledge. This could be in a specific language like JavaScript or Python or in a practice like accessibility or web performance. It doesn't mean you shouldn't keep in touch with anything else that's going on in the industry, but it means that you focus on an area you want to have more expertise in. If you could be the "go-to" person for something, what would you want it to be? 
 And lastly, be intentional about how you spend your time and effort. Saying yes to everything isn't always helpful if it doesn't serve your goals. No matter the job, there are always projects and tasks that will help you reach your goals and some that won't. If you can, try to focus on the tasks that will grow the skills you want to grow or help you get the next job you'd like to have.
 What are you working on right now?Recently I've taken a pretty big break from side projects, but the next one I'd like to work on is a prototype of a tool that would allow hands-free coding using gaze detection. 
 Do you have some rituals that keep you focused and goal-oriented?Usually, when I come up with a side project idea I'm really excited about, that excitement is enough to keep me motivated. That's why I tend to avoid spending time on things I'm not genuinely interested in. Otherwise, breaking down projects into smaller chunks allows me to fit them better in my schedule. I make sure to take enough breaks, so I maintain a certain level of energy and motivation to finish what I have in mind.
 You wrote a book called Practical Machine Learning in JavaScript. What got you so excited about the connection between JavaScript and ML?The release of TensorFlow.js opened up the world of ML to frontend devs, and this is what really got me excited. I had machine learning on my list of things I wanted to learn for a few years, but I didn't start looking into it before because I knew I'd have to learn another language as well, like Python, for example. As soon as I realized it was now available in JS, that removed a big barrier and made it a lot more approachable. Considering that you can use JavaScript to build lots of different applications, including augmented reality, virtual reality, and IoT, and combine them with machine learning as well as some fun web APIs felt super exciting to me.


Where do you see the fields going together in the future, near or far? I'd love to see more AI-powered web applications in the future, especially as machine learning models get smaller and more performant. However, it seems like the adoption of ML in JS is still rather low. Considering the amount of content we post online, there could be great opportunities to build tools that assist you in writing blog posts or that can automatically edit podcasts and videos. There are lots of tasks we do that feel cumbersome that could be made a bit easier with the help of machine learning.
 You are a frequent conference speaker. You have your own blog and even a newsletter. What made you start with content creation?I realized that I love learning new things because I love teaching. I think that if I kept what I know to myself, it would be pretty boring. If I'm excited about something, I want to share the knowledge I gained, and I'd like other people to feel the same excitement I feel. That's definitely what motivated me to start creating content.
 How has content affected your career?I don't track any metrics on my blog or likes and follows on Twitter, so I don't know what created different opportunities. Creating content to share something you built improves the chances of people stumbling upon it and learning more about you and what you like to do, but this is not something that's guaranteed. I think over time, I accumulated enough projects, blog posts, and conference talks that some conferences now invite me, so I don't always apply anymore. I sometimes get invited on podcasts and asked if I want to create video content and things like that. Having a backlog of content helps people better understand who you are and quickly decide if you're the right person for an opportunity.What pieces of your work are you most proud of?It is probably that I've managed to develop a mindset where I set myself hard challenges on my side project, and I'm not scared to fail and push the boundaries of what I think is possible. I don't prefer a particular project, it's more around the creative thinking I've developed over the years that I believe has become a big strength of mine.***Follow Charlie on Twitter
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
Descubre cómo aprovechar el aprendizaje automático en JavaScript utilizando TensorFlow.js en el navegador y más allá en esta charla rápida. Inspírate a través de un montón de prototipos creativos que empujan los límites de lo que es posible en el navegador web moderno (las cosas han avanzado mucho) y luego da tus primeros pasos con el aprendizaje automático en minutos. Al final de la charla, todos entenderán cómo reconocer un objeto de su elección que luego se puede utilizar de cualquier manera creativa que puedas imaginar. Se asume familiaridad con JavaScript, pero no se requiere experiencia en aprendizaje automático. ¡Ven y da tus primeros pasos con TensorFlow.js!
Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React
React Advanced Conference 2021React Advanced Conference 2021
21 min
Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React
Top Content
Esta charla ofrece una introducción sobre MediaPipe, que es una solución de Aprendizaje Automático de código abierto que permite ejecutar modelos de aprendizaje automático en dispositivos de baja potencia y ayuda a integrar los modelos con aplicaciones móviles. Ofrece a estos profesionales creativos una gran cantidad de herramientas dinámicas y utiliza el Aprendizaje Automático de una manera realmente fácil para crear aplicaciones poderosas e intuitivas sin tener mucho / ningún conocimiento de aprendizaje automático de antemano. Así que podemos ver cómo MediaPipe puede ser integrado con React. Proporcionando un fácil acceso para incluir casos de uso de aprendizaje automático para construir aplicaciones web con React.
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
JSNation Live 2021JSNation Live 2021
39 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
Descubre cómo aprovechar el aprendizaje automático en JavaScript utilizando TensorFlow.js en el navegador y más allá en esta charla rápida. Inspírate a través de un montón de prototipos creativos que empujan los límites de lo que es posible en el navegador web moderno (las cosas han avanzado mucho) y luego da tus primeros pasos con el aprendizaje automático en minutos. Al final de la charla, todos entenderán cómo reconocer un objeto de su elección que luego se puede utilizar de cualquier manera creativa que puedas imaginar. Se asume familiaridad con JavaScript, pero no se requiere experiencia en aprendizaje automático. ¡Ven y da tus primeros pasos con TensorFlow.js!
Una introducción al aprendizaje por transferencia en NLP y HuggingFace
ML conf EU 2020ML conf EU 2020
32 min
Una introducción al aprendizaje por transferencia en NLP y HuggingFace
En esta charla comenzaré presentando los avances recientes en NLP que resultaron de la combinación de esquemas de aprendizaje por transferencia y arquitecturas de Transformer. La segunda parte de la charla estará dedicada a una introducción de las herramientas de código abierto lanzadas por HuggingFace, en particular nuestras bibliotecas Transformers, Tokenizers y Datasets y nuestros modelos.
Observabilidad con diagnostics_channel y AsyncLocalStorage
Node Congress 2023Node Congress 2023
21 min
Observabilidad con diagnostics_channel y AsyncLocalStorage
Los productos de trazado modernos funcionan combinando diagnostics_channel con AsyncLocalStorage. Construyamos juntos un trazador para ver cómo funciona y qué puedes hacer para hacer que tus aplicaciones sean más observables.

Workshops on related topic

Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
JSNation 2024JSNation 2024
108 min
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
Workshop
Roy Derks
Shivay Lamba
2 authors
Hoy en día, todos los desarrolladores están utilizando LLMs en diferentes formas y variantes, desde ChatGPT hasta asistentes de código como GitHub CoPilot. Siguiendo esto, muchos productos han introducido capacidades de IA integradas, y en este masterclass haremos que los LLMs sean comprensibles para los desarrolladores web. Y nos adentraremos en la codificación de tu propia aplicación impulsada por IA. No se necesita experiencia previa en trabajar con LLMs o aprendizaje automático. En su lugar, utilizaremos tecnologías web como JavaScript, React que ya conoces y amas, al mismo tiempo que aprendemos sobre algunas nuevas bibliotecas como OpenAI, Transformers.js
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
C3 Dev Festival 2024C3 Dev Festival 2024
48 min
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
WorkshopFree
Andreia Ocanoaia
Andreia Ocanoaia
Sientes las limitaciones de los LLMs? Pueden ser creativos, pero a veces carecen de precisión o se basan en información desactualizada. En esta masterclass, desglosaremos el proceso de construir y desplegar fácilmente un sistema de Generación con Recuperación Mejorada. Este enfoque te permite aprovechar el poder de los LLMs con el beneficio adicional de precisión factual e información actualizada.
Deja que la IA sea tu Documentación
JSNation 2024JSNation 2024
69 min
Deja que la IA sea tu Documentación
Workshop
Jesse Hall
Jesse Hall
Únete a nuestro masterclass dinámico para crear un portal de documentación impulsado por IA. Aprende a integrar ChatGPT de OpenAI con Next.js 14, Tailwind CSS y tecnología de vanguardia para ofrecer soluciones de código e resúmenes instantáneos. Esta sesión práctica te equipará con el conocimiento para revolucionar la forma en que los usuarios interactúan con la documentación, convirtiendo las búsquedas tediosas en descubrimientos eficientes e inteligentes.
Aspectos destacados:
- Experiencia práctica en la creación de un sitio de documentación impulsado por IA.- Comprensión de la integración de la IA en las experiencias de usuario.- Habilidades prácticas con las últimas tecnologías de desarrollo web.- Estrategias para implementar y mantener recursos de documentación inteligente.
Tabla de contenidos:- Introducción a la IA en la documentación- Configuración del entorno- Construcción de la estructura de documentación- Integración de ChatGPT para documentación interactiva
Prácticas con TensorFlow.js
ML conf EU 2020ML conf EU 2020
160 min
Prácticas con TensorFlow.js
Workshop
Jason Mayes
Jason Mayes
Ven y descubre nuestro masterclass que te guiará a través de 3 recorridos comunes al usar TensorFlow.js. Comenzaremos demostrando cómo usar uno de nuestros modelos predefinidos, clases de JS muy fáciles de usar para trabajar rápidamente con ML. Luego veremos cómo volver a entrenar uno de estos modelos en minutos utilizando el aprendizaje por transferencia en el navegador a través de Teachable Machine y cómo se puede usar en tu propio sitio web personalizado. Finalmente, terminaremos con un hola mundo escribiendo tu propio código de modelo desde cero para hacer una regresión lineal simple y predecir los precios ficticios de las casas en función de sus metros cuadrados.
La Guía del Autoestopista de la Galaxia de Ingeniería de Aprendizaje Automático
ML conf EU 2020ML conf EU 2020
112 min
La Guía del Autoestopista de la Galaxia de Ingeniería de Aprendizaje Automático
Workshop
Alyona Galyeva
Alyona Galyeva
¿Eres un Ingeniero de Software al que se le asignó la tarea de implementar un modelo de aprendizaje automático o aprendizaje profundo por primera vez en tu vida? ¿Te preguntas qué pasos seguir y cómo se diferencia el software impulsado por IA del software tradicional? Entonces este es el masterclass adecuado al que asistir.
Internet ofrece miles de artículos y cursos gratuitos que muestran lo fácil que es entrenar e implementar un modelo de IA simple. Al mismo tiempo, en la realidad es difícil integrar un modelo real en la infraestructura actual, depurarlo, probarlo, implementarlo y monitorearlo correctamente. En este masterclass, te guiaré a través de este proceso compartiendo consejos, trucos y herramientas de código abierto favoritas que te facilitarán mucho la vida. Así que al final del masterclass, sabrás por dónde empezar tu viaje de implementación, qué herramientas utilizar y qué preguntas hacer.
Introducción al Aprendizaje Automático en la Nube
ML conf EU 2020ML conf EU 2020
146 min
Introducción al Aprendizaje Automático en la Nube
Workshop
Dmitry Soshnikov
Dmitry Soshnikov
Este masterclass será tanto una introducción suave al Aprendizaje Automático, como un ejercicio práctico de uso de la nube para entrenar modelos de aprendizaje automático simples y no tan simples. Comenzaremos utilizando ML Automático para entrenar el modelo para predecir la supervivencia en el Titanic, y luego pasaremos a tareas de aprendizaje automático más complejas como la optimización de hiperparámetros y la programación de series de experimentos en el clúster de cómputo. Finalmente, mostraré cómo Azure Machine Learning se puede utilizar para generar pinturas artificiales utilizando Redes Generativas Adversarias, y cómo entrenar un modelo de preguntas y respuestas de lenguaje en documentos de COVID para responder preguntas relacionadas con COVID.