Construir Inteligencia en el Borde - Aprendizaje Automático con React Native

Rate this content
Bookmark
Slides

¿Alguna vez te has preguntado si realmente podemos construir modelos de aprendizaje automático en React, en lugar de en los lenguajes principales como Python o R? Después de todo, React es el lenguaje más utilizado por los desarrolladores, según una encuesta de Stack Overflow de 2019. Bueno, esto suena como una idea loca, porque React no está diseñado para la computación de alto rendimiento y las redes neuronales son intensivas en cálculo! Pero, espera un minuto - ¡tenemos bibliotecas como Onnx.js, Tensorflow.js para nuestro rescate! En esta charla, profundizaré en el proceso de construcción y despliegue de aplicaciones de aprendizaje automático utilizando React.

FAQ

El machine learning es un subconjunto de la inteligencia artificial (AI) que implica la creación de modelos que pueden aprender de datos para hacer predicciones o tomar decisiones sin estar explícitamente programados para una tarea específica. AI es más amplia e imita el comportamiento humano, mientras que el machine learning se enfoca en programar específicamente para tareas como la detección de spam o la predicción.

React Native puede utilizarse para desarrollar aplicaciones que incorporen modelos de machine learning, permitiendo desplegar estos modelos directamente en dispositivos móviles y otros dispositivos de borde. Esto se logra mediante la instalación de paquetes necesarios, la creación y entrenamiento de modelos en el marco de React, y finalmente, la implementación del modelo para hacer predicciones en tiempo real.

La computación en el borde ofrece varios beneficios para el machine learning, incluyendo la reducción de costos de computación en la nube, la capacidad de operar con conexiones a internet inestables, y la reducción de la latencia, lo cual es crucial para aplicaciones en tiempo real. También mejora la seguridad y la privacidad al procesar datos directamente en el dispositivo sin necesidad de enviarlos a través de la red.

Algunos de los desafíos incluyen limitaciones de memoria en dispositivos de borde, lo que puede dificultar el entrenamiento y la ejecución de modelos grandes; la calidad de los datos, que puede ser baja en dispositivos de menor calidad; y recursos computacionales limitados, lo que afecta la memoria y la capacidad de procesamiento necesarias para el machine learning.

Las aplicaciones de machine learning en dispositivos de borde incluyen sistemas de recomendación personalizados, monitoreo de pacientes en el sector salud, y mantenimiento predictivo en la industria, donde los dispositivos pueden realizar análisis en tiempo real para ofrecer alertas y recomendaciones basadas en datos directamente desde el dispositivo.

Rashmi Nagpal
Rashmi Nagpal
13 min
12 Dec, 2023

Comments

Sign in or register to post your comment.

Video Summary and Transcription

La charla trata sobre la construcción de inteligencia en el borde con aprendizaje automático y React Native. Cubre conceptos de aprendizaje automático, construcción de modelos de ML con React, desafíos, mejores prácticas y recursos.

1. Introducción a la construcción de inteligencia en el borde

Short description:

Hola a todos, soy Rashmi Nagpal. Hoy mi charla es sobre la construcción de inteligencia en el borde con aprendizaje automático y react native. Discutiremos conceptos de aprendizaje automático, construcción de modelos de ML con React, desafíos, mejores prácticas y recursos.

Hola a todos, soy Rashmi Nagpal. Soy ingeniero de software de profesión e investigador por pasión. Así que hoy el título de mi charla es construir inteligencia en el borde con machine learning y usando react native. Así que comencemos. Así que la agenda de esta charla es en primer lugar discutiremos qué es machine learning y sus conceptos relacionados y cómo podemos construir nuestro modelo de machine learning utilizando el react como un marco técnico y luego habrá algunas de las aplicaciones que son posibles luego veremos cuáles son los desafíos que existen al usar machine learning en el borde y luego cuáles son las mejores prácticas para que podamos superar esos desafíos y un montón de recursos que dejaré para ustedes para el así que sin más preámbulos comencemos. Bueno, así que imagina que tienes un increíble modelo de machine learning cuya precisión supera tus expectativas más salvajes y luego estás emocionado de desplegar ese modelo en producción para que pueda ser accesible para los usuarios finales así que el siguiente paso lógico sería que simplemente empaquetes ese modelo y lo despliegues en producción tal vez usando algunos de los proveedores de servicios cloud existentes ya sea que podría ser el AWS o GCP pero espera pero después del despliegue ves que estás en estado de shock cuando ves la factura de despliegue en la cloud que es como 20 millones de dólares o sabes que es una cantidad enorme así que para apoyar esa historia puedes ver las infografías aquí todas las estadísticas reales que puedo ver en el lado izquierdo puedes ver que las infografías representan a empresas como el data dog y snowflake y así sucesivamente que gastan casi la mitad de sus ingresos en la cloud y la parte de la derecha muestra la creciente inversión en empresas o diría que empresas como pinterest capital one en la construcción de sus modelos en los dispositivos cloud así que una vez que hacemos una búsqueda rápida en google veremos que casi 90 millones de dólares se han gastado en la cloud solo en 2020 lo que es como el 30 por ciento de eso también se ha desperdiciado lo que es alrededor de 147 millones de dólares se ha perdido lo que es una gran cantidad de dinero ¿verdad? así que ahí es donde entra la computación en el borde así que primero entendamos qué es la computación en el borde así que podemos ver el diccionario o diría que wikipedia establece que la computación en el borde es una arquitectura de computación distribuida architecture donde tienes múltiples dispositivos que están trabajando de cerca en los dispositivos de borde porque quieres proporcionar un tiempo de respuesta más rápido y también quieres reducir la transferencia de data pero ¿por qué deberíamos usarlo? veamos eso así que hay un montón de razones que he enumerado aquí que tú sabes por qué deberíamos usar la computación en el borde en primer lugar es por supuesto la reducción de costos tú sabes no quieres desplegar tus modelos de machine learning que están consumiendo una gran cantidad de computación en la cloud sabes que la mitad de tus ingresos están consumiendo ¿verdad? y también quieres desplegar tus modelos de aprendizaje automático que deberían funcionar en esto incluso en conexiones a internet inestables o dispositivos para que puedas enviar la data de ida y vuelta en la cloud y puedas obtener la data o diría que tus decisiones impulsadas por la data en tiempo real y en segundo lugar también quieres que tu modelo uh tú sabes cuando están trabajando en los dispositivos del consumidor para que puedas preocuparte menos por la latencia de la red que la latencia de inferencia así que lo que quiero decir con la influencia es cuando el modelo está dando algunas predicciones en todas las decisiones impulsadas por la data en tiempo real una vez que ha sido entrenado en un caso especial o diría un caso de uso por ejemplo quieres reducir el tiempo de inferencia de un modelo de reconocimiento de imágenes de 30 milisegundos a 20 milisegundos pero incluso si la latencia de la red está aumentando en un par de segundos deberías estar bien y lo siguiente es cómo la computación en el borde juega un papel enorme al aumentar la security y la privacidad y por supuesto la fiabilidad porque no quieres que la información personal identificable de los usuarios que está cruzando la red sea atacada en términos de privacidad o algo así no quieres que sea muy fiable y por supuesto no debería ser quieres hacerlo mucho más susceptible a ser interceptado así que veamos entra en la imagen para eso así que esto es um volveré una diapositiva así que ¿qué es primero de todo machine learning estoy bastante seguro de que la gente podría estar al tanto de lo que es machine learning sólo para poner a todos en la misma página daré una breve introducción de lo que es la máquina aprendizaje así que ai es un gran bombo que está pasando ahora mismo a cargo de todos sabemos eso así que básicamente machine learning es una especie de subconjunto de la ai y ai es general estás imitando el comportamiento humano mientras que machine learning es más o menos estás explícitamente programando principalmente una detección de spam ¿verdad? o bien estás tratando de hacer algún tipo de predicción de pronóstico mientras que el aprendizaje profundo es básicamente una especie de extracción de patterns de la data usando algunas redes neuronales así que veamos cuál es el bloque de construcción detrás de estos algoritmos así que esta es una estructura básica de la red neuronal se te da el conjunto de data como entrada y luego estás asignando el peso sum y el sesgo y la función de activación considera eso como la caja negra o el modelo de machine learning que está haciendo todos estos cálculos detrás de las capuchas y luego estás obteniendo una salida que es una especie de decisiones en tiempo real impulsadas por la data así que entendamos esta estructura básica de la red neuronal a través de un ejemplo sabes por ejemplo queremos desplegar un ejemplo de reconocimiento de imágenes en los dispositivos de borde entonces por supuesto lo que vamos a hacer ¿verdad? primero veremos la imagen que se está tomando como entrada y luego realizarás algún algoritmo de reconocimiento de imágenes y luego te dará una salida que es como decir oh esta imagen pertenece a la categoría de perros o tal vez como un a qué categoría de animales pertenece así es como funcionan las redes neuronales aquí detrás de los principios así que si queremos construir este tipo de redes neuronales y ahora también sabemos qué es el react y sabemos que estamos mucho más acostumbrados a los fundamentos de react y al marco detrás de él ¿podemos realmente desplegar el modelo de machine learning en el navegador o en los dispositivos de borde? bueno la respuesta es definitivamente sí así que veamos cómo podemos hacerlo así que primero de todo estamos instalando los paquetes necesarios que necesitamos y luego estamos creando en el que sabes estamos añadiendo diferentes capas en el modelo las capas en el modelo es lo que he explicado en el anterior um sabes para escanearlo y apagar la red neuronal bien este es el conjunto de data que se está tomando como entrada entonces tienes diferentes capas dentro de él así que estás haciendo algunos cálculos estás asignando las métricas que quieres pero con qué intervalo de confianza um en qué confianza particular quieres que el modelo sea mucho más preciso alrededor de eso así es como defines un modelo creas el modelo y luego entrenas el modelo así que aquí estoy usando la función aquí mismo y estás viendo que bien en este caso en la moda sólo estoy llamando a este tipo de función de ajuste que se ha definido y en esa tercera función estoy usando las dos entradas quiero decir que he estado viendo los dos argumentos para el conjunto de data que es el primero es extremo y el siguiente es un número más amplio de épocas es el número de iteraciones que tu modelo correrá y luego te dará sabes bien ahora el modelo ha sido entrenado ahora puedes hacer alguna predicción en la parte superior de él y eso es donde la última pieza de código o el paso a paso el código que puedo ver es quieres clasificar tu texto el problema que estábamos tratando de hacer aquí es sabes dado una frase necesitas identificar a qué sentimiento particular pertenece esa frase y eso es donde estamos construyendo un modelo de ml sabes un modelo de análisis de sentimientos usando uh paquetes preexistentes que están disponibles y paquetes de cobertura que están disponibles en el react o diría que los frameworks de javascript son como en htm extenso no js y todos estos así que definitivamente puedes utilizar los frameworks ya existentes y luego te da una predicción oh esta frase en particular pertenece a la categoría positiva por lo tanto es un sentimiento positivo por ejemplo puedo decir oh en realidad estoy muy honrado de estar hablando en esta conferencia reaparición sabes es remoto pero de nuevo tener la oportunidad de hablar frente a todos ustedes es una oportunidad humilde así que es un sentimiento positivo ¿verdad? y un sentimiento negativo podría ser no me gusta la piña en una pizza así que es un sentimiento negativo y así es como nuestro modelo es va a darte dos predicciones al final de la derecha bien así que lo siguiente es sabes que puedes envolver de nuevo el mismo modelo o te gusta ahora eres este tipo de modelo de reconocimiento de imágenes y luego puedes desplegarlo en sabes como en un dispositivo de borde en el sentido de un smartphone y luego puedes decir oh bienvenidos a la familia react a todos y así es como sabes que sólo subes una imagen y luego puedes uh sabes identificar a qué esta imagen pertenece a esta categoría de muelle con cierta predicción bien así que ahora entendamos cuáles son las aplicaciones básicas de la ml en los dispositivos de borde así que hay un montón de algoritmos o un montón de casos de uso son posibles para cuando quieres desplegar cualquier tipo de sistema de machine learning en en tales dispositivos de borde el primero es el sistema de recomendación ¿verdad? obtienes un aviso o simplemente una especie de mensaje oh esta podría ser una película favorita que debes haber visto antes así que es una especie de recomendándote una posible película o el donante que realmente te interesa y luego los sistemas de monitoreo de pacientes la gente puede ver sabes como ya puedes ver los médicos pueden monitorear a los pacientes aunque estén más sólo para comprobar cualquiera que sea el nivel de glucosa como alguien sabes nivel de depresión y otro tipo de monitoreo que uno puede usar en un sistema de salud de manera similar para el mantenimiento predictivo tú sabes cuando alguien uh fábrica o puedes decir almacén está recibiendo algunos productos que están fuera de la tienda que posiblemente podrían quedarse sin stock así que puedes tener una alarma o simplemente tipo de sistema de tablero y luego puedes obtener también como en tu dispositivo celular particular que puede hacer un sistema de alerta de mantenimiento predictivo hacia él así que estas son aplicaciones posibles que podemos hacer bien así que ahora hemos visto sabes um tantas glorias y tú sabes bien cuáles son las posibilidades los casos de uso pero cuáles son los verdaderos desafíos así que estos son un montón de desafíos que he enumerado aquí el primero y más importante es en los dispositivos de borde es muy vital que necesitas asegurarte de que no estás cayendo con la restricción de memoria sabes los dispositivos de borde generalmente vienen con una capacidad de memoria limitada por lo tanto hace mucho más desafiante cuando quieres entrenar o simplemente ejecutar cualquier sistema básico de machine learning o modelos en la parte superior de él y hay por algunos modelos voluminosos como un pájaro robot o transformador tipo de modelos que definitivamente requieren miles de millones de parámetros entre por lo tanto tal tipo de restricciones de memoria pueden ser mucho más difíciles cuando quieres entrenar desde cero pero lo siguiente es la calidad de la data así que cuando estás entrenando tipo de modelos de machine learning usando la baja calidad tipo de smartphone o los dispositivos de borde si la calidad de la data va a ser pobre entonces por supuesto sabes que tu modelo no te va a dar las decisiones en tiempo real impulsadas por la data con 100 precisión ¿verdad? así que la calidad de la data importa mucho y lo último es cuando tienes el recurso computacional limitado porque sabes todos estos dispositivos ML o diría um todos estos productos alimentados por AI definitivamente requieren muchos recursos fuentes de computadora y consumen mucha memoria y potencia de procesamiento así que necesitas asegurarte de que cualquier dispositivo en el que quieras entrenar tienen suficiente memoria y por supuesto puedes ir con tu cloud o tal vez como algunos otros recursos alternativos para eso bien así que estos son un montón de restricciones y ahora veamos cuáles son las mejores prácticas cómo podemos superar esas dos restricciones que hemos visto en la diapositiva anterior primero y más importante alguna regla es sabes que necesitas optimizar el runtime de tu modelo performance ya sea que puedas usar alguna cuantización o simplemente técnicas de poda y luego tienes que encontrar el marco correcto así que encontrar el marco correcto es una especie de siempre verde ¿verdad? una vez que encuentres el marco correcto o diría los parámetros mientras estás entrenando el modelo tal vez depende del número de épocas o tal vez depende de las iteraciones o simplemente una especie de sabes ya sea los proyectos tensor o una especie de en intercambio cualquier marco que quieras usar para todo depende de si quieres hacerlo mucho más modular porque no quieres correr en hacer los cálculos una y otra vez así que por lo tanto necesitas hacer alguna concurrencia necesitas inculcar algunos hilos múltiples y procesos para que puedas renovar el código para hacerlo mucho más optimizado y por supuesto intenta simplemente comparar el modelo en base a diferentes parámetros o diría diferentes niveles d

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Charlie Gerard's Career Advice: Be intentional about how you spend your time and effort
6 min
Charlie Gerard's Career Advice: Be intentional about how you spend your time and effort
Featured Article
Charlie Gerard
Jan Tomes
2 authors
When it comes to career, Charlie has one trick: to focus. But that doesn’t mean that you shouldn’t try different things — currently a senior front-end developer at Netlify, she is also a sought-after speaker, mentor, and a machine learning trailblazer of the JavaScript universe. "Experiment with things, but build expertise in a specific area," she advises.

What led you to software engineering?My background is in digital marketing, so I started my career as a project manager in advertising agencies. After a couple of years of doing that, I realized that I wasn't learning and growing as much as I wanted to. I was interested in learning more about building websites, so I quit my job and signed up for an intensive coding boot camp called General Assembly. I absolutely loved it and started my career in tech from there.
 What is the most impactful thing you ever did to boost your career?I think it might be public speaking. Going on stage to share knowledge about things I learned while building my side projects gave me the opportunity to meet a lot of people in the industry, learn a ton from watching other people's talks and, for lack of better words, build a personal brand.
 What would be your three tips for engineers to level up their career?Practice your communication skills. I can't stress enough how important it is to be able to explain things in a way anyone can understand, but also communicate in a way that's inclusive and creates an environment where team members feel safe and welcome to contribute ideas, ask questions, and give feedback. In addition, build some expertise in a specific area. I'm a huge fan of learning and experimenting with lots of technologies but as you grow in your career, there comes a time where you need to pick an area to focus on to build more profound knowledge. This could be in a specific language like JavaScript or Python or in a practice like accessibility or web performance. It doesn't mean you shouldn't keep in touch with anything else that's going on in the industry, but it means that you focus on an area you want to have more expertise in. If you could be the "go-to" person for something, what would you want it to be? 
 And lastly, be intentional about how you spend your time and effort. Saying yes to everything isn't always helpful if it doesn't serve your goals. No matter the job, there are always projects and tasks that will help you reach your goals and some that won't. If you can, try to focus on the tasks that will grow the skills you want to grow or help you get the next job you'd like to have.
 What are you working on right now?Recently I've taken a pretty big break from side projects, but the next one I'd like to work on is a prototype of a tool that would allow hands-free coding using gaze detection. 
 Do you have some rituals that keep you focused and goal-oriented?Usually, when I come up with a side project idea I'm really excited about, that excitement is enough to keep me motivated. That's why I tend to avoid spending time on things I'm not genuinely interested in. Otherwise, breaking down projects into smaller chunks allows me to fit them better in my schedule. I make sure to take enough breaks, so I maintain a certain level of energy and motivation to finish what I have in mind.
 You wrote a book called Practical Machine Learning in JavaScript. What got you so excited about the connection between JavaScript and ML?The release of TensorFlow.js opened up the world of ML to frontend devs, and this is what really got me excited. I had machine learning on my list of things I wanted to learn for a few years, but I didn't start looking into it before because I knew I'd have to learn another language as well, like Python, for example. As soon as I realized it was now available in JS, that removed a big barrier and made it a lot more approachable. Considering that you can use JavaScript to build lots of different applications, including augmented reality, virtual reality, and IoT, and combine them with machine learning as well as some fun web APIs felt super exciting to me.


Where do you see the fields going together in the future, near or far? I'd love to see more AI-powered web applications in the future, especially as machine learning models get smaller and more performant. However, it seems like the adoption of ML in JS is still rather low. Considering the amount of content we post online, there could be great opportunities to build tools that assist you in writing blog posts or that can automatically edit podcasts and videos. There are lots of tasks we do that feel cumbersome that could be made a bit easier with the help of machine learning.
 You are a frequent conference speaker. You have your own blog and even a newsletter. What made you start with content creation?I realized that I love learning new things because I love teaching. I think that if I kept what I know to myself, it would be pretty boring. If I'm excited about something, I want to share the knowledge I gained, and I'd like other people to feel the same excitement I feel. That's definitely what motivated me to start creating content.
 How has content affected your career?I don't track any metrics on my blog or likes and follows on Twitter, so I don't know what created different opportunities. Creating content to share something you built improves the chances of people stumbling upon it and learning more about you and what you like to do, but this is not something that's guaranteed. I think over time, I accumulated enough projects, blog posts, and conference talks that some conferences now invite me, so I don't always apply anymore. I sometimes get invited on podcasts and asked if I want to create video content and things like that. Having a backlog of content helps people better understand who you are and quickly decide if you're the right person for an opportunity.What pieces of your work are you most proud of?It is probably that I've managed to develop a mindset where I set myself hard challenges on my side project, and I'm not scared to fail and push the boundaries of what I think is possible. I don't prefer a particular project, it's more around the creative thinking I've developed over the years that I believe has become a big strength of mine.***Follow Charlie on Twitter
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
Descubre cómo aprovechar el aprendizaje automático en JavaScript utilizando TensorFlow.js en el navegador y más allá en esta charla rápida. Inspírate a través de un montón de prototipos creativos que empujan los límites de lo que es posible en el navegador web moderno (las cosas han avanzado mucho) y luego da tus primeros pasos con el aprendizaje automático en minutos. Al final de la charla, todos entenderán cómo reconocer un objeto de su elección que luego se puede utilizar de cualquier manera creativa que puedas imaginar. Se asume familiaridad con JavaScript, pero no se requiere experiencia en aprendizaje automático. ¡Ven y da tus primeros pasos con TensorFlow.js!
Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React
React Advanced Conference 2021React Advanced Conference 2021
21 min
Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React
Top Content
Esta charla ofrece una introducción sobre MediaPipe, que es una solución de Aprendizaje Automático de código abierto que permite ejecutar modelos de aprendizaje automático en dispositivos de baja potencia y ayuda a integrar los modelos con aplicaciones móviles. Ofrece a estos profesionales creativos una gran cantidad de herramientas dinámicas y utiliza el Aprendizaje Automático de una manera realmente fácil para crear aplicaciones poderosas e intuitivas sin tener mucho / ningún conocimiento de aprendizaje automático de antemano. Así que podemos ver cómo MediaPipe puede ser integrado con React. Proporcionando un fácil acceso para incluir casos de uso de aprendizaje automático para construir aplicaciones web con React.
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
JSNation Live 2021JSNation Live 2021
39 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
Descubre cómo aprovechar el aprendizaje automático en JavaScript utilizando TensorFlow.js en el navegador y más allá en esta charla rápida. Inspírate a través de un montón de prototipos creativos que empujan los límites de lo que es posible en el navegador web moderno (las cosas han avanzado mucho) y luego da tus primeros pasos con el aprendizaje automático en minutos. Al final de la charla, todos entenderán cómo reconocer un objeto de su elección que luego se puede utilizar de cualquier manera creativa que puedas imaginar. Se asume familiaridad con JavaScript, pero no se requiere experiencia en aprendizaje automático. ¡Ven y da tus primeros pasos con TensorFlow.js!
Una introducción al aprendizaje por transferencia en NLP y HuggingFace
ML conf EU 2020ML conf EU 2020
32 min
Una introducción al aprendizaje por transferencia en NLP y HuggingFace
En esta charla comenzaré presentando los avances recientes en NLP que resultaron de la combinación de esquemas de aprendizaje por transferencia y arquitecturas de Transformer. La segunda parte de la charla estará dedicada a una introducción de las herramientas de código abierto lanzadas por HuggingFace, en particular nuestras bibliotecas Transformers, Tokenizers y Datasets y nuestros modelos.
Observabilidad con diagnostics_channel y AsyncLocalStorage
Node Congress 2023Node Congress 2023
21 min
Observabilidad con diagnostics_channel y AsyncLocalStorage
Los productos de trazado modernos funcionan combinando diagnostics_channel con AsyncLocalStorage. Construyamos juntos un trazador para ver cómo funciona y qué puedes hacer para hacer que tus aplicaciones sean más observables.

Workshops on related topic

Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
JSNation 2024JSNation 2024
108 min
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
Workshop
Roy Derks
Shivay Lamba
2 authors
Hoy en día, todos los desarrolladores están utilizando LLMs en diferentes formas y variantes, desde ChatGPT hasta asistentes de código como GitHub CoPilot. Siguiendo esto, muchos productos han introducido capacidades de IA integradas, y en este masterclass haremos que los LLMs sean comprensibles para los desarrolladores web. Y nos adentraremos en la codificación de tu propia aplicación impulsada por IA. No se necesita experiencia previa en trabajar con LLMs o aprendizaje automático. En su lugar, utilizaremos tecnologías web como JavaScript, React que ya conoces y amas, al mismo tiempo que aprendemos sobre algunas nuevas bibliotecas como OpenAI, Transformers.js
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
C3 Dev Festival 2024C3 Dev Festival 2024
48 min
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
WorkshopFree
Andreia Ocanoaia
Andreia Ocanoaia
Sientes las limitaciones de los LLMs? Pueden ser creativos, pero a veces carecen de precisión o se basan en información desactualizada. En esta masterclass, desglosaremos el proceso de construir y desplegar fácilmente un sistema de Generación con Recuperación Mejorada. Este enfoque te permite aprovechar el poder de los LLMs con el beneficio adicional de precisión factual e información actualizada.
Deja que la IA sea tu Documentación
JSNation 2024JSNation 2024
69 min
Deja que la IA sea tu Documentación
Workshop
Jesse Hall
Jesse Hall
Únete a nuestro masterclass dinámico para crear un portal de documentación impulsado por IA. Aprende a integrar ChatGPT de OpenAI con Next.js 14, Tailwind CSS y tecnología de vanguardia para ofrecer soluciones de código e resúmenes instantáneos. Esta sesión práctica te equipará con el conocimiento para revolucionar la forma en que los usuarios interactúan con la documentación, convirtiendo las búsquedas tediosas en descubrimientos eficientes e inteligentes.
Aspectos destacados:
- Experiencia práctica en la creación de un sitio de documentación impulsado por IA.- Comprensión de la integración de la IA en las experiencias de usuario.- Habilidades prácticas con las últimas tecnologías de desarrollo web.- Estrategias para implementar y mantener recursos de documentación inteligente.
Tabla de contenidos:- Introducción a la IA en la documentación- Configuración del entorno- Construcción de la estructura de documentación- Integración de ChatGPT para documentación interactiva
Prácticas con TensorFlow.js
ML conf EU 2020ML conf EU 2020
160 min
Prácticas con TensorFlow.js
Workshop
Jason Mayes
Jason Mayes
Ven y descubre nuestro masterclass que te guiará a través de 3 recorridos comunes al usar TensorFlow.js. Comenzaremos demostrando cómo usar uno de nuestros modelos predefinidos, clases de JS muy fáciles de usar para trabajar rápidamente con ML. Luego veremos cómo volver a entrenar uno de estos modelos en minutos utilizando el aprendizaje por transferencia en el navegador a través de Teachable Machine y cómo se puede usar en tu propio sitio web personalizado. Finalmente, terminaremos con un hola mundo escribiendo tu propio código de modelo desde cero para hacer una regresión lineal simple y predecir los precios ficticios de las casas en función de sus metros cuadrados.
La Guía del Autoestopista de la Galaxia de Ingeniería de Aprendizaje Automático
ML conf EU 2020ML conf EU 2020
112 min
La Guía del Autoestopista de la Galaxia de Ingeniería de Aprendizaje Automático
Workshop
Alyona Galyeva
Alyona Galyeva
¿Eres un Ingeniero de Software al que se le asignó la tarea de implementar un modelo de aprendizaje automático o aprendizaje profundo por primera vez en tu vida? ¿Te preguntas qué pasos seguir y cómo se diferencia el software impulsado por IA del software tradicional? Entonces este es el masterclass adecuado al que asistir.
Internet ofrece miles de artículos y cursos gratuitos que muestran lo fácil que es entrenar e implementar un modelo de IA simple. Al mismo tiempo, en la realidad es difícil integrar un modelo real en la infraestructura actual, depurarlo, probarlo, implementarlo y monitorearlo correctamente. En este masterclass, te guiaré a través de este proceso compartiendo consejos, trucos y herramientas de código abierto favoritas que te facilitarán mucho la vida. Así que al final del masterclass, sabrás por dónde empezar tu viaje de implementación, qué herramientas utilizar y qué preguntas hacer.
Introducción al Aprendizaje Automático en la Nube
ML conf EU 2020ML conf EU 2020
146 min
Introducción al Aprendizaje Automático en la Nube
Workshop
Dmitry Soshnikov
Dmitry Soshnikov
Este masterclass será tanto una introducción suave al Aprendizaje Automático, como un ejercicio práctico de uso de la nube para entrenar modelos de aprendizaje automático simples y no tan simples. Comenzaremos utilizando ML Automático para entrenar el modelo para predecir la supervivencia en el Titanic, y luego pasaremos a tareas de aprendizaje automático más complejas como la optimización de hiperparámetros y la programación de series de experimentos en el clúster de cómputo. Finalmente, mostraré cómo Azure Machine Learning se puede utilizar para generar pinturas artificiales utilizando Redes Generativas Adversarias, y cómo entrenar un modelo de preguntas y respuestas de lenguaje en documentos de COVID para responder preguntas relacionadas con COVID.