Utiliza el aprendizaje automático... ¡y diviértete con ello!

Rate this content
Bookmark
Slides

El aprendizaje automático es visto por muchos como el siguiente paso en la inteligencia artificial hacia una nueva etapa de la evolución humana. Y así nos ayuda a encontrar nuevos enfoques para resolver problemas del mundo real. Uf... Eso suena complejo... ¿Y cómo se supone que eso es divertido? Bueno, además de los grandes problemas de nuestro tiempo, al final es solo otra herramienta con la que podemos jugar. Si bien es importante entender primero los conceptos básicos del aprendizaje automático, podemos ir mucho más allá rápidamente. ¡Prepárate para algunos ejemplos inesperados de cómo comenzar con el aprendizaje automático en tu aplicación de React!

FAQ

Nico es un desarrollador frontend independiente de Suiza y forma parte del programa Google Developer Experts para tecnologías web, especializándose en nuevas tecnologías para navegadores.

TensorFlow.js es una plataforma de aprendizaje automático de código abierto que permite usar modelos pre-entrenados, entrenar nuevos modelos o ampliar modelos existentes directamente en el navegador usando JavaScript.

Nico encontró desafiante el uso repetitivo de ciertas palabras en sus charlas en suizo alemán. Para abordar esto, exploró el uso de la API de Reconocimiento de Voz y el aprendizaje automático para detectar estas palabras específicas durante sus presentaciones.

El aprendizaje automático puede ser utilizado para entrenar un modelo con ejemplos de audio, convirtiendo segmentos de audio en espectrogramas (imágenes) que luego se comparan con espectrogramas de nuevas entradas de audio para detectar palabras específicas.

Nico utilizó Teachable Machine, una aplicación web de Google que permite entrenar modelos de reconocimiento de imagen o audio con datos de entrada personalizados directamente en el navegador.

TensorFlow.js utiliza varios backends dependiendo del navegador y sistema operativo. Nico menciona WebGL como el backend más eficiente disponible en la mayoría de los navegadores y WebGPU, aunque este último requiere características experimentales en Chrome Canary.

En su última charla, Nico implementó un modelo de aprendizaje automático entrenado para detectar palabras específicas. Cada vez que estas palabras eran pronunciadas, se activaba un zumbador, demostrando la efectividad del modelo en tiempo real.

Nico recomienda el curso gratuito de Jason Maes sobre Machine Learning para desarrolladores web, disponible en Google, para aquellos interesados en profundizar en el aprendizaje automático aplicado a la web.

Nico Martin
Nico Martin
9 min
06 Jun, 2023

Comments

Sign in or register to post your comment.

Video Summary and Transcription

Nico, un desarrollador frontend independiente y parte del programa de Expertos en Desarrolladores de Google, ofrece una introducción al aprendizaje automático en el navegador. Explica cómo el aprendizaje automático difiere de los algoritmos tradicionales y destaca el uso de TensorFlow.js para implementar el aprendizaje automático en el navegador. La charla también cubre el uso de diferentes backends, como WebGL, y la conversión de audio en espectrogramas para la comparación de modelos. Nico menciona el uso de superposición para mejorar la precisión de detección y la disponibilidad de detección de comandos de voz y entrenamiento de modelos personalizados con TensorFlow. En general, la charla enfatiza los beneficios de utilizar y entrenar modelos de aprendizaje automático directamente en el dispositivo.

1. Introducción al Aprendizaje Automático en el Navegador

Short description:

Hola a todos. Soy Nico, un desarrollador frontend independiente de Suiza y parte del programa Google Developer Experts. Hoy les daré una breve introducción al aprendizaje automático en el navegador. De manera clásica, definimos reglas y condiciones para los algoritmos, pero el aprendizaje automático adopta un enfoque diferente al entrenar los algoritmos con datos de entrada y salida. TensorFlow.js nos permite utilizar el aprendizaje automático directamente en el navegador con JavaScript.

Hola a todos. Mi nombre es Nico. Soy un desarrollador frontend independiente de Suiza. También formo parte del programa Google Developer Experts para tecnologías web, lo que básicamente significa que paso demasiado tiempo libre jugando con todo tipo de nuevas tecnologías para navegadores.

Y hoy estoy aquí para darles una breve introducción al aprendizaje automático en el navegador. En los últimos años he dado muchas charlas, principalmente en inglés, algunas en alemán, pero solo dos charlas en Baden Dich, que es nuestro dialecto suizo alemán local. Ahora, en septiembre de 2021, di mi primera charla en suizo alemán, que afortunadamente fue grabada. Permítanme mostrarles un breve clip de eso. Y así sucesivamente. Como pueden ver, logré usar la palabra schlussendlich e im Endeffekt más de 35 veces en unos 30 minutos, lo cual fue extremadamente molesto para mí después. Ambas palabras básicamente significan finalmente o al final.

Ahora, en febrero de 2023, mi segunda charla en Bandage estaba a la vuelta de la esquina y era enormemente importante para mí encontrar una forma de detener esto. Así que busqué formas de detectar esas palabras en mi discurso. Lo más obvio sería utilizar la API de Reconocimiento de Voz en el navegador. El problema aquí es que esto funciona bastante bien para el alemán, pero no para el suizo alemán o incluso para Bandage. Pero nuevamente, el reconocimiento de voz no es más que modelos de aprendizaje automático, ¿verdad? Y ¿no podemos ejecutarlos directamente en el navegador? Por supuesto que sí.

En esta charla relámpago no podré profundizar en los detalles, pero quiero darles una breve descripción general. En el núcleo, el aprendizaje automático es un enfoque completamente diferente para escribir algoritmos. De manera clásica, cuando intentamos escribir un algoritmo para resolver un problema, definiríamos un conjunto de reglas y condiciones y luego pasaríamos una entrada y obtendríamos una salida. Y eso funciona muy bien para problemas simples, pero tan pronto como tenemos una entrada más compleja data, necesitamos una nueva forma de procesarla. Y el aprendizaje automático adopta este enfoque diferente. Aquí la idea es entrenar el algoritmo con una entrada y salida predefinidas y luego el algoritmo encuentra patrones por sí mismo. Esto significa que tenemos muchos datos de entrada y la salida esperada. Ahora la máquina aprende a predecir la salida esperada de una entrada similar. Este algoritmo entrenado es el núcleo del aprendizaje automático y se llama modelo. Y ahí es donde entra en juego TensorFlow. TensorFlow es una plataforma de aprendizaje automático de código abierto de extremo a extremo que te permite utilizar modelos pre-entrenados existentes, pero también entrenar nuevos modelos o ampliar modelos existentes con tu propio caso de uso. Y desde 2019, con TensorFlow.js, incluso podemos usarlo directamente en el navegador con JavaScript. Ahora, al igual que cualquier tarea de aprendizaje automático, TensorFlow.js depende de operaciones matemáticas bastante complejas. Estas operaciones se procesan en los llamados backends.

2. Aprendizaje Automático en el Navegador

Short description:

La web puede utilizar diferentes backends, como WebGL, para el aprendizaje automático. El audio se puede convertir en espectrogramas para comparar con modelos. Una superposición puede mejorar la precisión de detección. TensorFlow ofrece detección de comandos de voz y permite entrenar modelos personalizados con Teachable Machine. El aprendizaje automático en el navegador permite usar y entrenar modelos directamente en el dispositivo.

Por ahora, la web puede utilizar un par de backends diferentes dependiendo del navegador y el sistema operativo. La forma más eficiente sería utilizar el backend WebGPU, pero eso requiere la API WebGPU que solo está disponible en Chrome Canary detrás de la bandera. Así que en mi ejemplo, estoy utilizando WebGL, que es el backend más eficiente que está disponible en la mayoría de los navegadores en este momento.

Ahora, probablemente todos hayamos visto ejemplos básicos de reconocimiento de imágenes, como en este caso la detección de puntos de referencia faciales, donde podemos dar una imagen como entrada y luego recibir la posición de los puntos clave en la cara. Y las imágenes funcionan bastante bien con el aprendizaje automático porque al final, los modelos de aprendizaje automático esperan una entrada numérica y devuelven una salida, y las imágenes no son más que los valores numéricos RGB en un rectángulo 2D.

Ahora, en mi caso, quiero reconocer ciertas palabras, y bueno, las palabras no son imágenes, ¿verdad? Excepto cuando lo son. Así que al final, cada fragmento de audio se puede convertir en un espectrograma, y imaginemos que tenemos 100 grabaciones de mí diciendo las palabras a Sandler. Ahora tenemos 100 imágenes de este clip de dos segundos que ahora podemos comparar con el espectrograma de mi charla. Ahora, por supuesto, es difícil comparar un espectrograma de toda la charla que crece con el tiempo con mi clip de dos segundos, pero podemos dividir la pista completa en partes de dos segundos y comparar esos dos segundos con nuestro modelo. El problema aquí es que perderemos muchas palabras, porque no podemos estar seguros de que la división realmente corte una palabra completa. La solución aquí sería agregar una superposición. En este caso, tenemos una superposición de 0.5, lo que significa que tenemos más imágenes por segundo para analizar. Cuanto mayor sea la superposición, más imágenes habrá para analizar y más precisa será la detección. En mi ejemplo, incluso necesité una superposición de 0.95 para obtener un resultado significativo.

Ahora, similar a la detección de puntos de referencia faciales, TensorFlow también ofrece detección de comandos de voz, y al igual que antes, podemos importarlo, podemos crear un reconocedor y podemos comenzar a escuchar. El modelo predeterminado busca un par de palabras clave predefinidas, pero por supuesto, mis palabras en suizo alemán no están en esa lista, así que necesito entrenar mi propio modelo. Con Teachable Machine, Google publicó una aplicación web que te permite entrenar tu propio modelo de imagen o audio basado en tus propios datos de entrada. En la derecha puedes ver mis datos de entrenamiento, donde tengo alrededor de una hora de mí hablando como la clase de fondo, y luego tenemos 50 y 70 ejemplos de las dos palabras clave que quiero detectar. Y con Teachable Machine, ahora puedo entrenar los datos en el navegador y simplemente genera el modelo para mí. Ahora, todo lo que necesito hacer es pasar el modelo creado y los metadatos a la función Create y ahora usará el nuevo modelo para detectar mi entrada personalizada. Mis diapositivas se están ejecutando en el navegador y ahora puedo activar el oyente. Eso puede llevar algo de tiempo. Ahora, cada vez que digo palabras como MandEffect, activará el zumbador. Y en realidad funcionó bastante bien en mi última charla en suizo alemán. Así que realmente espero haberlos inspirado con esta breve visión del aprendizaje automático en el navegador para que podamos usar modelos, entrenar nuevos modelos, todo directamente en el dispositivo en el navegador. Para obtener más y un conocimiento más profundo, también puedo recomendar el curso gratuito de Jason Maes de Google Machine Learning para desarrolladores web. Y con esto, me gustaría agradecerles por su interés y les deseo un buen resto de la conferencia. ¡Adiós!

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

Una Guía del Comportamiento de Renderizado de React
React Advanced Conference 2022React Advanced Conference 2022
25 min
Una Guía del Comportamiento de Renderizado de React
Top Content
React es una biblioteca para "renderizar" UI a partir de componentes, pero muchos usuarios se encuentran confundidos acerca de cómo funciona realmente el renderizado de React. ¿Qué significan términos como "renderizado", "reconciliación", "Fibers", y "committing"? ¿Cuándo ocurren los renderizados? ¿Cómo afecta el Contexto al renderizado, y cómo las bibliotecas como Redux causan actualizaciones? En esta charla, aclararemos la confusión y proporcionaremos una base sólida para entender cuándo, por qué, y cómo React renderiza. Veremos: - Qué es realmente el "renderizado" - Cómo React encola los renderizados y el comportamiento de renderizado estándar - Cómo se utilizan las claves y los tipos de componentes en el renderizado - Técnicas para optimizar el rendimiento del renderizado - Cómo el uso del contexto afecta al comportamiento del renderizado - Cómo las bibliotecas externas se integran en el renderizado de React
Construyendo Mejores Sitios Web con Remix
React Summit Remote Edition 2021React Summit Remote Edition 2021
33 min
Construyendo Mejores Sitios Web con Remix
Top Content
Remix es un nuevo marco de trabajo web de los creadores de React Router que te ayuda a construir mejores y más rápidos sitios web a través de una sólida comprensión de los fundamentos de la web. Remix se encarga de las tareas pesadas como la renderización del servidor, la división de código, la precarga y la navegación, y te deja con la parte divertida: ¡construir algo increíble!
Compilador React Forget - Entendiendo React Idiomático
React Advanced Conference 2023React Advanced Conference 2023
33 min
Compilador React Forget - Entendiendo React Idiomático
Top Content
React ofrece un contrato a los desarrolladores: cumple ciertas reglas y React puede actualizar eficiente y correctamente la interfaz de usuario. En esta charla exploraremos estas reglas en profundidad, entendiendo el razonamiento detrás de ellas y cómo desbloquean nuevas direcciones como la memoización automática.
Uso efectivo de useEffect
React Advanced Conference 2022React Advanced Conference 2022
30 min
Uso efectivo de useEffect
Top Content
¿Puede useEffect afectar negativamente a tu base de código? Desde la obtención de datos hasta la lucha con las APIs imperativas, los efectos secundarios son una de las mayores fuentes de frustración en el desarrollo de aplicaciones web. Y seamos honestos, poner todo en ganchos useEffect no ayuda mucho. En esta charla, desmitificaremos el gancho useEffect y obtendremos una mejor comprensión de cuándo (y cuándo no) usarlo, así como descubriremos cómo los efectos declarativos pueden hacer que la gestión de efectos sea más mantenible incluso en las aplicaciones React más complejas.
Enrutamiento en React 18 y más allá
React Summit 2022React Summit 2022
20 min
Enrutamiento en React 18 y más allá
Top Content
Concurrent React y Server Components están cambiando la forma en que pensamos sobre el enrutamiento, la renderización y la obtención de datos en las aplicaciones web. Next.js recientemente compartió parte de su visión para ayudar a los desarrolladores a adoptar estas nuevas características de React y aprovechar los beneficios que desbloquean.En esta charla, exploraremos el pasado, presente y futuro del enrutamiento en las aplicaciones de front-end y discutiremos cómo las nuevas características en React y Next.js pueden ayudarnos a arquitectar aplicaciones más eficientes y con más funciones.
(Más fácil) Visualización interactiva de datos en React
React Advanced Conference 2021React Advanced Conference 2021
27 min
(Más fácil) Visualización interactiva de datos en React
Top Content
Si estás construyendo un tablero de control, una plataforma de análisis o cualquier aplicación web donde necesites dar a tus usuarios una visión de sus datos, necesitas hermosas, personalizadas, visualizaciones de datos interactivas en tu aplicación React. Pero construir visualizaciones a mano con una biblioteca de bajo nivel como D3 puede ser un gran dolor de cabeza, que implica reinventar la rueda. En esta charla, veremos cómo el desarrollo de visualización de datos puede ser mucho más fácil gracias a herramientas como Plot, una biblioteca de dataviz de alto nivel para una rápida y fácil creación de gráficos, y Observable, un entorno de prototipado de dataviz reactivo, ambos del creador de D3. A través de ejemplos de codificación en vivo, exploraremos cómo los refs de React nos permiten delegar la manipulación del DOM para nuestras visualizaciones de datos, y cómo la funcionalidad de incrustación de Observable nos permite reutilizar fácilmente las visualizaciones construidas por la comunidad para nuestros propios datos y casos de uso. Al final de esta charla, sabremos cómo obtener una hermosa, personalizada, visualización de datos interactiva en nuestras aplicaciones con una fracción del tiempo y esfuerzo!

Workshops on related topic

Masterclass de Depuración de Rendimiento de React
React Summit 2023React Summit 2023
170 min
Masterclass de Depuración de Rendimiento de React
Top Content
Featured WorkshopFree
Ivan Akulov
Ivan Akulov
Los primeros intentos de Ivan en la depuración de rendimiento fueron caóticos. Vería una interacción lenta, intentaría una optimización aleatoria, vería que no ayudaba, y seguiría intentando otras optimizaciones hasta que encontraba la correcta (o se rendía).
En aquel entonces, Ivan no sabía cómo usar bien las herramientas de rendimiento. Haría una grabación en Chrome DevTools o React Profiler, la examinaría, intentaría hacer clic en cosas aleatorias, y luego la cerraría frustrado unos minutos después. Ahora, Ivan sabe exactamente dónde y qué buscar. Y en esta masterclass, Ivan te enseñará eso también.
Así es como va a funcionar. Tomaremos una aplicación lenta → la depuraremos (usando herramientas como Chrome DevTools, React Profiler, y why-did-you-render) → identificaremos el cuello de botella → y luego repetiremos, varias veces más. No hablaremos de las soluciones (en el 90% de los casos, es simplemente el viejo y regular useMemo() o memo()). Pero hablaremos de todo lo que viene antes - y aprenderemos a analizar cualquier problema de rendimiento de React, paso a paso.
(Nota: Esta masterclass es más adecuada para ingenieros que ya están familiarizados con cómo funcionan useMemo() y memo() - pero quieren mejorar en el uso de las herramientas de rendimiento alrededor de React. Además, estaremos cubriendo el rendimiento de la interacción, no la velocidad de carga, por lo que no escucharás una palabra sobre Lighthouse 🤐)
Aventuras de Renderizado Concurrente en React 18
React Advanced Conference 2021React Advanced Conference 2021
132 min
Aventuras de Renderizado Concurrente en React 18
Top Content
Featured WorkshopFree
Maurice de Beijer
Maurice de Beijer
Con el lanzamiento de React 18 finalmente obtenemos el tan esperado renderizado concurrente. Pero, ¿cómo va a afectar eso a tu aplicación? ¿Cuáles son los beneficios del renderizado concurrente en React? ¿Qué necesitas hacer para cambiar al renderizado concurrente cuando actualices a React 18? ¿Y qué pasa si no quieres o no puedes usar el renderizado concurrente todavía?

¡Hay algunos cambios de comportamiento de los que debes estar al tanto! En esta masterclass cubriremos todos esos temas y más.

Acompáñame con tu portátil en esta masterclass interactiva. Verás lo fácil que es cambiar al renderizado concurrente en tu aplicación React. Aprenderás todo sobre el renderizado concurrente, SuspenseList, la API startTransition y más.
Consejos sobre React Hooks que solo los profesionales conocen
React Summit Remote Edition 2021React Summit Remote Edition 2021
177 min
Consejos sobre React Hooks que solo los profesionales conocen
Top Content
Featured Workshop
Maurice de Beijer
Maurice de Beijer
La adición de la API de hooks a React fue un cambio bastante importante. Antes de los hooks, la mayoría de los componentos tenían que ser basados en clases. Ahora, con los hooks, estos son a menudo componentes funcionales mucho más simples. Los hooks pueden ser realmente simples de usar. Casi engañosamente simples. Porque todavía hay muchas formas en las que puedes equivocarte con los hooks. Y a menudo resulta que hay muchas formas en las que puedes mejorar tus componentes con una mejor comprensión de cómo se puede usar cada hook de React.Aprenderás todo sobre los pros y los contras de los diversos hooks. Aprenderás cuándo usar useState() versus useReducer(). Veremos cómo usar useContext() de manera eficiente. Verás cuándo usar useLayoutEffect() y cuándo useEffect() es mejor.
React, TypeScript y TDD
React Advanced Conference 2021React Advanced Conference 2021
174 min
React, TypeScript y TDD
Top Content
Featured WorkshopFree
Paul Everitt
Paul Everitt
ReactJS es extremadamente popular y, por lo tanto, ampliamente soportado. TypeScript está ganando popularidad y, por lo tanto, cada vez más soportado.

¿Los dos juntos? No tanto. Dado que ambos cambian rápidamente, es difícil encontrar materiales de aprendizaje precisos.

¿React+TypeScript, con los IDEs de JetBrains? Esa combinación de tres partes es el tema de esta serie. Mostraremos un poco sobre mucho. Es decir, los pasos clave para ser productivo, en el IDE, para proyectos de React utilizando TypeScript. En el camino, mostraremos el desarrollo guiado por pruebas y enfatizaremos consejos y trucos en el IDE.
Masterclass Web3 - Construyendo Tu Primer Dapp
React Advanced Conference 2021React Advanced Conference 2021
145 min
Masterclass Web3 - Construyendo Tu Primer Dapp
Top Content
Featured WorkshopFree
Nader Dabit
Nader Dabit
En esta masterclass, aprenderás cómo construir tu primer dapp de pila completa en la blockchain de Ethereum, leyendo y escribiendo datos en la red, y conectando una aplicación de front end al contrato que has desplegado. Al final de la masterclass, entenderás cómo configurar un entorno de desarrollo de pila completa, ejecutar un nodo local e interactuar con cualquier contrato inteligente usando React, HardHat y Ethers.js.
Diseñando Pruebas Efectivas con la Biblioteca de Pruebas de React
React Summit 2023React Summit 2023
151 min
Diseñando Pruebas Efectivas con la Biblioteca de Pruebas de React
Top Content
Featured Workshop
Josh Justice
Josh Justice
La Biblioteca de Pruebas de React es un gran marco para las pruebas de componentes de React porque responde muchas preguntas por ti, por lo que no necesitas preocuparte por esas preguntas. Pero eso no significa que las pruebas sean fáciles. Todavía hay muchas preguntas que tienes que resolver por ti mismo: ¿Cuántas pruebas de componentes debes escribir vs pruebas de extremo a extremo o pruebas de unidad de nivel inferior? ¿Cómo puedes probar una cierta línea de código que es difícil de probar? ¿Y qué se supone que debes hacer con esa persistente advertencia de act()?
En esta masterclass de tres horas, presentaremos la Biblioteca de Pruebas de React junto con un modelo mental de cómo pensar en el diseño de tus pruebas de componentes. Este modelo mental te ayudará a ver cómo probar cada bit de lógica, si debes o no simular dependencias, y ayudará a mejorar el diseño de tus componentes. Te irás con las herramientas, técnicas y principios que necesitas para implementar pruebas de componentes de bajo costo y alto valor.
Tabla de contenidos- Los diferentes tipos de pruebas de aplicaciones de React, y dónde encajan las pruebas de componentes- Un modelo mental para pensar en las entradas y salidas de los componentes que pruebas- Opciones para seleccionar elementos DOM para verificar e interactuar con ellos- El valor de los mocks y por qué no deben evitarse- Los desafíos con la asincronía en las pruebas de RTL y cómo manejarlos
Requisitos previos- Familiaridad con la construcción de aplicaciones con React- Experiencia básica escribiendo pruebas automatizadas con Jest u otro marco de pruebas unitarias- No necesitas ninguna experiencia con la Biblioteca de Pruebas de React- Configuración de la máquina: Node LTS, Yarn