Aplicaciones de React Microfrontend para TVs y Consolas de Juegos

Rate this content
Bookmark

DAZN es el servicio de transmisión de deportes de más rápido crecimiento y durante esta charla, consideraremos nuestra experiencia en la construcción de aplicaciones de TV (para ps5, xbox, LG, Samsung y otros objetivos) con arquitectura de micro frontend. Puedes esperar viajar en el tiempo para ver cómo comenzó y qué tenemos en este momento, qué hace que el desarrollo de TV sea diferente en comparación con la web, al igual que las técnicas que nos permiten compartir código entre objetivos. Aprenderás cómo probamos nuestra aplicación con un laboratorio de pruebas remoto interno, así como nuestro proceso de implementación y lanzamiento.

25 min
17 Jun, 2022

Video Summary and Transcription

Esta charla discute el viaje de arquitectura de una plataforma de participación deportiva, pasando de un monolito a una arquitectura de microfrontend. Se presenta la arquitectura de microfrontend ALEP para gestionar la complejidad de un catálogo complejo y permitir una implementación y gestión de versiones eficientes. El proceso de implementación y lanzamiento implica el uso de AliB y la actualización de metadatos en el panel de control de implementación. La integración con React y el proceso de desarrollo de TV implica el uso del paquete AliB y tener ciclos de vida independientes para los paquetes. Se utiliza código compartido en diferentes objetivos y las pruebas se realizan en un laboratorio virtual remoto. También se aborda la gestión del enfoque y la detección de momentos clave en los deportes.

Available in English

1. Introducción y Viaje de Arquitectura

Short description:

Antes que nada, permítanme presentarme. Soy Denys, un ingeniero principal en la zona. Cambiamos todos los aspectos de cómo los fanáticos se involucran con los deportes, desde la distribución de contenido hasta la creación de nuestros propios documentales. Estamos disponibles en varios dispositivos, incluyendo web, móviles, smart TVs, consolas de juegos y decodificadores. Hoy nos enfocaremos en los objetivos de HTML5/React. En 2016, comenzamos con una arquitectura monolítica para Samsung Hue, pero a medida que crecimos, hicimos la transición a una arquitectura de micro front-end con límites de dominio claros. Si estás interesado en nuestro viaje de monolito a microfrontend, te recomiendo ver una charla de mi colega Max Galla. También introdujimos un panel de despliegue para nuestros nuevos microfrontends, permitiendo lanzamientos independientes para cada dominio.

Genial. Antes que nada, permítanme presentarme. Mi nombre es Denys. Soy un ingeniero principal en la zona. Y si quieres revisar algunos ejemplos de código a los que voy a hacer referencia, puedes usar mi cuenta de GitHub y también si quieres encontrar alguno de mis contactos, solo sigue mi sitio web. En la zona, cambiamos todos los aspectos de cómo los fanáticos se involucran con los deportes, desde la distribución de contenido hasta la creación de nuestros propios documentales y una experiencia aumentada completamente extendida con increíbles características que hemos construido, que funcionan en tiempo real. Pero lo interesante también es que estamos disponibles en docenas de dispositivos, como por supuesto, dispositivos web, dispositivos móviles, pero también smart TVs, consolas de juegos, decodificadores y sobre estos últimos tres, vamos a hablar en los próximos 20, 25 minutos aproximadamente. Así que antes de continuar, solo quiero compartir esta división que tenemos en la zona. Tenemos dos grupos de objetivos. Un grupo es HTML5, o probablemente podríamos llamarlo objetivos de React, y otro es personalizado. Así que hoy nos centraremos en el primero. El otro es más para lenguajes nativos y como puedes ver, cubre muchos objetivos diferentes, que son Samsung, LG, PlayStation, etc. Hay muchos de ellos. Ahora, me gustaría llevarlos a todos a una aventura y mostrarles cómo comenzó nuestro viaje de arquitectura, cómo iteramos sobre él y lo que tenemos actualmente. Y como puedes imaginar, con Samsung Hue en 2016, cuando la Zona recién comenzaba, era la forma en que la aplicación fue creada incluso por una empresa externa y comenzamos, por supuesto, con una arquitectura monolítica porque el monolito es una elección obvia para Samsung Hue, ya que te ayuda a crecer lo suficientemente rápido a pequeña escala. Sí. Y funciona muy bien hasta que tu equipo de desarrollo y las características de tu aplicación son relativamente pequeñas. Y más tarde, entramos en el espacio de crecimiento rápido donde tenemos cientos de ingenieros y, por supuesto, a esta escala, una de las cosas más importantes es dar autonomía a los equipos. En realidad, es donde entramos como una empresa de ingeniería y en lugar de la empresa externa, hemos reconstruido la aplicación completamente desde cero. Es una arquitectura de micro front-end donde implementamos una división vertical de los dominios. Y solo para darte una idea de los dominios, los dominios son algo con lo que en ese momento pensamos, con límites claros. Por ejemplo, tenemos el dominio de autorización que es responsable de los flujos de inicio de sesión y recuperación de contraseña. Tenemos el dominio del catálogo que es básicamente responsable de la navegación del contenido. Tenemos el dominio de la página de aprendizaje que es responsable de las páginas C, y así sucesivamente. Y creo que entiendes la idea. Si estás interesado en este viaje de cómo realmente iteramos desde el monolito hasta el microfrontend, realmente te recomiendo esta charla de mi amigo y colega Max Galla que hizo, creo, el año pasado. Un viaje realmente interesante. Pero al mismo tiempo, también introdujimos un panel de despliegue para nuestros nuevos microfrontends. Por lo tanto, este dominio puede ser lanzado de forma independiente y en ese momento, solo un equipo era responsable de todo el dominio. Y todo estaba bien, fue realmente, quiero decir, un gran paso adelante desde lo que teníamos anteriormente.

2. Catálogo Complejo y Arquitectura de Microfrontend

Short description:

Tenemos un catálogo complejo con características como jugador, momentos clave y un panel con mini aplicaciones desarrolladas por varios equipos. Gestionar esta complejidad se vuelve desafiante ya que varios equipos comparten artefactos desplegables y enfrentan congestión de lanzamientos. Para abordar esto, introdujimos la arquitectura de microfrontend ALEP, que permite la división vertical por dominios y la división horizontal basada en características. Esta arquitectura permite obtener características bajo demanda, mejorando la eficiencia de implementación y la gestión de versiones.

Pero seguimos creciendo, llegamos al punto en el que tenemos más de varios cientos de ingenieros y algunos de los dominios se vuelven mucho más complejos de lo que eran inicialmente. Así que el catálogo en sí, sí, es un lugar donde puedes ver el catálogo, pero también tiene muchas características. Por ejemplo, el jugador. El jugador, un paquete bastante complejo y rico en características, tasa de bits adaptativa, gestión de derechos digitales, entre otras cosas que tiene como objetivo soportar. Más adelante, tenemos momentos clave. ¿Ves estos puntos? ¿Sí? Justo en el jugador. En realidad, representan los momentos interesantes del juego. Tenemos esto para varios deportes, para fútbol, boxeo, MotoGP y recientemente lo introdujimos para el béisbol. Te recomiendo encarecidamente que lo veas. Aplicamos varias técnicas, incluido el machine learning, para detectarlos en tiempo real y representarlos correctamente en la línea de tiempo según el video. Así que sabes exactamente cuándo ocurre el momento. Como dije, funciona para contenido VOD y contenido en vivo.

También tenemos aquí el panel, que es una especie de miniaplicación donde se integran muchas mini cosas, pero todas son desarrolladas por varios equipos, como Formation. Nuevamente, viven en sincronía total con el video. Si ocurre alguna transformación en el campo mientras estás viendo el juego, se reflejará ese cambio, ¿verdad? Y como puedes imaginar, necesitamos algo diferente para gestionar todo esto, porque el Catálogo ya no pertenece a un solo equipo. Hay muchos equipos que ahora están allí. Así que estamos teniendo los mismos problemas. Varios equipos comparten los mismos artefactos desplegables y estamos teniendo congestión de lanzamientos porque si estás promoviendo el cambio entre tus entornos de prueba y probablemente tienes un entorno de preparación y un entorno de producción, y digamos que un jugador intenta lanzar sus cambios, pero se atascan o encuentran un problema, ¿verdad? Cualquier otro equipo queda bloqueado con su lanzamiento porque necesitan esperar hasta que se resuelva el problema o alguien elimine esos cambios del código, lo cual es complicado en muchos casos. Tenemos estados de lanzamiento de APAC a pesar de que acabo de mostrarte una demostración. Tenemos un panel de despliegue donde puedes desplegar el capítulo, todo el capítulo. Conoces la versión de todo el capítulo, pero ¿qué versión del paquete? Buena suerte para averiguarlo. Necesitas mantener algo o desarrollar una solución personalizada para esto. Sí, bastante complicado. Iteramos sobre esto e introdujimos una nueva arquitectura de microfrontend architecture, que llamamos ALEP, que significa Carga de Biblioteca Asincrónica. Aún mantenemos nuestra división vertical por dominios, pero es complementaria, la complementamos con una división horizontal basada en características donde las características se pueden obtener bajo demanda y voy a mostrarte ahora cómo funciona exactamente. Así que consideremos primero desde la perspectiva web, qué sucede en acción cuando visitas la zona. Como primera cosa, ingresas a nuestro sitio web, cargamos tu bootstrap. Bootstrap es un modelo que se encarga de obtener todos los capítulos posteriores. También se encarga de preparar nuestro entorno de runtime. También verifica tu estado anterior para saber qué capítulo cargar y algunas otras cosas.

3. Proceso de Despliegue y Liberación de AliB

Short description:

Tan pronto como se complete el bootstrap, se obtiene el capítulo y el catálogo. AliB juega un papel crucial en este proceso, con dos pasos: despliegue y liberación. El despliegue por sí solo no garantiza el consumo; es necesaria la liberación. Los equipos actualizan los metadatos en el panel de despliegue y el catálogo obtiene estos metadatos durante el tiempo de ejecución para determinar qué se debe consumir.

Y a continuación, tan pronto como se complete el bootstrap, se obtiene el capítulo y digamos que se obtiene el catálogo y aquí es donde AliB entra en escena. Y para comprender mejor cómo funciona AliB, considerémoslo desde dos perspectivas, la experiencia del desarrollador y el tiempo de ejecución. En ese lado de la experiencia del desarrollador, los equipos tienen plena autonomía para desarrollar y desplegar sus paquetes cuando estén listos. Y hay algo muy especial. En AliB, tenemos dos pasos, despliegue y liberación. Y si has desplegado algo, no significa que alguien lo consumirá. Nadie realmente lo consumirá hasta que ocurra la liberación. Y los equipos pueden realizar la liberación, actualizando los metadatos específicos desde el panel de despliegue del front-end. Lo que significa que en el tiempo de ejecución, el catálogo obtiene los metadatos del paquete primero para ver qué se está liberando y qué se debe consumir ahora en el tiempo de ejecución. Y luego se inicializa según la demanda.

4. Proceso de Integración a React y Desarrollo en TV

Short description:

La integración a React implica el uso del paquete AliB y la especificación del paquete y las opciones deseadas. Esto garantiza ciclos de vida independientes para los paquetes y permite que los equipos tengan control sobre las versiones menores y de corrección. La arquitectura de microfrontend en dispositivos de TV es similar a la web, pero con diferencias en el runner y la necesidad de modelos nativos. Cada objetivo tiene una infraestructura independiente y los cambios se pueden promover de forma independiente según las pruebas. El proceso de desarrollo en TV comienza en el navegador, con opciones como storybooks y sandboxes para el desarrollo de paquetes.

Desde la integración a React, se ve muy similar en esta diapositiva. Básicamente, hay un hook que es el uso del paquete AliB. Estás especificando el paquete en el que estás interesado, estás especificando algunas opciones, incluyendo la versión principal hasta la cual estás interesado, para asegurarte de que todos los cambios integrados no rompan tu estado actual. Y así nos aseguramos de que los paquetes tengan un ciclo de vida completamente independiente. Los equipos tienen control total sobre sus versiones menores y de corrección. Para las versiones principales, necesitan cambios de integración, van a necesitar actualizar el catálogo, y se aplica a nivel de código. Y esto respalda completamente la idea de autonomía y construirlo según tus propias declaraciones, en lo que realmente creemos.

Sorpresa, sorpresa, tenemos exactamente la misma arquitectura de micro frontend en dispositivos de TV. Lo que tenemos en TV es diferente en comparación con eso. Tenemos nuestro runner, o apk, o llámalo como quieras, que tratamos de mantener lo más pequeño posible. En los mejores casos, es solo una URL, en los buenos casos, es solo un manifiesto, en algunos casos también incluye modelos nativos porque si necesitas modelos nativos, deben integrarse allí. Pero luego, se carga el bootstrap, y luego los capítulos, y luego nuevamente los paquetes como puedes ver en la captura de pantalla. Pero en comparación con la web, en TV y consolas de juegos, todos los objetivos son diferentes. Y son más diferentes que solo diferentes motores de navegadores, porque hay un motor de navegación diferente, hay diferentes eventos de ciclo de vida, hay diferentes eventos de interfaz de usuario y diferentes runtime. Y algo que está disponible en un objetivo puede ser simplemente imposible en otros objetivos. Es por eso que delegamos algunas responsabilidades adicionales en TV al reproductor de bootstrap, en comparación con el de la web, además de la funcionalidad normal. También admite varias transformaciones, como la configuración de varias cosas, incluyendo la asignación de teclas, porque los eventos de izquierda, arriba, derecha, abajo son todos diferentes en diferentes objetivos. También es diferente en Xbox y completamente diferente en PlayStation. También es importante destacar que cada objetivo tiene una infraestructura completamente independiente. Es crucial, como recordarás. Todos son diferentes. Por lo tanto, mantenemos toda nuestra infraestructura con código, y si estás interesado en cómo básicamente construir una infraestructura lista para la producción para tu frontend con TypeScript y Terraform, hice una charla en el último React advanced y hay un enlace para el ejemplo de una infraestructura similar que tenemos. Y sí, también hay una grabación. Así que puedes echarle un vistazo.

Similar al anterior, los equipos deben tener autonomía para lanzar a aquellos objetivos donde se haya probado, ¿verdad? Porque todos son diferentes. Por lo tanto, es posible promover cambios de forma completamente independiente, por lo que no es necesario ir inmediatamente a todos los objetivos. Puedes lanzar solo donde ya se haya probado. Pero, ¿qué hay del proceso de desarrollo en TV? El proceso de desarrollo desde el principio siempre comienza en tu navegador, ¿verdad? Puedes usar Chrome, Firefox, lo que prefieras. Para la mayoría de los paquetes tenemos storybooks, para algunos tenemos nuestras propias sandboxes. Depende del equipo decidir qué les gusta para sus necesidades de desarrollo.

5. Shared Code and Remote Virtual Lab

Short description:

Compartimos código de estado y de interfaz de usuario entre objetivos, incluso cuando la interfaz de usuario se ve diferente. Los Contextos de Creación de React nos permiten utilizar componentes en una base de código común y hacer cumplir su interfaz con TypeScript. Las banderas de características y las audiencias asignadas ayudan a alternar componentes según las condiciones. También tenemos modelos específicos de objetivo e intercambio de modelos heredados. Las pruebas son cruciales ya que el código compartido puede no funcionar de inmediato. Tenemos un laboratorio virtual remoto con una aplicación web y pruebas de extremo a extremo, accediendo a los dispositivos a través de la API. La Raspberry Pi controla la cámara, el televisor y el control remoto. La interfaz permite la ocupación y el control del dispositivo a través de una interfaz web o un control remoto. Los dispositivos se encuentran en diferentes ubicaciones, no en tu hogar.

También compartimos código de estado e interfaz de usuario principalmente entre objetivos. Incluso tenemos casos en los que se comparte código entre los objetivos web y de TV, aunque en cuanto a la interfaz de usuario se ve completamente diferente. Pero en cuanto al estado, puede ser muy similar y es posible que desees aprovechar tus habilidades allí. Y para compartir, utilizamos diferentes técnicas.

Una de ellas son los Contextos de Creación de React, que son básicamente muy poderosos y sencillos. La idea aquí es que en la base de código común, estás utilizando componentes que están disponibles en tu contexto. Entonces, en este caso, a nivel de objetivo, puedes definir qué componentes pasar y tu código común se vuelve agnóstico a lo que vayas a pasar y puede hacer cumplir la interfaz de esos componentes con TypeScript.

Con las banderas de características y las audiencias asignadas, otra técnica popular y muy poderosa porque básicamente con las banderas de características puedes alternar tu componente, de manera sencilla. Pero con la audiencia, complementaria a esto, puedes definir gradualmente en qué condiciones deseas alternarlo. Y digamos que tienes un incidente con algo, digamos que no has probado que haya una fuga de memoria en tu nueva y elegante función en ciertos objetivos, incluso puedes especificar las versiones para los objetivos en los que deseas desactivarlo. Seguro, tenemos modelos específicos de objetivo. Como legado, también tenemos el intercambio de modelos. No soy un gran fanático de este enfoque, pero el intercambio de modelos, sí, ha estado con nosotros durante un tiempo y todavía está presente, pero la principal desventaja de esto es que debes proporcionar un modelo con una interfaz completamente igual sin ninguna ayuda de TypeScript o cualquier otra cosa.

Y solo quiero recordarte, en las TVs, todos los objetivos son diferentes, por lo que tenemos mucho código compartido, pero eso no significa que esté garantizado que este código compartido vaya a funcionar de inmediato, por lo que necesitamos probar algo. Bueno, utilizar una sala de cine como en esta diapositiva es genial, pero requiere mucho espacio en tu hogar y al menos necesitarás un buen cono de hierro durante el verano. Y para ser sincero contigo, comenzamos con este enfoque donde teníamos salas de cine. Aún tenemos esas en nuestra oficina, pero encontramos algo mejor para el trabajo remoto. Y en esta diapositiva puedes ver una versión simplificada de alto nivel de la arquitectura de nuestro laboratorio virtual remoto, donde puedes ver que hay dos puntos de entrada. Uno es una aplicación web y el otro son pruebas de extremo a extremo. Entonces, con la aplicación web, puedes, sí, es realmente útil para, como, pruebas exploratorias y pruebas manuales cuando las pruebas de extremo a extremo aún pueden acceder a nuestros dispositivos remotos a través de la API. La capa de API es responsable de la autorización, el encolamiento y la intermediación de las solicitudes al servicio de Raspberry Pi. Ahora, en la Raspberry Pi, tenemos esta responsabilidad compartida de controlar la cámara frente al televisor para grabar y controlar el propio televisor para encenderlo, apagarlo, reiniciarlo y controlar el control remoto. Y déjame mostrarte cómo se ve la interfaz. Así que comenzamos en la página, podemos ocupar el dispositivo ahora, el dispositivo se reserva para nosotros. Entonces, cuando estoy haciendo pruebas, nadie más estará usando este dispositivo. Y como puedes ver, puedo usar solo la interfaz web, puedo usar este elegante control remoto para controlarlo. Para algunos de los objetivos, incluso implementamos un depurador. Y para aquellos que trabajaron con Cordova hace muchos años antes de que Chrome introdujera el depurador remoto este complemento puede resultar familiar, pero ha estado duplicado durante un tiempo y estamos respaldando su propia versión. También quiero llamar tu atención sobre el hecho, no se ha cargado, aquí vamos, que los dispositivos, esos dispositivos, se encuentran en diferentes ubicaciones. Entonces, algunos de ellos están ubicados en Polonia, otros en el Reino Unido y definitivamente no en tu hogar.

6. Testing Changes and Smart TV Focus Management

Short description:

Para garantizar flexibilidad en las pruebas de cambios, implementamos una superposición para entornos no productivos que permite obtener versiones específicas de paquetes utilizando los ID de ejecución de GitHub. Los equipos pueden integrar estos ID en sus canalizaciones de envío, y Alip respetará las anulaciones y obtendrá los paquetes correspondientes. También aprovechamos los proyectos y generadores de plantillas para simplificar la configuración del proyecto. Al desarrollar para Smart TVs, la gestión del enfoque puede ser un desafío. Tenemos una solución interna y proyectos de código abierto que abordan esto. Las opciones incluyen mantener manualmente un mapa de enfoque, una solución basada en distancia y prioridad, y un enfoque declarativo utilizando componentes de orden superior. También se admite la navegación con puntero, con un comportamiento ligeramente diferente para las TVs con métodos de entrada de puntero.

Y necesitamos tener flexibilidad para probar nuestros cambios. No podemos simplemente reinstalar cada vez porque llevará mucho tiempo cada vez que hagamos un cambio en un nuevo APK. Por lo tanto, para entornos no productivos, implementamos una superposición muy interesante, que puedes abrir con una combinación específica, y te permite escribir el ID de ejecución de GitHub para tu envío específico, y en este caso, Alip respetará este ID de ejecución para el paquete y obtendrá la versión exacta de este paquete. Y es posible porque en el lado de Alip, tenemos algo adicional para entornos no productivos. Antes de que Alip haga una búsqueda del archivo json de versión para determinar qué paquete se debe descargar, verifica si hay alguna anulación de almacenamiento local. Y si las hay, entonces las respetará. Por lo tanto, en este caso, los equipos son responsables de integrar un ID de ejecución de GitHub específico en su canalización de envío, que carga su paquete en Dev Infra y luego Alip es responsable de respetar esas anulaciones y obtenerlas según la demanda.

Como puedes ver, hay muchas cosas que los equipos deben recordar, y puede que te preocupe cómo comenzar un nuevo proyecto con una configuración tan compleja. Y para esto, estamos, por supuesto, aprovechando el poder de los proyectos de plantillas. Por lo tanto, tenemos generadores creados específicamente para esto, que configuran tu proyecto con canalizaciones de configuración y las mejores técnicas que compartimos. En cuanto a la observabilidad, no voy a centrarme en ello porque casi se nos acaba el tiempo, y realmente quiero recomendarte una charla, que Konstantinos de la zona hizo hoy. Así que si te la perdiste, simplemente mira la grabación. Realmente genial. También es algo realmente crucial. Pero ahora pasaremos al gestor de enfoque. Al desarrollar algo para Smart TVs, hay algo especial en ellas, ¿verdad? Es como el control de entrada. No tienes ratón ni pantalla táctil, probablemente tienes un puntero, pero es una historia diferente. Y típicamente, el enfoque cambia en reacción a algunos de tus eventos clave. Arriba, abajo, izquierda, derecha. Y para esto, tenemos una solución interna, que aún no se ha publicado como código abierto, pero solo quiero compartir contigo una idea de cómo es posible abordar los desafíos de la gestión del enfoque y algunos proyectos de código abierto que puedes usar si estás interesado en este tema. Entonces, uno de los enfoques más directos es probablemente mantener manualmente un mapa de enfoque. No escala en absoluto, pero es muy adecuado para aplicaciones pequeñas. Y la idea aquí es que simplemente creas un objeto que es una lista enlazada y estás iterando de manera imperativa, cambiando el nodo activo. El otro enfoque que utiliza Netflix es una solución basada en distancia y prioridad donde simplemente estás calculando los nodos más cercanos en función de las prioridades, de izquierda a derecha, de derecha a izquierda y otros, qué debe ser el siguiente enfoque. Y la otra cosa que estamos utilizando es una solución más declarativa donde especificas componentes de orden superior como lista vertical, lista horizontal y cuadrícula.

7. Focusable Nodes and Key Moments Detection

Short description:

Puedes combinar diferentes soluciones para hacer que tu nodo sea enfocable e implementar el tuyo propio. La navegación con puntero en televisores con controles remotos mágicos tiene un comportamiento ligeramente diferente, por lo que los diseñadores deben tenerlo en cuenta. Para mejorar el rendimiento, evita pintar y diseñar innecesariamente, renderiza solo lo necesario, optimiza la entrega de recursos, introduce una CDN y almacenamiento en caché prioritario, y utiliza la virtualización. Gracias por escuchar y si tienes alguna pregunta, no dudes en hacerla. Denis explica la detección de momentos clave en deportes y menciona que se utilizan diferentes técnicas según el deporte. Para el fútbol, es crucial encontrar el momento exacto en que comienza el juego, y los proveedores de datos ayudan a trazar los datos.

Y haces que tu nodo sea enfocable simplemente agregando el hook, como usar el enfoque en nuestro caso. Y te dice si está enfocado, si está seleccionado, eso es todo. Todas esas soluciones se pueden combinar para que las revises e intentes implementar la tuya propia.

Para algunos televisores, como LG, también hay otro método de entrada que es el puntero, es un control remoto mágico y la navegación con puntero debería ser familiar para la mayoría de ustedes, ya que es bastante similar al mouse. Pero con la navegación con puntero, tenemos un comportamiento ligeramente diferente en la televisión porque los usuarios pueden mover su puntero y desplazarse al mismo tiempo y también necesitamos admitirlo. Y otra cosa en caso de que desees admitir el desplazamiento horizontal con el puntero, debes pensar incluso en una interfaz de usuario diferente, por lo que debes pedir a tus diseñadores que no lo olviden, como puedes ver en la diapositiva. Es bastante complicado.

En cuanto al rendimiento, sí, tuve una charla completa sobre el rendimiento por separado, pero estos son solo consejos generales porque en dispositivos como los Smart TVs tenemos una memoria y CPU muy limitadas en la mayoría de los casos, por lo que realmente necesitamos pensar en el rendimiento de la representación y el inicio. El rendimiento de la representación ocurre durante la interacción del usuario cuando tienes la parte frontal, sí, y aquí, por supuesto, uno de los consejos más obvios es evitar pintar y diseñar cuando puedas. Evítalo. Suena fácil, pero no lo es tanto en muchos casos. Renderiza solo lo que realmente se necesita. Nadia Makharevich hizo la charla justo antes que yo, así que creo que todos la vieron. Evita representaciones inútiles y pesadas, sí. En cuanto al inicio, por supuesto, optimiza la entrega de tus recursos, introduce una CDN, acércate a tus clientes, introduce almacenamiento en caché prioritario, optimiza los activos y carga solo lo que necesitas. Ah, también me olvidé de la virtualización, sí. La virtualización es muy poderosa, así que renderiza solo lo que necesitas en tu pantalla en ese momento. Y muchas gracias, espero que lo hayas disfrutado. Sí, si tienes alguna pregunta.

Muchas gracias Denis, fue increíble. Mucho contenido. Sé que tuvimos una pequeña discusión sobre algunas de tus cosas e incluso mientras escuchaba, pensé que definitivamente voy a ver algunas de las otras charlas a las que hiciste referencia porque parecía que había mucho contenido increíble. ¿Por qué no nos adentramos, esto es algo que también me cuestionaba porque hablaste un poco sobre ello. Hubo una funcionalidad que mostraste en Dazon que eran los momentos dentro del mapa. Sí, momentos clave. E-moments. ¿Cómo los detectas? ¿Usas una biblioteca o algo más lo hace? Hablaste de aprendizaje automático o IA? Exactamente, depende del tipo de deporte del que estemos hablando porque utilizamos diferentes técnicas. Por ejemplo, para la parte de fútbol todo es más sencillo y de hecho fue el primer deporte para el cual introdujimos momentos clave. En el fútbol solo necesitamos encontrar el momento exacto en que comienza el juego porque necesitamos la posición cero y todos los flujos son diferentes porque tenemos diferentes emisoras, diferentes asociaciones, aunque el juego sea el mismo. Y luego utilizamos el proveedor de datos que nos proporciona los datos y podemos trazarlos.

8. Detección de Momentos Clave

Short description:

Utilizamos el aprendizaje automático para detectar momentos clave en deportes como el béisbol y sincronizarlos correctamente. En el boxeo, no solo detectamos el inicio de cada asalto, sino también los nombres de los luchadores, que no siempre se revelan de antemano. Es bastante interesante e impresionante.

Es más o menos sencillo. Con el béisbol, por ejemplo, hacemos la detección nosotros mismos con el aprendizaje automático para identificar los momentos y sincronizarlos correctamente. Es asombroso. Eso también suena como un problema bastante complejo para resolver. El boxeo, por ejemplo, es realmente interesante porque cuando intentas detectar, hacemos la detección de cada inicio de asalto, pero también detectamos los nombres de los luchadores porque las tarjetas de los luchadores no siempre se revelan antes de la pelea, quiero decir, durante toda la noche, y es bastante interesante. Es impresionante. Lo recordaré la próxima vez que vea una pelea de boxeo. Gracias. Y hablemos sobre algunos de esos diferentes entornos. Una cosa que mostraste, mostraste los entornos HTML5 frente a algunos de los más nativos en el otro lado, si recuerdo bien. Y eso fue en la diapositiva, ¿verdad? Sí, se trataba de objetivos, creo, no de entornos, pero sí. Y entonces hablemos de cómo programas para cada uno de esos diferentes lugares. ¿Usas algo para traducir entre ellos? ¿Dilo de nuevo? ¿Cómo programas para cada uno de estos diferentes entornos, bueno, estas diferentes plataformas en las que eventualmente se consumirán, y habla sobre la traducción, o más bien las sutilezas entre esas diferentes plataformas? Sí, por supuesto. Hay muchas sutilezas, de hecho, toda la charla trató sobre cómo compartimos entre esos entornos y qué estamos reemplazando. Entonces hay componentes que se desarrollan completamente desde cero para un determinado entorno. Hay componentes que funcionan en diferentes entornos, pero para asegurarte de que si algo que desarrollas funcionará en todos los entornos, debes pasar por todos los entornos y probarlo allí. Y hay técnicas que aprovechamos para compartir el código. Como mencioné, una de ellas es el contexto de React. Otra es componentes específicos del objetivo, alternancia de características, etc., que te permite compartir y asegurarte de que si este código es compatible, entonces está bien, pero cada objetivo tiene su propia infraestructura, por lo que podemos implementar código completamente independiente en cada infraestructura. Por lo tanto, definitivamente tienen, como, cada objetivo definitivamente tiene diferentes versiones de la zona en un momento determinado. No están completamente sincronizados. Nunca, diría yo, porque básicamente algunas cosas se desarrollan antes para algunos objetivos. Tiene sentido. Me impresionó mucho la cosa de Raspberry Pi que mostraste cuando querías probarlo en tantas plataformas diferentes, pensé que fue genial que alguien pensara en eso y hablando un poco sobre testing en más QA, porque todos estos equipos diferentes están implementando y trabajando en sus productos. ¿Cómo haces QA y A si otro equipo todavía está implementando al mismo tiempo? Entonces, esa es una buena pregunta, porque básicamente hay dos partes de la testing. La primera es la testing basada en características y la otra es la de integración. Entonces, la testing basada en características, por lo general, los equipos son responsables ellos mismos de la integración como equipo, que es responsable. En la mayoría de los casos no es estrictamente necesario en todo momento, porque si haces solo cambios menores o puntuales para tu función y tienes plena propiedad de esta función, esa es toda la idea detrás de Alib, que tienes autonomía para lanzar cuando estés listo y eres independiente. Pero en el caso de que hagas un cambio importante y quieras una integración o actualización entre el capítulo y tu función, otros equipos también pueden verse afectados. Entonces hacemos lo que llamamos UIT. Básicamente es testing que ocurre en el entorno de preproducción final, en nuestro caso es el entorno de puesta en escena. Bien, bien. Y hablando de banderas de características, ¿cuándo las borras y cuál es el momento adecuado para hacerlo? Siempre depende, nunca eliminamos las principales banderas de características. Básicamente siempre tenemos control sobre ellas. Creo que esta pregunta se refiere más probablemente a A-B testing, porque es algo separado pero también las usamos mucho, y las eliminamos tan pronto como básicamente una prueba muestra un efecto positivo o negativo, o si es neutral, el producto toma una decisión final con el equipo de datos. Bien. Honestamente, las cosas que acabas de mostrarnos son muy impresionantes, no puedo esperar para probarlo. Aplaudamos a Denis una vez más.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

React Advanced Conference 2022React Advanced Conference 2022
25 min
A Guide to React Rendering Behavior
Top Content
React is a library for "rendering" UI from components, but many users find themselves confused about how React rendering actually works. What do terms like "rendering", "reconciliation", "Fibers", and "committing" actually mean? When do renders happen? How does Context affect rendering, and how do libraries like Redux cause updates? In this talk, we'll clear up the confusion and provide a solid foundation for understanding when, why, and how React renders. We'll look at: - What "rendering" actually is - How React queues renders and the standard rendering behavior - How keys and component types are used in rendering - Techniques for optimizing render performance - How context usage affects rendering behavior| - How external libraries tie into React rendering
React Summit Remote Edition 2021React Summit Remote Edition 2021
33 min
Building Better Websites with Remix
Top Content
Remix is a new web framework from the creators of React Router that helps you build better, faster websites through a solid understanding of web fundamentals. Remix takes care of the heavy lifting like server rendering, code splitting, prefetching, and navigation and leaves you with the fun part: building something awesome!
Remix Conf Europe 2022Remix Conf Europe 2022
23 min
Scaling Up with Remix and Micro Frontends
Top Content
Do you have a large product built by many teams? Are you struggling to release often? Did your frontend turn into a massive unmaintainable monolith? If, like me, you’ve answered yes to any of those questions, this talk is for you! I’ll show you exactly how you can build a micro frontend architecture with Remix to solve those challenges.
React Advanced Conference 2023React Advanced Conference 2023
33 min
React Compiler - Understanding Idiomatic React (React Forget)
React provides a contract to developers- uphold certain rules, and React can efficiently and correctly update the UI. In this talk we'll explore these rules in depth, understanding the reasoning behind them and how they unlock new directions such as automatic memoization. 
React Advanced Conference 2022React Advanced Conference 2022
30 min
Using useEffect Effectively
Top Content
Can useEffect affect your codebase negatively? From fetching data to fighting with imperative APIs, side effects are one of the biggest sources of frustration in web app development. And let’s be honest, putting everything in useEffect hooks doesn’t help much. In this talk, we'll demystify the useEffect hook and get a better understanding of when (and when not) to use it, as well as discover how declarative effects can make effect management more maintainable in even the most complex React apps.
React Summit 2022React Summit 2022
20 min
Routing in React 18 and Beyond
Top Content
Concurrent React and Server Components are changing the way we think about routing, rendering, and fetching in web applications. Next.js recently shared part of its vision to help developers adopt these new React features and take advantage of the benefits they unlock.In this talk, we’ll explore the past, present and future of routing in front-end applications and discuss how new features in React and Next.js can help us architect more performant and feature-rich applications.

Workshops on related topic

React Summit 2023React Summit 2023
170 min
React Performance Debugging Masterclass
Featured WorkshopFree
Ivan’s first attempts at performance debugging were chaotic. He would see a slow interaction, try a random optimization, see that it didn't help, and keep trying other optimizations until he found the right one (or gave up).
Back then, Ivan didn’t know how to use performance devtools well. He would do a recording in Chrome DevTools or React Profiler, poke around it, try clicking random things, and then close it in frustration a few minutes later. Now, Ivan knows exactly where and what to look for. And in this workshop, Ivan will teach you that too.
Here’s how this is going to work. We’ll take a slow app → debug it (using tools like Chrome DevTools, React Profiler, and why-did-you-render) → pinpoint the bottleneck → and then repeat, several times more. We won’t talk about the solutions (in 90% of the cases, it’s just the ol’ regular useMemo() or memo()). But we’ll talk about everything that comes before – and learn how to analyze any React performance problem, step by step.
(Note: This workshop is best suited for engineers who are already familiar with how useMemo() and memo() work – but want to get better at using the performance tools around React. Also, we’ll be covering interaction performance, not load speed, so you won’t hear a word about Lighthouse 🤐)
React Advanced Conference 2021React Advanced Conference 2021
132 min
Concurrent Rendering Adventures in React 18
Top Content
Featured WorkshopFree
With the release of React 18 we finally get the long awaited concurrent rendering. But how is that going to affect your application? What are the benefits of concurrent rendering in React? What do you need to do to switch to concurrent rendering when you upgrade to React 18? And what if you don’t want or can’t use concurrent rendering yet?

There are some behavior changes you need to be aware of! In this workshop we will cover all of those subjects and more.

Join me with your laptop in this interactive workshop. You will see how easy it is to switch to concurrent rendering in your React application. You will learn all about concurrent rendering, SuspenseList, the startTransition API and more.
React Summit Remote Edition 2021React Summit Remote Edition 2021
177 min
React Hooks Tips Only the Pros Know
Top Content
Featured Workshop
The addition of the hooks API to React was quite a major change. Before hooks most components had to be class based. Now, with hooks, these are often much simpler functional components. Hooks can be really simple to use. Almost deceptively simple. Because there are still plenty of ways you can mess up with hooks. And it often turns out there are many ways where you can improve your components a better understanding of how each React hook can be used.You will learn all about the pros and cons of the various hooks. You will learn when to use useState() versus useReducer(). We will look at using useContext() efficiently. You will see when to use useLayoutEffect() and when useEffect() is better.
React Advanced Conference 2021React Advanced Conference 2021
174 min
React, TypeScript, and TDD
Top Content
Featured WorkshopFree
ReactJS is wildly popular and thus wildly supported. TypeScript is increasingly popular, and thus increasingly supported.

The two together? Not as much. Given that they both change quickly, it's hard to find accurate learning materials.

React+TypeScript, with JetBrains IDEs? That three-part combination is the topic of this series. We'll show a little about a lot. Meaning, the key steps to getting productive, in the IDE, for React projects using TypeScript. Along the way we'll show test-driven development and emphasize tips-and-tricks in the IDE.
React Advanced Conference 2021React Advanced Conference 2021
145 min
Web3 Workshop - Building Your First Dapp
Top Content
Featured WorkshopFree
In this workshop, you'll learn how to build your first full stack dapp on the Ethereum blockchain, reading and writing data to the network, and connecting a front end application to the contract you've deployed. By the end of the workshop, you'll understand how to set up a full stack development environment, run a local node, and interact with any smart contract using React, HardHat, and Ethers.js.
React Summit 2023React Summit 2023
151 min
Designing Effective Tests With React Testing Library
Featured Workshop
React Testing Library is a great framework for React component tests because there are a lot of questions it answers for you, so you don’t need to worry about those questions. But that doesn’t mean testing is easy. There are still a lot of questions you have to figure out for yourself: How many component tests should you write vs end-to-end tests or lower-level unit tests? How can you test a certain line of code that is tricky to test? And what in the world are you supposed to do about that persistent act() warning?
In this three-hour workshop we’ll introduce React Testing Library along with a mental model for how to think about designing your component tests. This mental model will help you see how to test each bit of logic, whether or not to mock dependencies, and will help improve the design of your components. You’ll walk away with the tools, techniques, and principles you need to implement low-cost, high-value component tests.
Table of contents- The different kinds of React application tests, and where component tests fit in- A mental model for thinking about the inputs and outputs of the components you test- Options for selecting DOM elements to verify and interact with them- The value of mocks and why they shouldn’t be avoided- The challenges with asynchrony in RTL tests and how to handle them
Prerequisites- Familiarity with building applications with React- Basic experience writing automated tests with Jest or another unit testing framework- You do not need any experience with React Testing Library- Machine setup: Node LTS, Yarn