El poder del aprendizaje transferido en NLP: Construye un modelo de clasificación de texto usando BERT

Rate this content
Bookmark

El dominio del Procesamiento del Lenguaje Natural ha visto una tremenda cantidad de investigación e innovación en los últimos años para abordar el problema de implementar soluciones de aprendizaje automático e IA de alta calidad utilizando texto natural. La clasificación de texto es una de las áreas más importantes en todos los sectores, como finanzas, medios de comunicación, desarrollo de productos, etc. Construir un sistema de clasificación de texto desde cero para cada caso de uso puede ser desafiante en términos de costos y recursos, considerando que se necesita una buena cantidad de datos para comenzar el entrenamiento.


Aquí es donde entra en juego el concepto de aprendizaje transferido. Utilizar algunos de los modelos que han sido pre-entrenados en grandes cantidades de datos y ajustarlos según el problema en cuestión es la nueva forma de implementar soluciones de aprendizaje automático de manera eficiente sin pasar meses en la limpieza de datos.


Esta charla destacará las formas de implementar BERT, recientemente lanzado, y ajustar el modelo base para construir un modelo de clasificación de texto eficiente. Se requiere un conocimiento básico de Python.

35 min
02 Jul, 2021

Video Summary and Transcription

El aprendizaje transferido es una técnica utilizada cuando hay escasez de datos etiquetados, donde se reutiliza un modelo pre-entrenado para una nueva tarea. BERT es un modelo bidireccional entrenado en texto plano que considera el contexto de los tokens durante el entrenamiento. Comprender el modelado NLP de referencia y abordar desafíos como palabras basadas en contexto y errores de ortografía son cruciales. BERT tiene aplicaciones en múltiples escenarios de resolución de problemas, pero puede no funcionar bien en etiquetas de clasificación estrictas o IA conversacional. El entrenamiento de BERT implica la predicción de la siguiente oración y el modelado masivo del lenguaje para manejar la comprensión contextual y el mapeo coherente.

Available in English

1. Introducción a la Transferencia de Aprendizaje y NLP

Short description:

¡Hola a todos! Bienvenidos a esta sesión de Transferencia de Aprendizaje con Burt. Hoy aprenderemos sobre Transferencia de Aprendizaje y NLP. NLP es una subrama de la lingüística y la IA. Discutiremos sus desafíos y cómo se puede utilizar para la clasificación de texto.

¡Hola a todos y bienvenidos a esta sesión de Transferencia de Aprendizaje con Burt! Estoy muy emocionado de que todos estén aquí y se unan a mí en esta sesión. Así que veamos qué aprenderemos sobre Transferencia de Aprendizaje y Burt hoy.

Antes de comenzar, una breve introducción sobre mí. Hola, mi nombre es Jayita Pudukonda. Trabajo como Científico de Datos Senior en Intelliint US Inc. Estamos ubicados en la ciudad de Nueva York. Y para darles una visión general, Intelliint es una empresa de servicios profesionales impulsada por el cliente. Nos especializamos en soluciones de software y tecnología a medida. Trabajamos con muchas empresas de análisis de datos y basadas en IA y desarrollamos algunas de nuestras herramientas y software en torno a esos estados. Así que pueden contactarme en Twitter y LinkedIn si tienen alguna pregunta sobre la sesión más adelante y podemos discutir al respecto.

Genial. Para la sesión de hoy, vamos a hablar durante unos 20 minutos y luego tendremos algunas preguntas y respuestas. También tengo algo de código que puedo compartir en mi GitHub. Así que contáctenme si quieren echar un vistazo más tarde después de la sesión. Ahora viene la parte emocionante, digo esto porque el NLP es difícil y ustedes dirían por qué. Ahora miren esta imagen. ¿Cuál es la primera inferencia que se les viene a la mente? Sé que los seres humanos podemos hacer conexiones y referencias geniales. Esta es una tarea muy trivial para nosotros. Pero si lo piensan desde la perspectiva de un programa de computadora, esto es un desafío muy desalentador para entender esta complejidad del idioma inglés. Entonces, aquí en la imagen dice: Soy un gran fanático del Metal. Nosotros, como humanos, sabríamos que, okay, el ventilador de metal es como, ya saben, una componente eléctrica personificada y dice que, okay, soy un ventilador de metal, pero también puede referirse a que eres un gran fanático del metal, ya saben, de la música. Entonces, ¿cómo diferencia la computadora entre estos dos significados del mismo término? Hay ambigüedad, sinonimia, correferencia. Y, por supuesto, las reglas sintácticas de la literatura inglesa, eso dificulta o hace que sea una tarea más desalentadora para un programa de computadora. Así que para la agenda de hoy, simplemente repasaremos qué es NLP, cómo y dónde se utiliza, cómo se puede utilizar la transferencia de aprendizaje. Y veremos un caso simple de utilizar Burt para un modelo de clasificación de texto. Así que empecemos de inmediato. Para el NLP, siento que esta imagen lo describe muy bien. Es una subrama de la lingüística, la inteligencia artificial.

2. Introducción a las Aplicaciones y Técnicas de NLP

Short description:

Hay ciencias de la computación y también en ingeniería de la información. NLP ha tenido un crecimiento exponencial en los últimos dos años. Se utiliza en la traducción automática, chatbots, clasificación de intenciones, generación de texto, modelado de temas, agrupamiento y clasificación de texto. Para trabajar con NLP, necesitamos manejar espacios adicionales, tokenizar correctamente el texto, realizar corrección ortográfica y utilizar mapeo de contracciones.

Hay ciencias de la computación y también en ingeniería de la información. Básicamente ayuda a todas las máquinas a comprender y, ya sabes, comunicarse de ida y vuelta con los seres humanos en un discurso fluido sin perder el contexto o las referencias. Y si ves que NLP ha tenido un crecimiento exponencial en los últimos, diría dos, dos, años, como los enormes modelos en los que Google, OpenAI y Vidya han estado trabajando y lanzando que tienen una cantidad enorme de parámetros. Así que en mayo de 2020, OpenAI presentó un modelo de 175 mil millones de parámetros, lo cual es, puedes entender cuánto texto se ha procesado en ese modelo y cuánto trabajo puede hacer con tanta precisión.

Entonces, ¿dónde se utiliza NLP? Sé que la mayoría de ustedes está familiarizado con esto, pero solo quería dar una descripción rápida de dónde siento que se utiliza más. Y he trabajado en estas áreas de manera práctica. Definitivamente, la traducción automática, como texto a audio, audio a texto, hay chatbots, construcción de árboles de conocimiento, clasificación de intenciones, también hay generación de texto natural. Estoy seguro de que cuando usas Gmail, has visto las sugerencias que aparecen cuando estás escribiendo un correo electrónico, que te dicen que estas dos palabras siguientes, creo que serían buenas para completar la oración que estás intentando escribir. Esas son como, ya sabes, sugerencias de completado de texto que recibes. También se utiliza mucho en el modelado de temas, agrupamiento, comprensión con el contexto completo o qué tipo de ideas se pueden generar a partir de una gran cantidad de texto. Y también en la clasificación de texto, que es, ya sabes, ¿quieres hacer un análisis de sentimiento? ¿Cómo entiendes cuál es la idea general, por ejemplo, en las reseñas de Yelp o en las reseñas de productos de Amazon? Así que esto tiene muchas implicaciones y buenas aplicaciones en problemas de NLP.

Entonces, ¿cómo lo hacemos? Sé que esto puede sonar subyacente, pero es muy importante que lo hagamos en todo tipo de casos de negocio o problemas empresariales que estamos tratando de resolver utilizando NLP, así que solo una idea rápida. Necesitamos manejar cuando tenemos, digamos, todo nuestro texto, asegurarnos de manejar espacios adicionales. Luego también necesitamos cuidar cómo tokenizamos nuestro texto. La tokenización solo usando espacios es la norma tradicional, pero también necesitamos tener en cuenta casos de uso, como por ejemplo, el nombre completo de Estados Unidos de América, si lo tokenizamos solo por los espacios, a veces puede suceder que no tenga sentido en el contexto en el que estamos tratando de trabajar, ¿verdad? Entonces necesitamos mantener toda la frase `Estados Unidos de América` como una sola frase, en lugar de tokenizarla por palabra, para que la extracción de información funcione mucho mejor que si se tokeniza por palabra. El siguiente paso sería la corrección ortográfica. Me refiero aquí directamente a una herramienta muy buena que Peter Norvig de Google creó. Es un corrector ortográfico. Básicamente, la idea es comparar la distancia entre múltiples palabras. Y ver, okay. ¿Tiene sentido esta ortografía y qué tan cerca está de una ortografía similar o un significado de palabra similar que existe en el espacio vectorial de todo el corpus de NLP? Entonces puedes ver aquí que cuando paso la ortografía incorrecta con una sola L, el valor devuelto sería una ortografía con una doble L y también para corregido con la K no con la K y el valor final sería corregido con una C. Esto realmente puede ayudar a asegurarnos de que nuestros datos estén limpios. Y como dicen, en NLP es como basura entra y basura sale. Perdón por eso, basura entra y basura sale. Así que debemos asegurarnos de que los datos limpios tengan sentido con un sentido gramatical. Sentido sintáctico y también significado semántico. El siguiente paso sería el mapeo de contracciones. Puede parecer que no es necesario hacerlo.

3. Tokenización, Stemming y Lemmatización

Short description:

La tokenización puede no manejar correctamente las contracciones como won't y can't. El stemming y lemmatización ayudan a mantener las métricas del corpus e identificar el contexto.

Pero luego se entiende que, okay, si estás usando una palabra como won't y can't, la tokenización puede o no ser capaz de manejarla correctamente. Entonces necesitamos expandirla y mapearla de vuelta a sus palabras completas como won't, will not y can't, cannot. El siguiente paso es definitivamente el stemming y lemmatización. Esto es solo para asegurarnos de que estamos manteniendo nuestras métricas de corpus de NLP lo más ajustadas posible utilizando palabras similares como gaming, games, games, tiene la palabra base como game. Entonces la idea es mantener la palabra base como nuestra palabra y así el significado alrededor de eso permanece igual. Y el contexto se puede identificar de una mejor manera.

4. Stopwords and Understanding Data

Short description:

Las stopwords son palabras adicionales como artículos y pronombres que pueden no agregar mucho contexto a una oración. Eliminarlas depende del caso de uso específico. Los conjuntos de datos legales o de patentes pueden no beneficiarse de la eliminación de stopwords. Comprender los datos y su estructura es crucial antes de modelar.

Lo siguiente son las stopwords. Definitivamente. Entonces, ya sabes, cuando hablamos de manera correcta, digamos, cuando estás recopilando mucho texto de Twitter, Reddit y todos los demás blogs de noticias, hay muchas palabras adicionales como los artículos, y hay uh, y todos los otros pronombres que a veces pueden o no agregar mucho contexto a toda la oración. Entonces de esta manera podemos deshacernos de ellos. Pero también me gustaría mencionar que esto depende mucho del caso. Por ejemplo, si tienes una buena cantidad de data, como un conjunto de datos legales o un conjunto de datos de patentes, es posible que no funcione bien eliminar todas estas stopwords. Entonces, necesitamos comprender nuestros casos de uso empresarial y asegurarnos de que tenga sentido eliminar esas stopwords. Y, por supuesto, hay cosas basadas en el caso que puedes hacer, como etiquetar qué tipo de palabra es, si es un verbo, si es un sustantivo, eso te ayudaría a comprender mejor las ideas de tu texto antes de comenzar a modelar. Es por eso que se dice que debes conocer los data o el texto no estructurado es más difícil de entender. Entonces, para asegurarte de que una vez que te adentres en las secciones de modelado, antes de eso, tienes un entendimiento completo y conocimiento sobre qué tipo de data tienes en tus manos con el que estás tratando.

5. Understanding Transfer Learning

Short description:

Transfer learning es una técnica de aprendizaje automático en la que un modelo entrenado en una tarea se reutiliza para una segunda tarea. Implica utilizar el conocimiento de un conjunto de datos creado previamente y volver a entrenar la última capa para clasificar nuevos datos. Esta técnica se puede aplicar en varios escenarios, como la clasificación de imágenes y el reconocimiento de voz.

Genial. Ahora que hemos aclarado todas las técnicas básicas, pasemos directamente a pensar en qué es el aprendizaje por transferencia. Esta es una gran cita de Andrew Engie, por supuesto, es una figura importante en el espacio de IA y ML. Y en 2016, mencionó que el aprendizaje por transferencia sería el próximo gran impulsor del éxito del ML. Y ahora estamos en 2020. Y creo que, y verás que se han desarrollado muchos problemas o modelos para resolver diferentes tipos de modelos a través del aprendizaje por transferencia.

Entonces, ¿qué es? Una comprensión rápida es simplemente una técnica de aprendizaje automático en la que un modelo se entrena en una tarea y se reutiliza para una segunda tarea. Ahora veremos qué significa eso. Digamos que tienes un conjunto de datos, ¿verdad? Tienes un conjunto de datos uno, que es como, digamos, un conjunto de datos de imágenes generales y la variable objetivo es un objeto clasificado. Ese objeto podría ser, ya sabes, un gato o un perro, un árbol, un autobús o un camión, cualquier cosa, cualquier objeto del mundo que ya esté en el conjunto de datos de imágenes. Un ejemplo de esto es ImageNet. Estoy seguro de que todos ustedes han trabajado un poco o han probado con este conjunto de datos en su trabajo. Ahora, esto, en una vista general, es como una estructura de red neuronal con algunas capas ocultas y capas de entrada y una capa de salida. Entonces, la capa de salida para el problema del conjunto de datos uno sería, ya sabes, si la clasificación entre si es un gato o un perro u otro objeto en particular del conjunto de datos de entrenamiento.

Ahora, piensa en el segundo caso. Ahora, el segundo caso es que tienes un conjunto de datos dos y es un conjunto de datos muy pequeño. No tienes muchos casos de entrenamiento, pero tienes algunos. Y el conjunto de datos objetivo es si es una imagen urbana o una imagen rural. Entonces, ¿qué crees que es la conexión común entre estos dos conjuntos de datos? Los conjuntos de datos son como ambos tratan con imágenes, ambos tienen, ya sabes, muchos objetos del mundo capturados en ellos. Pero el objetivo final no es exactamente el mismo. Aquí es donde entra en acción el aprendizaje por transferencia, donde puedes utilizar el conocimiento del conjunto de datos uno que has creado en tu primera fase de modelado y simplemente, ya sabes, volver a entrenar la última capa. Aquí, es la capa cuatro si puedes ver, mencioné que es la última capa, la capa densa, volver a entrenar los pesos de la última capa utilizando softmax y clase y, ya sabes, crear o cambiar esa capa de salida final para clasificarla como urbana o rural basándose en el nuevo conjunto de datos que hemos entrelazado con el nivel cuatro. Ahora esto puede parecer, ¿vale, por qué estamos haciendo esto? Antes de eso, veamos, ¿dónde estamos haciendo esto? Entonces, digamos, incluso en el reconocimiento de voz, si estás extrayendo o voz data de diferentes fuentes como YouTube, y eso es en inglés o hindi, que es, ya sabes, uno de los idiomas que hablamos en India. Y luego preentrenas tu red. Ahora, digamos que tienes un conjunto de datos muy pequeño en bengalí y quieres, ya sabes, traducir o entender qué dice el discurso. Entonces puedes utilizar el modelo que has entrenado con un conjunto de datos más grande en inglés y luego usar, ya sabes, traducción. Y luego utilizar eso para el reconocimiento de voz, que está en bengalí. El segundo ejemplo es de lo que acabamos de hablar.

6. Introducción al Aprendizaje por Transferencia

Short description:

El aprendizaje por transferencia se utiliza cuando hay escasez de datos etiquetados. En lugar de crear un nuevo conjunto de datos etiquetados, podemos utilizar un modelo pre-entrenado que ya ha resuelto un problema similar. Las propiedades de entrada de las tareas deben ser similares.

Por ejemplo, si tienes una red de imágenes con millones de imágenes etiquetadas de objetos generales del mundo, puedes utilizar eso. O, ya sabes, reconocimiento de imágenes, como urbano versus rural, y así sucesivamente. Entonces, ¿por qué usamos el aprendizaje por transferencia? Porque, ¿hay algún beneficio positivo que queremos lograr? Sí, primero, es si hay escasez de data etiquetados. Entendemos que a veces crear un conjunto de datos etiquetados puede ser muy costoso. Necesitamos, ya sabes, invertir tiempo y recursos expertos en SMEs (Subject Matter Experts) que nos ayuden a crear esos conjuntos de datos etiquetados. Entonces, si no tenemos eso para empezar, y puede ser costoso, ¿qué podemos hacer en nuestra mano? Pues intentar averiguar si ya se ha resuelto un problema más grande o si hay un modelo pre-entrenado que se ha resuelto. Y ahí es donde entra en juego, si ya hay una red que existe, diría con una gran cantidad de data y está pre-entrenada, podemos utilizar eso, que es el siguiente mejor escenario que podemos hacer. Y, por supuesto, la tarea uno y la tarea dos deben tener, ya sabes, propiedades de entrada similares. ¿Es esto lo que mencioné? Por ejemplo, hablamos de un data que tenía, ya sabes, gato, perro y otros objetos del mundo. Y el segundo sería rural versus urbano, pero las características o componentes de entrada se mantuvieron iguales.

7. Introducción al Aprendizaje por Transferencia y BERT

Short description:

En el aprendizaje por transferencia, aprovechamos una base de conocimientos de dos tareas de origen para lograr una tarea objetivo. BERT es un componente clave en este proceso. Las incrustaciones de palabras crean conexiones entre palabras basadas en su contexto. Los grupos de palabras relacionadas ayudan al modelo a comprender su proximidad. Burt Mountain es un término acuñado por Chris McCormick, quien enfatiza la importancia de comprender la atención del transformador para aplicar BERT.

Estoy seguro de que todos ustedes han visto esta imagen antes. Esta es simplemente la diferencia entre un modelo de aprendizaje de ML tradicional, donde tienes diferentes tareas y creas, ya sabes, un sistema de aprendizaje diferente para cada tarea. Pero aquí, en el aprendizaje por transferencia, tienes, ya sabes, dos tareas de origen donde creas un modelo, tienes una base de conocimientos para ello. Y la idea es cómo podemos aprovechar esa base de conocimientos para lograr una tarea objetivo, en el caso que discutimos fue urbano versus rural.

Ahora, BERT entra en juego aquí. Y antes de entender qué es BERT, hablemos un poco muy brevemente sobre qué son las incrustaciones de palabras. Ahora, la incrustación de palabras no es más que, ya sabes, una representación vectorial de características de la palabra. Que tienes en tu corpus de entrenamiento. ¿Qué significa eso? Entonces, el concepto subyacente de utilizar el contexto en la palabra es crear una conexión o referencias entre múltiples palabras. El famoso ejemplo es, ya sabes, hombre es a rey. Entonces, ¿mujer es a qué? Es a. Entonces, la respuesta sería reina. Esas relaciones ocurren cuando mapeamos palabras, utilizando diferentes oraciones en el contexto de la incrustación de palabras.

El siguiente ejemplo que quiero resaltar es que si ves aquí, hay múltiples palabras y puedes ver pequeños grupos y puedes ver que pescado, huevos y carne caen en un grupo similar. Esta es una versión simplificada en 2D. Y en casos reales, es mucho mejor con una representación matricial multidimensional. Pero aquí, si ves otro ejemplo, es como calor, electricidad, energía, petróleo y combustible son como un grupo, un mini grupo y por sí mismos. Entonces, eso tiene sentido para el modelo de que, vale, si una de estas palabras aparece, entonces podemos decir que la distancia entre estas palabras es similar y están más cerca entre sí. En este ejemplo, simplemente muestra que helicóptero, dron y cohete están mucho más cerca entre sí que helicóptero y ganso. Mientras que ganso, águila y abeja están mucho más cerca entre sí que de dron o cohete. Vale. Esta es una palabra muy famosa, Burt Mountain, como yo la llamo, y Chris McCormick ha acuñado este término. Entonces, lo que menciona es que se ha construido sobre mucha tecnología que hemos estado viendo desarrollarse a lo largo de los años. Pero si estás estudiando ahora mismo y estás tratando de entender LLP y Burt, no pienses que es un gran dominio de creación. Tienes que investigar mucho y es imposible de aprender. No lo es. Así que dice que, vale, la atención del transformador, estos son los dos conceptos que necesitamos entender. Y eso te dará una buena base para comenzar a aplicar Burt y ajustarlo. Ahora, a veces esto puede parecer, ya sabes, un terminología grande y desalentadora. Así que cómo me siento es que, ya sabes, los transformadores pueden ser un concepto pesado, pero están ahí para ayudarnos.

8. Introducción a Burt y la Bidireccionalidad

Short description:

Burt es el primer modelo profundamente bidireccional entrenado de manera no supervisada y en texto plano. Aprende información de ambos lados de la entrada y considera el contexto de los tokens durante el entrenamiento. La estructura de Burt se basa en tokens, segmentos y posiciones. Puede entender diferentes significados de las palabras según el contexto. Burt ha sido pre-entrenado en tareas como la predicción de palabras enmascaradas y la predicción de oraciones. La atención es un concepto que ayuda a comprender el contexto de las palabras.

Así como Optimus Prime, y no te desvíes por eso. Pero solo piensa en el concepto simple de cómo podemos explicarlo, tienes, digamos, criterios de entrada. Entonces hay una capa de codificadores que tomarían esas entradas. Y luego hay decodificadores que transferirán esas entradas al resultado que deseas. Por ejemplo, aquí la traducción se realiza de un idioma a otro.

Entonces, básicamente, ¿qué es Burt? Burt es el primero en su tipo. Es el primer modelo profundamente bidireccional entrenado de manera no supervisada y en texto plano. Cuando digo bidireccional, me refiero a que si tienes, digamos, varias oraciones, algunos modelos iniciales lo harían secuencialmente. Primero aprenderían de izquierda a derecha y luego aprenderían de derecha a izquierda. Pero Burt es un solo enlace que lo hace de una vez. Lo que esto ayuda a lograr es asegurarse de que aprenda información de ambos lados juntos y tome en cuenta el contexto de los tokens durante el entrenamiento sin perder ninguna información adicional sobre qué tokens están disponibles en el lado izquierdo y qué tokens están disponibles en el lado derecho.

Para darte una comprensión rápida, este es un ejemplo muy famoso, si miras estas dos oraciones, dice que fuimos al banco del río y dice que necesito ir a un banco para hacer un depósito. Entonces, la palabra banco aquí tiene diferentes significados gramaticalmente, es la misma palabra llamada banco, pero su significado es completamente diferente según las palabras de contexto con las que se ha utilizado. Ahora Burt puede entender rápidamente, ¿cuál es el río y cuál es el banco, es una institución financiera a la que está conectado? Entonces, esta es la capa rápida o diría la estructura de cómo se ha organizado Burt. Se basa en tokens, segmentos y también en posiciones, en qué posición te encuentras en toda la oración y si el token está en la primera oración, si es un corpus de varias oraciones y, por supuesto, la oración del token. Estas son las dos tareas que acabo de mencionar rápidamente. Sé que estamos quedando sin tiempo, pero podemos discutir más en la sección de preguntas y respuestas si tienes alguna pregunta en particular al respecto.

Entonces, ya sabes, si la idea es entender la fortaleza de la bidireccionalidad, es que el hombre fue al y fue al de leche, donde estamos enmascarando las palabras, y las etiquetas que Burt intenta producir o predecir es que la primera oración sería tienda y la siguiente palabra sería galón. Y el siguiente caso de uso en el que Burt ha sido pre-entrenado es la predicción de oraciones. Por ejemplo, si ves la primera oración, el hombre fue a la tienda. Y la oración B es que compró un galón de leche. Entonces eso tiene sentido, ¿verdad? Esas dos oraciones se relacionan entre sí y esta etiqueta sería su siguiente oración. Pero si ves, el segundo conjunto es que el hombre fue a la tienda y los pingüinos no vuelan, aunque son gramaticalmente correctos en sus respectivas oraciones, pero no pertenecen entre sí. Entonces la etiqueta sería no siguiente oración. Entonces está prediciendo si la siguiente oración o el siguiente token tiene sentido con el que tienes en mano o no. Entonces este es el concepto de atención. La atención no es más que si miras la frase el animal no cruzó la calle porque estaba muy cansado.

QnA

Discusión sobre BERT y problemas de NLP

Short description:

Habla sobre la atención y la importancia de utilizar modelos de IA preconstruidos para tareas diarias pequeñas. Los datos limpios y la comprensión del modelado NLP de referencia son cruciales. Gracias a MLConf y a los demás ponentes. Vamos a responder algunas preguntas. ¿En qué problemas de NLP no funciona bien BERT? Depende del problema empresarial. Albert y Bert Light pueden ser efectivos para la clasificación de respuestas a preguntas.

He dado el enlace de Jay Allwar. Él habla de ello de una manera muy particular. Así que puedes echarle un vistazo y comprender más sobre la atención y podemos discutir más en nuestra sección de preguntas y respuestas.

Así que no voy a revisar el código en este momento, pero solo quiero resaltar un factor más, sabes, entrenar un modelo de IA particular como este es un informe del MIT, y dice que durante un modelo de IA particular puede emitir tanto carbono como, sabes, cinco autos en toda su vida. Entonces, la idea del aprendizaje por transferencia es ver si podemos utilizarlo ya preconstruido y usarlo en nuestras tareas diarias pequeñas, en lugar de volver a entrenarlo una y otra vez para casos de uso particulares.

Como comentarios de cierre, es difícil, pero debemos asegurarnos de que los data estén limpios, comprender nuestros data mejor que cualquier otra cosa. No es magia y las redes neuronales siempre advanced no son la respuesta a todos tus problemas. Comienza con el modelado de referencia de NLP, y luego avanza paso a paso. Estos son algunos de los recursos adicionales que puedes consultar y leer algunos de los blogs. Gracias a MLConf por organizar este brillante evento. Gracias a todos los ponentes y a ustedes que se unieron. Gracias. Estoy listo para responder cualquier pregunta que tengan, y definitivamente echen un vistazo al portafolio de Dell Ensport. Estoy seguro de que encontrarán muchos casos de uso y estudios de casos interesantes en los que hemos trabajado en la industria. Genial, creo que gracias a todos ustedes y gracias por unirse. Vamos a responder algunas preguntas, si tienen alguna. Hola Jay, ¿cómo estás? Hola, Ajay, ¿cómo estás? Estoy bien. Fantástico, fantástico, fantástico. Lo sé, entiendo que también estás en Estados Unidos. Siempre me reconforta saber que alguien con quien estoy hablando está muy cerca de casa, a solo unos miles de kilómetros de distancia. Sí, al otro lado del país. Costa este, costa oeste, no importa. Es genial. Muy bien, así que con eso, vamos a pasar a algunas preguntas y respuestas de nuestra encantadora audiencia. Aquí hay una pregunta de a. Aquí hay una pregunta. OK, ¿en qué problemas de NLP no funciona bien BERT? ¿Alguna idea al respecto? Sí. Supongo que la mejor idea o, una vez que comienzas a aprender paso a paso, a veces utilizar o mirar algunas de las medidas de vanguardia te daría una idea, pero sé por qué elegí BERT para la clasificación, puede que no sea el. Supongo que no es el algoritmo óptimo que se puede utilizar para una técnica de clasificación, pero supongo que para todo tipo de respuesta a preguntas, como donde tienes un conjunto de data factual, donde se asegura de que esté leyendo de los bloques de data en los que estás entrenando, funciona mejor en eso, pero para la clasificación, supongo que, de nuevo, a veces depende del tipo de problema empresarial que estés tratando de resolver. Entonces, lo que he visto que funciona con él es que para Albert me dio una puntuación bastante buena incluso, e incluso Bert Light dio una buena puntuación para una pequeña clasificación de respuesta a preguntas en la que estaba trabajando

Aplicaciones y Limitaciones de BERT

Short description:

Algunas aplicaciones de BERT se pueden utilizar para resolver múltiples problemas, dependiendo de los datos y el mapeo. Los resultados de vanguardia pueden proporcionar una ventaja inicial. BERT puede no funcionar bien en etiquetas de clasificación estrictas o en IA conversacional. Existe un desarrollo continuo en la industria para mejorar el rendimiento de BERT.

proyecto muy reciente. Y eso ayuda. Y siempre siento que no hay una buena, respuesta correcta para eso. Algunas de estas aplicaciones están diseñadas para resolver múltiples problemas, y depende del tipo de data que tengas, cómo lo estás mapeando y cuál es el resultado final. Por lo tanto, al observar algunos casos de uso y cuáles son los resultados de vanguardia para esos modelos, supongo que puedes filtrar esas malas hierbas de qué tipo de problemas puedes o no utilizar estas técnicas, pero definitivamente pueden darte una ventaja inicial.

Incluso para el problema de clasificación, solo me dio una puntuación de referencia de, digamos, 0.6, que no es excelente, pero es bueno para empezar. Y ahí es donde pones manos a la obra y dices, ok, ¿cómo puedo ajustarlo y tal vez agregar más parámetros o qué tipo de ingeniería de características puedo hacer para mejorarlo?

Sí, eso es realmente un buen punto, porque sé que, como mencionaste, no creo que BERT pueda funcionar bien si hay etiquetas de clasificación muy estrictas en la respuesta a preguntas, y respuestas muy directas. Pero estoy pensando que BERT podría no ser el mejor. Al menos aún no estamos en la etapa en la que sea muy bueno en la IA conversacional, donde creo que he visto algunos ejemplos video donde BERT da respuestas un poco extrañas aquí y allá, especialmente si las respuestas tienden a ser muy largas. A veces no tiene sentido en ocasiones. Supongo que ese es el problema de la claridad o tal vez responder a través de la tensión es el objetivo final. Y supongo que las personas importantes en la industria todavía están trabajando en ello, y hay mucho en proceso que aún están desarrollando, así que supongo que algún día podremos decir que, oh, pongamos todo en BERT y BERT lo resolverá. Estoy esperando que llegue ese día. Algún día, algún día. Esperemos, y llegará pronto.

BERT Training and NLP Challenges

Short description:

BERT se entrena en la predicción de la siguiente oración y en el modelado masivo del lenguaje para manejar palabras sinónimas, comprensión contextual y mapeo coherente. Resuelve el desafío de capturar la esencia en el entrenamiento bidireccional y garantizar un contexto significativo entre las oraciones. El modelado masivo del lenguaje ayuda a BERT a comprender el propio lenguaje, mientras que la predicción de la siguiente oración se centra en la comprensión contextual. El principal desafío al trabajar como científico de datos en NLP es lidiar con datos de texto no estructurados y abordar problemas como palabras basadas en el contexto, sinónimos y errores ortográficos.

Muy bien, otra pregunta. Sabes, creo que mencionaste hacia el final de tu presentación o algo así, que lo abordaremos en la sesión de preguntas y respuestas, así que te lo voy a preguntar ahora. ¿Por qué entrenamos a BERT específicamente en los dos problemas de predicción de la siguiente oración y modelado masivo del lenguaje, y por qué no, como, cualquier otra tarea? Sí, supongo que esa es la respuesta a lo que estamos tratando de resolver, ¿verdad? Comencemos desde el proceso de pensamiento de word2vec. Entonces, word2vec también es una buena manera de hacer este modelo de entrenamiento de lenguaje, pero lo que no sirve es que no nos ayuda a crear ese contexto y comprender cómo manejar palabras sinónimas. A veces las mapeará correctamente. A veces, el ejemplo de uso que mostré para un banco, un banco de río y una institución bancaria financiera, ¿cómo separamos correctamente esos mismos términos basados en el contexto? Entonces, para MAST, lo que sucede es que, dado que estamos haciendo un entrenamiento bidireccional con BERT, la idea es capturar toda la esencia, y si no lo hacemos de la manera de MAST, lo que sucederá es que BERT podrá, de alguna manera, hacer trampa y ver qué palabra podría ser la siguiente. Sí, en realidad sucede de esa manera. Así que supongo que la forma de MAST es simplemente asegurarse de que lo restrinjamos para no ver las soluciones en todo su entrenamiento, entrenamiento bidireccional, sino tratar de inferirlo a partir de parte de lo que ha visto en lugar de mapearlo de otras formas. Así que supongo que eso responde a uno de los desafíos principales que estamos tratando de resolver, en comparación con los otros modelos. Y el segundo para la siguiente oración, supongo que es muy importante para entender el contexto y pensarlo desde la perspectiva de si quieres hacer una resumen, si estás haciendo un resumen abstracto, ¿cómo sabes que al resumir estás capturando la esencia de todas las palabras o todas las oraciones del bloque completo del corpus de entrenamiento por el que lo estás pasando? Así que supongo que la siguiente oración es solo para asegurarnos de que no lo mapeemos de manera incoherente, incluso a veces porque las oraciones pueden ser gramaticalmente correctas por sí mismas, pero pueden no tener un significado o no crear un significado semántico cuando se colocan una al lado de la otra. Entonces, cuando se colocan una al lado de la otra, debería tener sentido. Y ese flujo continuo de significado debe mantenerse dentro de ese análisis objetivo. Así que supongo que, a partir del desarrollo de todos los modelos que hemos visto a lo largo del tiempo, supongo que parte de la solución es tratar de resolver estos dos problemas de manera práctica. Y así es como lo infiero y lo veo funcionando en todas las soluciones a las que se aplica. Sí. Y sí, en realidad, ese también es otro buen punto, porque supongo que, en general, el modelado masivo del lenguaje es como Bird simplemente tratando de entender el propio lenguaje, mientras que la predicción de la siguiente oración intenta comprender el contexto dentro de las oraciones o entre oraciones para entradas más grandes. ¿Verdad? Incluso si no solo la directa, sino también cómo se mapea en el flujo de trabajo. Digamos que la oración uno y la oración tres tienen sentido. Pero luego la oración dos no pertenece a la oración tres. Entonces, ¿cómo mantienes esa conversación o coherencia? Todo se reduce nuevamente a la atención, como lo que estás hablando en el contexto. ¿Esto sigue un patrón correcto en la forma en que se describe a través de él? Entonces, sí, es una de las características clave de Purposeful. Muy fascinante. Otra pregunta aquí de nuestra audiencia. ¿Cuál es tu principal desafío o dificultad cuando comenzaste a trabajar como científico de datos? Sí, el desafío aún persiste. No desaparece. El desafío es, ya sabes, cuando comencé a trabajar con datos de texto en NLP, lo primero fue que estaba demasiado desestructurado. ¿Cómo lo procesas para que tenga sentido? Porque en NLP, todo tiene sentido, si introduces basura, obtendrás basura. Había desafíos para solucionar, ya sabes, palabras basadas en el contexto, uso, cómo adjuntar sinónimos, cómo conectar o corregir errores ortográficos. Los errores ortográficos son un gran problema en problemas de NLP no estructurados.

Understanding Transformers and BERT

Short description:

A veces, las ortografías específicas del dominio requieren trabajar con expertos en el tema para comprender el conocimiento del dominio necesario. El preprocesamiento de datos es crucial para las tareas de NLP y conduce a modelos mejores. La comprensión de los transformers y BERT se puede lograr al enfocarse en los problemas que resuelven y explorar gradualmente su implementación en casos de uso empresariales. La comprensión central, el aprendizaje paso a paso y la aplicación de los conceptos ayudan a adquirir habilidades.

Y a veces sucede que, dado que son ortografías muy específicas del dominio, es posible que no puedas usar correctores ortográficos genéricos que existen. Por lo tanto, debes trabajar con expertos en el tema, tratar de entender qué conocimiento del dominio necesitas. ¿Pueden proporcionarnos algún corpus o metadatos o etiquetas que tengan o la taxonomía que tienen en el backend?

A veces no funciona de esa manera. Por lo tanto, se necesita mucha exploración y comprensión de los data para ver cómo solucionarlo. Sí, supongo que el preprocesamiento de datos para cualquier tarea de NLP es una parte muy importante y eso te lleva a crear un mejor modelo. De lo contrario, no importa cuánta ingeniería de características hagas o cuánto ajuste fino hagas. No funcionará y te quedarás atrapado en un laberinto preguntándote qué estoy haciendo mal. Si tu modelo es tan bueno como tus data, entonces basura adentro, basura afuera. Absolutamente.

Muy bien. Aquí hay otra pregunta. Entonces, sabes, mostraste esta pirámide de BERT y eso fue muy interesante. Y como dijiste, aprender todos estos conceptos no debería ser tan desalentador. Pero cuando miro esa pirámide, veo que, OK, sabes, necesito conocer transformers. Y para saber eso, también necesito conocer la atención. Y para saber eso, muchos artículos sobre LSTMs, RNNs y entender eso. Y eventualmente puedes ver cómo puedes meterte en este agujero de conejo donde, cuando estás estudiando un tema, tienes que leer doscientos artículos. Entonces, ¿cómo comprendes los transformers, y BERT específicamente, sin quedar atrapado en estos detalles técnicos muy, muy difíciles? Pero necesitas comprenderlo. Entonces, ¿cómo lo hago? Sí. Diría que la primera forma de hacerlo es simplemente comprender qué está tratando de resolver. Digamos, ¿qué están tratando de resolver los transformers? Lo primero es codificar, decodificar y luego crear esa parte de transformación de data. ¿Qué intenta hacer la atención? Básicamente, intenta crear contexto dentro de los datos contextuales diciendo que, OK, esta palabra pertenece a esta, esta palabra o este sustantivo, o este objetivo al que se está refiriendo. Estas son las dos ideas generales. Ahora necesitas relacionarlo. Entiendo que se han desarrollado muchas formas en el proceso. Pero si comprendes esta comprensión central y luego lees algunos blogs muy, He mencionado algunos de los blogs de GLMR y Chris McCormick, echa un vistazo a cómo los han implementado en sus casos de uso empresariales. Si comprendes lo que hacen y no quieres quedarte atrapado en el agujero de conejo para comprender toda la matemática detrás de ello de una vez, diría que lo hagas paso a paso. Pero primero comprende qué hace, luego ve qué tipo de escenarios empresariales puede resolver, qué tipo de data necesitas para ese escenario. Una vez que comiences a aplicarlo un poco y leas paso a paso lo que está haciendo, así es como te familiarizas con ello. Si estoy atrapado en esta posición, ¿qué opciones de ajuste fino tengo? ¿Qué características adicionales puedo crear para resolver ese problema? Sucede mucho.

Exploring Challenges and Q&A

Short description:

Si buscas cualquier tema, encontrarás miles de materiales de lectura y miles de documentos asociados a él. Intenta resolver algunos de los desafíos que Word2Vec no puede manejar. Los pasos internos involucran el modelado de máscaras y la predicción de oraciones. Desafortunadamente, no tenemos tiempo para preguntas y respuestas, pero Jaytha estará disponible en su sala de conferencias.

Si buscas cualquier tema, encontrarás miles de materiales de lectura y miles de documentos asociados a él. Pero eso ha sido mi curva de aprendizaje. Solo entiendo qué está tratando de resolver y desde dónde. Intenta resolver algunos de los desafíos que Word2Vec no puede manejar, construyendo sobre eso.

¿Cuáles son los parámetros, entradas necesarias? ¿Cómo se ven las categorías de salida? Y luego, ¿cuáles son los pasos internos? Está haciendo modelado de máscaras, está haciendo predicción de oraciones. Estas son las dos características principales. Bueno, ahora, ¿qué tipo de data necesito para resolver algunos desafíos? Entonces, sí, solo para mantener ese proceso y flujo de pensamiento sin quedarme demasiado atrapado en los objetivos internos. Pero si estás interesado, siempre puedes hacerlo, supongo. Definitivamente.

Y honestamente, creo que muchos de nosotros estaríamos interesados en escuchar muchos más detalles. Pero desafortunadamente, en este momento, nos estamos quedando sin tiempo para preguntas y respuestas. Pero Jaytha estará disponible en su sala de conferencias a partir de ahora. Así que si tienes alguna pregunta que necesites hacerle, búscala. Puedes ir a hablar con ella ahora mismo y dirigirte a su sala de conferencias y estoy seguro de que ella estará encantada de responder algunas de tus maravillosas preguntas. Muchas gracias. Fue genial tenerte aquí, Jaytha. Muchas gracias, Ajay. Por supuesto, fue un placer tenerte aquí. Y nos vemos muy pronto. Cuídate. ♪♪♪

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

6 min
Charlie Gerard's Career Advice: Be intentional about how you spend your time and effort
Featured Article
When it comes to career, Charlie has one trick: to focus. But that doesn’t mean that you shouldn’t try different things — currently a senior front-end developer at Netlify, she is also a sought-after speaker, mentor, and a machine learning trailblazer of the JavaScript universe. "Experiment with things, but build expertise in a specific area," she advises.

What led you to software engineering?My background is in digital marketing, so I started my career as a project manager in advertising agencies. After a couple of years of doing that, I realized that I wasn't learning and growing as much as I wanted to. I was interested in learning more about building websites, so I quit my job and signed up for an intensive coding boot camp called General Assembly. I absolutely loved it and started my career in tech from there.
 What is the most impactful thing you ever did to boost your career?I think it might be public speaking. Going on stage to share knowledge about things I learned while building my side projects gave me the opportunity to meet a lot of people in the industry, learn a ton from watching other people's talks and, for lack of better words, build a personal brand.
 What would be your three tips for engineers to level up their career?Practice your communication skills. I can't stress enough how important it is to be able to explain things in a way anyone can understand, but also communicate in a way that's inclusive and creates an environment where team members feel safe and welcome to contribute ideas, ask questions, and give feedback. In addition, build some expertise in a specific area. I'm a huge fan of learning and experimenting with lots of technologies but as you grow in your career, there comes a time where you need to pick an area to focus on to build more profound knowledge. This could be in a specific language like JavaScript or Python or in a practice like accessibility or web performance. It doesn't mean you shouldn't keep in touch with anything else that's going on in the industry, but it means that you focus on an area you want to have more expertise in. If you could be the "go-to" person for something, what would you want it to be? 
 And lastly, be intentional about how you spend your time and effort. Saying yes to everything isn't always helpful if it doesn't serve your goals. No matter the job, there are always projects and tasks that will help you reach your goals and some that won't. If you can, try to focus on the tasks that will grow the skills you want to grow or help you get the next job you'd like to have.
 What are you working on right now?Recently I've taken a pretty big break from side projects, but the next one I'd like to work on is a prototype of a tool that would allow hands-free coding using gaze detection. 
 Do you have some rituals that keep you focused and goal-oriented?Usually, when I come up with a side project idea I'm really excited about, that excitement is enough to keep me motivated. That's why I tend to avoid spending time on things I'm not genuinely interested in. Otherwise, breaking down projects into smaller chunks allows me to fit them better in my schedule. I make sure to take enough breaks, so I maintain a certain level of energy and motivation to finish what I have in mind.
 You wrote a book called Practical Machine Learning in JavaScript. What got you so excited about the connection between JavaScript and ML?The release of TensorFlow.js opened up the world of ML to frontend devs, and this is what really got me excited. I had machine learning on my list of things I wanted to learn for a few years, but I didn't start looking into it before because I knew I'd have to learn another language as well, like Python, for example. As soon as I realized it was now available in JS, that removed a big barrier and made it a lot more approachable. Considering that you can use JavaScript to build lots of different applications, including augmented reality, virtual reality, and IoT, and combine them with machine learning as well as some fun web APIs felt super exciting to me.


Where do you see the fields going together in the future, near or far? I'd love to see more AI-powered web applications in the future, especially as machine learning models get smaller and more performant. However, it seems like the adoption of ML in JS is still rather low. Considering the amount of content we post online, there could be great opportunities to build tools that assist you in writing blog posts or that can automatically edit podcasts and videos. There are lots of tasks we do that feel cumbersome that could be made a bit easier with the help of machine learning.
 You are a frequent conference speaker. You have your own blog and even a newsletter. What made you start with content creation?I realized that I love learning new things because I love teaching. I think that if I kept what I know to myself, it would be pretty boring. If I'm excited about something, I want to share the knowledge I gained, and I'd like other people to feel the same excitement I feel. That's definitely what motivated me to start creating content.
 How has content affected your career?I don't track any metrics on my blog or likes and follows on Twitter, so I don't know what created different opportunities. Creating content to share something you built improves the chances of people stumbling upon it and learning more about you and what you like to do, but this is not something that's guaranteed. I think over time, I accumulated enough projects, blog posts, and conference talks that some conferences now invite me, so I don't always apply anymore. I sometimes get invited on podcasts and asked if I want to create video content and things like that. Having a backlog of content helps people better understand who you are and quickly decide if you're the right person for an opportunity.What pieces of your work are you most proud of?It is probably that I've managed to develop a mindset where I set myself hard challenges on my side project, and I'm not scared to fail and push the boundaries of what I think is possible. I don't prefer a particular project, it's more around the creative thinking I've developed over the years that I believe has become a big strength of mine.***Follow Charlie on Twitter
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: ML in the Browser and Beyond
Discover how to embrace machine learning in JavaScript using TensorFlow.js in the browser and beyond in this speedy talk. Get inspired through a whole bunch of creative prototypes that push the boundaries of what is possible in the modern web browser (things have come a long way) and then take your own first steps with machine learning in minutes. By the end of the talk everyone will understand how to recognize an object of their choice which could then be used in any creative way you can imagine. Familiarity with JavaScript is assumed, but no background in machine learning is required. Come take your first steps with TensorFlow.js!
React Advanced Conference 2021React Advanced Conference 2021
21 min
Using MediaPipe to Create Cross Platform Machine Learning Applications with React
Top Content
This talk gives an introduction about MediaPipe which is an open source Machine Learning Solutions that allows running machine learning models on low-powered devices and helps integrate the models with mobile applications. It gives these creative professionals a lot of dynamic tools and utilizes Machine learning in a really easy way to create powerful and intuitive applications without having much / no knowledge of machine learning beforehand. So we can see how MediaPipe can be integrated with React. Giving easy access to include machine learning use cases to build web applications with React.
JSNation Live 2021JSNation Live 2021
39 min
TensorFlow.JS 101: ML in the Browser and Beyond
Discover how to embrace machine learning in JavaScript using TensorFlow.js in the browser and beyond in this speedy talk. Get inspired through a whole bunch of creative prototypes that push the boundaries of what is possible in the modern web browser (things have come a long way) and then take your own first steps with machine learning in minutes. By the end of the talk everyone will understand how to recognize an object of their choice which could then be used in any creative way you can imagine. Familiarity with JavaScript is assumed, but no background in machine learning is required. Come take your first steps with TensorFlow.js!
ML conf EU 2020ML conf EU 2020
32 min
An Introduction to Transfer Learning in NLP and HuggingFace
In this talk I'll start introducing the recent breakthroughs in NLP that resulted from the combination of Transfer Learning schemes and Transformer architectures. The second part of the talk will be dedicated to an introduction of the open-source tools released HuggingFace, in particular our Transformers, Tokenizers and Datasets libraries and our models.

Workshops on related topic

ML conf EU 2020ML conf EU 2020
160 min
Hands on with TensorFlow.js
Workshop
Come check out our workshop which will walk you through 3 common journeys when using TensorFlow.js. We will start with demonstrating how to use one of our pre-made models - super easy to use JS classes to get you working with ML fast. We will then look into how to retrain one of these models in minutes using in browser transfer learning via Teachable Machine and how that can be then used on your own custom website, and finally end with a hello world of writing your own model code from scratch to make a simple linear regression to predict fictional house prices based on their square footage.
ML conf EU 2020ML conf EU 2020
112 min
The Hitchhiker's Guide to the Machine Learning Engineering Galaxy
Workshop
Are you a Software Engineer who got tasked to deploy a machine learning or deep learning model for the first time in your life? Are you wondering what steps to take and how AI-powered software is different from traditional software? Then it is the right workshop to attend.
The internet offers thousands of articles and free of charge courses, showing how it is easy to train and deploy a simple AI model. At the same time in reality it is difficult to integrate a real model into the current infrastructure, debug, test, deploy, and monitor it properly. In this workshop, I will guide you through this process sharing tips, tricks, and favorite open source tools that will make your life much easier. So, at the end of the workshop, you will know where to start your deployment journey, what tools to use, and what questions to ask.
ML conf EU 2020ML conf EU 2020
146 min
Introduction to Machine Learning on the Cloud
Workshop
This workshop will be both a gentle introduction to Machine Learning, and a practical exercise of using the cloud to train simple and not-so-simple machine learning models. We will start with using Automatic ML to train the model to predict survival on Titanic, and then move to more complex machine learning tasks such as hyperparameter optimization and scheduling series of experiments on the compute cluster. Finally, I will show how Azure Machine Learning can be used to generate artificial paintings using Generative Adversarial Networks, and how to train language question-answering model on COVID papers to answer COVID-related questions.